<?xml version="1.0" encoding="UTF-8"?>
<rss xmlns:dc="http://purl.org/dc/elements/1.1/" version="2.0">
  <channel>
    <title>Kurze Frage zu einem POST Request .....</title>
    <link>http://forum.geizhals.at/feed.jsp?id=571076</link>
    <description>Geizhals-Forum</description>
    <item>
      <title>Re: Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4801364.html#4801364</link>
      <description>&lt;blockquote&gt;&lt;em&gt; ...diese die method="post" übergeb, und eine action="blabla.html?input=15"...&lt;/em&gt;&lt;/blockquote&gt;&lt;br&gt;Sobald du in der URL parameter übergibst widersprichst du ja eigentlich der Idee des POST requests. Also steck alle Parameter in den Body des Requests, indem du besagtes Form verwendest. Das hindert natürlich nichts und niemanden daran, diesen Request auch via POST auszuführen. Also am besten schon bei der Security VOR dem Posten ansetzen. Aber dazu hast du ja eh schon einige Ideen bekommen...&lt;br/&gt;</description>
      <pubDate>Sat, 17 May 2008 12:39:22 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4801364.html#4801364</guid>
      <dc:creator>RevX</dc:creator>
      <dc:date>2008-05-17T12:39:22Z</dc:date>
    </item>
    <item>
      <title>Re(3): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800968.html#4800968</link>
      <description>Also wennst am Server PHP, Perl, ... hast, dann nimm noch eine Session Variable beim Submit mit dazu, dann hast auch einen Schutz bei Spammern.&lt;br&gt;&lt;br/&gt;</description>
      <pubDate>Sat, 17 May 2008 07:27:02 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800968.html#4800968</guid>
      <dc:creator>jobnavigator</dc:creator>
      <dc:date>2008-05-17T07:27:02Z</dc:date>
    </item>
    <item>
      <title>Re(5): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800157.html#4800157</link>
      <description>&lt;blockquote&gt;&lt;em&gt; also ist es garantiert [..] &lt;/em&gt;&lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;das musst du wissen - ist es garantiert? &lt;img src="zwinker.gif" width="16" height="19" align="absmiddle" alt=";-)"/&gt;&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:24:01 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800157.html#4800157</guid>
      <dc:creator>japh</dc:creator>
      <dc:date>2008-05-16T14:24:01Z</dc:date>
    </item>
    <item>
      <title>Re(4): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800152.html#4800152</link>
      <description>ok - war ein denkfehler, natürlich kommt er ohne gültige session garnicht dorthin!!!&lt;br&gt;&lt;br&gt;also ist es garantiert, dass nur ein eingeloggter benutzer mit gültiger aktiven session dorthinkommt&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:19:23 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800152.html#4800152</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T14:19:23Z</dc:date>
    </item>
    <item>
      <title>Re(3): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800148.html#4800148</link>
      <description>&lt;blockquote&gt;&lt;em&gt; natürlich ist alles unter user control - d.h. theoretisch garnicht möglich für den crawler, aber falls doch (irgendwie hauts eine session zam oder so), dann habe ich keine möglichkeit ausser den request davor zu resolven und es nagelfest nur für diesen benutzer zu erlauben oder ?&lt;/em&gt;&lt;/blockquote&gt;&lt;br&gt;&lt;br&gt;wenn sich einer ein login krallt oder eine session hijackt, keine chance.&lt;br&gt;&lt;br&gt;CAPTCHA kannst machen (auch schon viele gecrackt), aber es kommt halt immer drauf an ob der maximal moegliche schaden den aufwand rechtfertigt.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:17:14 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800148.html#4800148</guid>
      <dc:creator>japh</dc:creator>
      <dc:date>2008-05-16T14:17:14Z</dc:date>
    </item>
    <item>
      <title>Re(3): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800146.html#4800146</link>
      <description>Also wenn die Webseite richtig programmiert ist, sollte man ohne Session gar nicht erst dort hinkommen. Ansonsten hast du wahrscheinlich ganz andere Probleme.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:16:37 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800146.html#4800146</guid>
      <dc:creator>hellbringer</dc:creator>
      <dc:date>2008-05-16T14:16:37Z</dc:date>
    </item>
    <item>
      <title>Re(3): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800147.html#4800147</link>
      <description>Also wenn die Webseite richtig programmiert ist, sollte man ohne gültige Session gar nicht erst dort hinkommen. Ansonsten hast du wahrscheinlich ganz andere Probleme.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:16:37 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800147.html#4800147</guid>
      <dc:creator>hellbringer</dc:creator>
      <dc:date>2008-05-16T14:16:37Z</dc:date>
    </item>
    <item>
      <title>Re(2): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800140.html#4800140</link>
      <description>ok danke -&lt;br&gt;&lt;br&gt;habe jetzt eine robots.txt eingerichtet und ausserdem alle ausführbaren aktionen über einen post request gemacht.&lt;br&gt;&lt;br&gt;sollte ein spammer/cracker aber submitten - dann hab ich ein problem ^^&lt;br&gt;&lt;br&gt;was ich machen möchte: eine tabelle mit fotos, wenn man den link unter dem foto folgt, dann wird einfach ein Update in der DB gemacht, und ein flag von 'N' auf 'Y' gesetzt.&lt;br&gt;&lt;br&gt;natürlich ist alles unter user control - d.h. theoretisch garnicht möglich für den crawler, aber falls doch (irgendwie hauts eine session zam oder so), dann habe ich keine möglichkeit ausser den request davor zu resolven und es nagelfest nur für diesen benutzer zu erlauben oder ?&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:12:36 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800140.html#4800140</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T14:12:36Z</dc:date>
    </item>
    <item>
      <title>Re: Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800130.html#4800130</link>
      <description>"brave" crawler werden sich an sowas halten, aber du musst unbedingt davon ausgehen, dass dein formular auch automatisiert benutzt werden wird.&lt;br&gt;&lt;br&gt;spammer/cracker z.b. crawlen herum und submitten alles was nicht niet- und nagelfest ist.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:05:45 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800130.html#4800130</guid>
      <dc:creator>japh</dc:creator>
      <dc:date>2008-05-16T14:05:45Z</dc:date>
    </item>
    <item>
      <title>Re(6): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800124.html#4800124</link>
      <description>ok - ich werd das einfach folgendermaßen lösen:&lt;br&gt;&lt;br&gt;in der &amp;lt;form method ....... onsubmit="BEFEHL"&amp;gt;&lt;br&gt;&lt;br&gt;sonst wärs einfach ein &lt;a href=""/&gt; gewesen - nur wäre das dann kein post request - und theoretisch, falls der crawler einen dreck baut, dann führt er gleich 1000 updates in der DB aus ....&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:03:59 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800124.html#4800124</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T14:03:59Z</dc:date>
    </item>
    <item>
      <title>Re(5): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800120.html#4800120</link>
      <description>das weiß ich nicht.&lt;br&gt;crawler verhält sich eigentlich nicht anders als ein user der herumsurft.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 14:01:51 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800120.html#4800120</guid>
      <dc:creator>nico</dc:creator>
      <dc:date>2008-05-16T14:01:51Z</dc:date>
    </item>
    <item>
      <title>Re(4): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800115.html#4800115</link>
      <description>eine frage hätte ich noch:&lt;br&gt;&lt;br&gt;ignorieren crawler javascripts ??&lt;br&gt;&lt;br&gt;&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:59:39 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800115.html#4800115</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T13:59:39Z</dc:date>
    </item>
    <item>
      <title>Re(4): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800106.html#4800106</link>
      <description>vielen dank !&lt;br&gt;&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:54:57 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800106.html#4800106</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T13:54:57Z</dc:date>
    </item>
    <item>
      <title>Re(3): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800079.html#4800079</link>
      <description>ja wäre es.&lt;br&gt;&lt;br&gt;robots.txt ins root dir legen&lt;br&gt;&lt;br&gt;inhalt:&lt;br&gt;User-agent: *&lt;br&gt;Disallow: /&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:45:52 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800079.html#4800079</guid>
      <dc:creator>nico</dc:creator>
      <dc:date>2008-05-16T13:45:52Z</dc:date>
    </item>
    <item>
      <title>Re(2): Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800069.html#4800069</link>
      <description>oh vielen dank&lt;br&gt;&lt;br&gt;folgen crawler normalerweise nur links ??&lt;br&gt;&lt;br&gt;mein problem liegt momentan daran, dass ich ca 10 links auf meiner seite habe, die jeder eine aktion ausführt in der Datenbank (einfach ein update mit where statement auf die inputID)&lt;br&gt;&lt;br&gt;jedenfalls wird die aktion auch ausgeführt, wenn ich einfach nur die URL in die adressleiste eingebe, was bei einem crawler doch auch der fall wäre oder nicht ???&lt;br&gt;&lt;br&gt;&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:39:57 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800069.html#4800069</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T13:39:57Z</dc:date>
    </item>
    <item>
      <title>Re: Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800067.html#4800067</link>
      <description>robots.txt und crawler zugriff verweigern.&lt;br&gt;&lt;br&gt;aber crawler folgen nur den links sie füllen keine formular felder aus.&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:34:09 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800067.html#4800067</guid>
      <dc:creator>nico</dc:creator>
      <dc:date>2008-05-16T13:34:09Z</dc:date>
    </item>
    <item>
      <title>Kurze Frage zu einem POST Request .....</title>
      <link>http://forum.geizhals.at/t571076,4800045.html#4800045</link>
      <description>Hi, da ich mich länger nicht damit befasst habe, und jetzt eine minimale auffrischung in diesem gebiet benötige:&lt;br&gt;&lt;br&gt;angenommen ich möchte auf einen ganz normalen HTML link einen POST Request setzen.&lt;br&gt;also ich habe zB. folgenden Request:&lt;br&gt;&lt;br&gt;blabla.html?input=15&lt;br&gt;&lt;br&gt;welcher irgendeine aktion ausführen würde.&lt;br&gt;&lt;br&gt;das ist doch insofern gefährlich, weil ein crawler zB. diese aktion ausführen würde, wenn er die URL aufruft.&lt;br&gt;&lt;br&gt;deshalb meine lösung: request mit Post "verstecken"&lt;br&gt;&lt;br&gt;wie mache ich dies nun am besten ??&lt;br&gt;&lt;br&gt;mein problem:&lt;br&gt;&lt;br&gt;wenn ich den link umbaue, und eine form daraus mache, diese die method="post" übergeb, und eine action="blabla.html?input=15" (oder mit einem hidden-field), würde der crawler, wenn er die URL aufruft, dennoch mein skript ausführen - oder wie dreh ich das ab ????&lt;br&gt;&lt;br&gt;mfg&lt;br/&gt;</description>
      <pubDate>Fri, 16 May 2008 13:16:07 GMT</pubDate>
      <guid>http://forum.geizhals.at/t571076,4800045.html#4800045</guid>
      <dc:creator>kracker</dc:creator>
      <dc:date>2008-05-16T13:16:07Z</dc:date>
    </item>
  </channel>
</rss>
