Seiten mithilfe einer robots.txt-Datei blockieren oder entfernen - Webmaster-Tools-Hilfe
Wie schafft ihr es nach nur einer einfachen Funktion 2 Sicherheitslücken zu finden?
PHPAnwendung: highlight($_POST["suche"],($row4->tags));Funktion = function highlight($search, $found) { return str_replace($text,'<strong>'.$text.'</strong>', $content); }
Schon mal etwas von Cross Site Scripting gehört? Denke nicht.
Zu einer echten Suchmaschine gehören auch Crawler.. da wird nicht alles selber eingetragen.
Ach du scheisse als ich du mich mal aufmerksam darauf gemacht hast wurde mir Schwarz unter den Augen insgesammt 5 Sicherheitslücken so alle weg da ich wieder mit PHP nur arbeite AJAX usw wird in der V1.5 Benutzt
Danke & Crawler will ich lieber nicht selber machen da ich es grad Lese wie das so geht