News 08.10.2009, 09:47 Uhr

Webmaster ignorieren Malware-Alarm

Wenig beeindruckt zeigen sich Webmaster von der Warnung, dass ihre Webseiten als Malware-Schleudern agieren. Sie reagieren spät bis gar nicht.
Immer öfter werden seriöse Seitenbetreiber von Kriminellen missbraucht, um über ihr Webangebot Malware zu verbreiten. Die Seitenbesucher merken dabei nicht, dass sie via Drive-by-Download zum Opfer werden. Aber wie reagieren die Webmaster, wenn sie davon erfahren? Sicherheitsexperte G Data wollte das genau wissen und kontaktierte Anbieter, deren Webserver massiv Schadcode auslieferten. Das Ergebnis: 45 Prozent der Webmaster nahmen ihre Malware-Schleudern erst nach mehreren Wochen oder gar nicht vom Netz.
«Eile mit Weile» scheint das Motto der Seitenbetreiber zu sein
«Beispielsweise haben wir zuletzt einen bekannten Stuttgarter Sportvermarkter über einen Schadcode auf seiner Website informiert. Drei Wochen später war dieser Computerschädling aber immer noch aktiv – wie viele Nutzer darüber ihren PC infiziert haben, kann man nur erahnen», schildert Ralf Benzmüller, Leiter der G Data Security Labs.



Kommentare
Avatar
oceco
08.10.2009
Erlich gesagt ist es mir auch schon passiert, mehrmals sogar. Oft schreibt man eine Webseite und fügt ein Forum (so wie phpbb) ein. Irgendwann ist die Seite gehackt und ein Bot füllt sie mit Porno-Links auf. Mit phpBB2 is mir genau das vor zwei Jahren auch passiert. Seitdem ist das Forum geschlossen, denn ein Upgrade auf die neue, sichere Version war mir wegen meinen Modifikationen zu aufwändig. phpBB ist ausserdem eine sehr schlechte Referenz. Bei denen wurden schon mal alle Accounts mit Passworten geklaut! Alle OpenSource CMS und Foren werden sehr schnell gehackt. Diese Aussage ist sehr pauschalisierend und entspricht absolut nicht meiner Erfahrung. Mit WordPress, Gallery2 und MediaWiki hatte ich noch nie auch nicht das geringste Problem. Alle lassen sich auch nach Modifikationen noch sehr einfach upgraden! Einzige richtige Lösung: selber etwas schreiben!Diese Aussage mag für Dich stimmen, für die meisten andern ist das nur Schwachsinn (gilt auch für mich)! Selber würde ich mir nie zutrauen einen zuverlässigen, sicheren Parser für User Formular-Input und URI-Parameter zu einer Webseite erstellen zu können, wohl aber zum Beispiel in MediaWiki den vorhandenen Input-Parser auf sichere Art zu modifizieren (z.B. <IFRAME ...> sind nur von meiner Domain möglich). Aber selbst dafür und trotz guter MediaWiki-Dokumentation braucht man schon ein sehr solides Wissen, um dies umsetzen zu können. Deine letzte Aussage halte ich darum für gemeingefährlich für die Allgemeinheit! (Es sei denn, Du willst diese Dienstleistung als Voll-Profi der Allgemeinheit anbieten ;-) CU/oceco

Avatar
Adriano
09.10.2009
Diese Aussage ist sehr pauschalisierend und entspricht absolut nicht meiner Erfahrung. Mit WordPress, Gallery2 und MediaWiki hatte ich noch nie auch nicht das geringste Problem. Alle lassen sich auch nach Modifikationen noch sehr einfach upgraden! Es ist so: bei einer OpenSource-Projekt, sieht jeder wo die Schwachpunkte liegen. Ich selber musste die Capchta-Erkennung umgehen (bei phpbb2) weil ich wusste wie man sie hacken konnte. Und wenn ich es kann, dann können die russische bots es auch! Als Webmaster muss man nur auf bots aufpassen. Bots sind Tausende von PC, die wie Google funktionieren. Die parsen alle Websites und suchen Emails und Formulare. - Die Emails werden für Phishing-Attacke benutzt - Formulare werden ausgefüllt für ein Login zu bekommen oder damit sie ein Porno-Link hinzufügen können Bei Emails ist es sehr einfach: Javascript-Funktion schreiben, damit die Email nicht als ganzes im Text vorkommt Bei Formulare ist es komplizierter, da die Bots genau wissen wie man Foren-Registrierungen ausfüllen müssen. Auch Hier hilft eine Javascript-Funktion die auf ein Mouse-Click reagieren. Google und andere Bots können solche Funktionen nicht ausführen, da sie automatisiert sind. Eine Einfache Lösung ist auch eine kleine Rechnung (wie z.B. Wie viele Kantone hat die Schweiz?) :D