Eine künstliche Intelligenz (KI) lässt sich auch missbrauchen, um Deepfakes zu produzieren: falsche Gesichter, nachgeahmte Stimmen, gefakte Social-Media-Profile. Wir verraten Ihnen, wo die Fallen warten.
(Quelle: Shutterstock/Lightspring)
Bild 1: Das KI-Fake-Bild des ehemaligen Papstes Franziskus. Quelle: Reddit
Quelle: PCtipp.ch
Die Möglichkeiten, die künstliche Intelligenz (kurz KI) mit sich bringt, überrollt gerade sämtliche Anwender und setzt sie in Erstaunen. Vor knapp zwei Jahren starteten die ersten KI-Dienste, mit denen sich Bilder mithilfe einer KI kreieren lassen. Dabei hat die Maschine zuvor aus Millionen von Bilddaten die Stile und alles Weitere gelernt und nutzt diese in der Mischung für neue Bilder. Inzwischen lassen sich bei der Kreation eines Bildes viele Parameter angleichen und das Wunschbild verfeinern. Seit dies möglich ist, finden sich immer mehr gefälschte Bilder in Fotoqualität im Internet. Mediale Furore erzeugte etwa ein Bild des ehemaligen Papstes Franziskus mit einer dicken Jacke und Schmuck, womit er
Bild 2: Frankreichs Präsident Macron wurde ungefragt Müllmanndarsteller. Quelle: Reddit
Quelle: PCtipp.ch
aussah wie ein Rapper, Bild 1. Natürlich waren in dem Bild nur der Kopf und das Gesicht des Papstes auf den Körper einer anderen Person digital montiert. Das aber hat die KI so geschickt und fehlerfrei gemacht, dass es täuschend echt aussieht. Auch der französische Präsident Macron wurde bereits verunglimpft – als vermeintlicher Müllmann, Bild 2.
Aber das war nur der Anfang. Inzwischen sind Deepfakes noch perfekter – je nachdem, was Cyberangreifer damit vorhaben.
Mehr als ein Foto
Ein Deepfake – also eine täuschend echt angefertigte Fälschung kann sein:
ein gefälschtes Bild einer Person oder einer Gruppe
eine gefälschte Stimme einer Person – etwa für den Enkeltrick
ein gefälschtes Video
Aber zu einem Deepfake werden auch gerne gefälschte Texte oder Social-Media-Profile genutzt, die von einer KI angepasst wurden. Somit ist der perfekte Rahmen generiert, um den Deepfake zu verbreiten. Denn wer ein solches Bild oder Video sieht oder eine Stimme hört, versucht oft, die Quelle zu verifizieren. Wer eine glaubhafte Quelle findet, ist vielleicht von der Echtheit überzeugt und verbreitet das Material weiter. Damit hat der Deepfake eine weitere glaubhafte Quelle geschaffen.
Gerade in den sozialen Medien verbreiten sich die gefälschten Bilder und Videos. Wobei inzwischen Videos die Nase vorn haben. Besonders verwerflich sind überarbeitete, pornografische Clips. Als die ersten davon auftauchten, wurden den Darstellerinnen meist die Gesichter von bekannten Stars aus der Filmbranche aufmontiert. Die ersten Werke waren noch leicht zu erkennen, aber inzwischen sind auch hier fast perfekte Versionen unterwegs. Aber nicht nur Gesichter von Stars wurden verwendet. Immer mehr Videos tauchen zum Beispiel mit dem Gesicht der Ex-Freundin auf, um sie mit einem gefälschten Video auf Social Media zu mobben.
Leider ist das mögliche Spektrum durch die KI kaum begrenzt. Hier liegt es an den Plattformen, solche Videos zu sperren oder zu löschen. Schaut man aber auf X – ehemals Twitter – so kümmert sich die Plattform seit der Übernahme von Elon Musk um fast nichts mehr. Vorhandene Deepfakes lassen sich so nicht mehr aufhalten.
Aber nicht nur Mobbing kommt auf die Gesellschaft durch Deepfakes verstärkt zu. Die Beeinflussung der Bürger durch Desinformation und gefälschte Fakten ist viel bedrohlicher. Auch viele Unternehmen leiden bereits unter Deepfakes mit Videos in Echtzeit, KI-generierten Stimmen und Phishing. Normale Nutzer werden ebenfalls mit verbesserten Lockanrufen oder dem klassischen Enkeltrick konfrontiert; nun aber neu mit gefälschten Stimmen am Telefon.
Die Technik
Viele Anbieter von freien KI-Services achten natürlich auf die Ein- und Ausgabe der Dateien. So wird gescannt, ob diese pornografisches Material sind oder was der Betrachter gerade baut. Recht frei verwenden lassen sich etwa Microsofts Copilot oder ChatGPT. Beiden genügt die Anmeldung per Nutzerkonto. Für die Kreation von Bildern gibt es Microsofts Bing-Creator mit Dall-E, der einfache Bilder auf Basis einer Textangabe erstellt, Bild 3. Aber diese haben auf der kostenlosen Basis nicht die Qualität für Deepfakes.
Bild 3: Per Microsoft-Konto kann man sich im Bing-Creator mit der KI Bilder erstellen lassen – aber nur mit einfacher Qualität
Quelle: PCtipp.ch
Für eine Qualität wie beim falschen Papstbild nutzen die meisten Plattformen wie NightCafe (creator.nightcafe.studio), Bild 4, oder Midjourney (midjourney.com), Bild 5. Sie sind nur zum Testen oder für ein Bild pro Tag kostenfrei und wollen für weitere Berechnungen in Credits bezahlt werden. Normalerweise deckt ein Anwender mit der Bezahlung durch seinen Bankdaten auf, wer er ist und wo er herkommt. Aber mit etwas Mühe geht das auch anonym, wenn er etwa mit Bargeld Gutscheine kauft, mit denen er im Web bezahlen kann (etwa Paysafecard). Diese Wertgutscheine lassen sich an Tankstellen oder in Supermärkten anonym erwerben.
Bild 4: In NightCafe können Nutzer ein hochqualitatives Bild pro Tag kostenlos erstellen
Quelle: PCtipp.ch
Bild 5: Mithilfe von Midjourney lassen sich fotorealistische Deepfakes erstellen – wie das des Präsidenten Macron
Quelle: PCtipp.ch
Viele KI-Plattformbetreiber generieren nicht nur Inhalte mithilfe der KI, sondern lassen gleichzeitig die Bilder auch durch die eigene oder eine zweite KI kontrollieren.
Die Kontrolle von «expliziten oder unangemessenen Bildern» nennen das die Dienste. Im Prinzip sind es Filter, die besondere Aktionen verhindern sollen – etwa Pornografie. Ob Bilder die Rechte von Personen oder Marken verletzen, das erkennt die Maschine nicht. So stammen die Bilder des Papstes oder von Macron wohl von der Plattform Midjourney, so behaupten es die Posts zumindest auf Reddit, welche die Bilder verbreitet haben.
Während sich Plattformen wie Midjourney oder NightCafe hauptsächlich auf Bilder (und teilweise auch Videos) und Kunst spezialisieren, lassen sich zum Beispiel auf getimg.ai auch Videos produzieren. Neulinge, die sich etwa per Google-Account einloggen, erhalten 100 Credits kostenlos. Aber so richtig weit kommt man damit nicht. Allerdings: die vorhandenen Videos sind einen Blick wert. Sie haben teils Spielfilmqualität und zeigen, was mit der KI-gestützten Erstellung von Videos alles möglich ist. Dort gibt es in den Vorlagen ein 5-Sekunden-Video namens «Space Traveller», Bild 6. Das Video wurde einfach mit diesem Text definiert: «Ein Mädchen in futuristischer Rüstung steht vor einem riesigen ausserirdischen Portal aus flüssigem Silber, das sich nach innen wellt; die Kamera schiebt sich langsam von hinten auf sie zu und enthüllt einen wirbelnden Himmel mit zwei Sonnen, dramatischen Orchesterwellen, hyperdetaillierten reflektierenden Oberflächen und traumhafter Beleuchtung». Bereits dieses Ergebnis ist erstaunlich und lässt sich durch Verändern des Textes beliebig anpassen. Probieren Sie es aus – Sie haben 100 Credits.
Bild 6: Auf der Plattform getimage.ai lassen sich kurze Videos per KI in hoher Qualität erstellen. Das Ausprobieren ist kostenlos
Quelle: PCtipp.ch
Dunkle KIs für Deepfakes
Während viele der KI-Plattformen die Ausgabe der Ergebnisse bei Bedarf zensieren, haben sich im Darknet die passenden Angebote positioniert, die eine Ausgabe der Ergebnisse nicht beschneiden. Solange der Nutzer zahlt, darf er machen, was er will: verwerfliche Bilder, gefälschte Videos, Propaganda, Desinformation. Einige der Ergebnisse sind zwar für Desinformation, aber das meiste Material ist Grundlage für Cyberattacken auf Nutzer und Unternehmen. Leider lassen sich auch immer wieder Anwender mit den illegalen Möglichkeiten einer KI in die Falle locken.
Bild 7: Die Darknet-KI FraudGPT offeriert jedem seine Dienste, der dafür zahlt
Quelle: PCtipp.ch
So gab es kürzlich eine Webseite, die einen «Deepnude AI Image Generator» anbot. Wer sie nutzte, fing sich gleich eine schöne Portion gefährlicher Malware ein. Ein Sicherheitsanbieter hatte die Seite bemerkt und für ihre Abschaltung gesorgt. Aber inzwischen dürfte das gefährliche Angebot an anderer Stelle wieder aufgetaucht sein.
Natürlich haben Sicherheitsforscher auch die Angebote im Darknet im Blick und kennen die dortigen Möglichkeiten. Im Angebot sind modifizierte generative KI-Modelle wie WormGPT, GhostGPT und FraudGPT, die alle speziell für bösartige
Bild 8: Die Angebotsliste einer Darknet-KI umfasst alles, was Cybergangster suchen
Quelle: PCtipp.ch
Zwecke entwickelt wurden, Bild 7. Sie setzen auf das klassische Geschäft: Wer zahlt, der bekommt, was er will. Das sind ausser Deepfakes natürlich auch Malware, gefährliche Skripte und ganze Pakete für Phishing, Bild 8.
Während produzierte Malware und Phishing für die breite Masse gedacht sind, werden die meisten Deepfakes für Angriffe und Betrügereien eingesetzt, die auf Unternehmen abzielen. Die Erklärung dazu ist ganz einfach: Ein guter Deepfake ist teuer! Aber das ist wie in der legalen Geschäftswelt eine Investition, wie ein Fall im Januar 2024 zeigt. Dabei wurde ein internationaler Konzern in Hongkong um fast 22,5 Millionen Franken (200 Millionen Hongkong-Dollar) gebracht. Der klassische Weg für den Betrug wäre eine gefälschte E-Mail (BEC = Business E-Mail Compromise) und ein Anruf gewesen. In diesem speziellen Fall gab es eine Videoübertragung mit einem KI-generierten Teilnehmer – dem Chef des Unternehmens. Dieser forderte seine Mitarbeiter auf, schnell zu reagieren und sein gerade abgeschlossenes Geschäft zu besiegeln, in dem man sofort das Geld überweist. Diese Weisung wurde befolgt und die 22,5 Millionen Franken waren verloren.
Deepfakes abwehren
Wie gut ein Deepfake sein kann, zeigt etwa die Seite the-decoder.de, Bild 9. Dort finden sich Videos mit Sly Stallone als Terminator, generiert aus einer Originalfilmszene. Während man hier noch kleine Fehler im Video sieht, gibt es dort ebenfalls eine Szene als Biopic über Freddie Mercury. Darin wurde das Gesicht des Schauspielers Rami Malek mithilfe der KI durch das Gesicht von Freddie Mercury ausgewechselt. Die Szene sieht einfach so echt aus, dass man davon Gänsehaut bekommt. Die Webseite möchte natürlich keine Deepfakes vertreiben. Die Macher wollen nur zeigen, was alles bereits möglich ist – und das mit begrenzten Mitteln.
Bild 9: Ein Beispiel, was man mit KI machen kann – bei Fans übernimmt Sly Stalone die Rolle des Terminators
Quelle: PCtipp.ch
Hier geben die Macher ja zu, dass diese Deepfakes sind. Anders sieht es aus bei den Fälschungen von Cyberkriminellen. Auch diese lasse sich mit der passenden Software und KI entlarven – sogar in Echtzeit, etwa bei einer Videokonferenz. Aber genauso teuer wie ein guter Deepfake ist dessen automatische Abwehr durch Erkennung. Im privaten Bereich gibt es aktuell keine Schutz-Software, die so etwas beherrscht. Ein Security-Paket kann lediglich Links oder Skripte erkennen, die zu gefährlichen Seiten führen.
Aber für Unternehmen gibt es die ersten Lösungen, die Videos analysieren oder sogar Schutzmodule für Videokonferenz-Software wie Microsoft Teams anbieten. Das Interessante dabei: Einige Forschungsprojekte laufen bereits seit 2020 und früher; sie sollten Videos erkennen wegen der Gefahr der Desinformation bei Wahlen oder Kampagnen. Die Forschung wurde aber teils von der Realität überholt. Dennoch gibt es bereits einige Lösungen für Unternehmen. Das gute dabei: Fast alle Lösungen für Unternehmen kommen irgendwann auch für die breite Masse – also für Endanwender – auf den Markt.
Sentinel: Der Security-Hersteller hat mit thesentinelai.com eine Plattform entwickelt, die auf professioneller Basis Deepfakes für Unternehmen erkennen kann.
Attestiv: Die cloudbasierte Deepfake-Videoerkennungs-Software von Attestiv nutzt KI- und Machine-Learning-Technik (ML), um Hinweise auf Manipulationen oder synthetische Elemente in Mediendateien aufzudecken. So lassen sich online Videos hochladen und analysieren. Das Angebot richtet sich an Unternehmen und Videoproducer.
FakeCatcher: Intel forscht an einer Lösung und hat bereits erste Demos seines FakeCatchers parat. Die Lösung soll nicht eigenständig, sondern später in eine Software integriert sein, etwa für Videokonferenzen und mehr.
RealityDefender: Das ehemalige Forschungsprojekt ist nun ein Produkt und bietet Schutz für Unternehmen bei Videokonferenzen, in dem es Deepfakes erkennen kann.
Deepfake-Scanner für alle
Es gibt allerdings einen kleinen Service, den jeder Nutzer ausprobieren kann – unter dem Link deepware.ai, Bild 10. Dort lassen sich kleine Videos auf ihre Echtheit untersuchen. Allerdings ist der Scanner noch in der Beta-Phase und kann nicht mit sehr grossen Videos umgehen. Aber ein kleiner Test hat gezeigt, dass er zuverlässig funktioniert. Wir haben ein YouTube-Video analysieren lassen, in dem «vermeintlich» Tom Cruise herumläuft und unsinniges redet. Diese Videos gibt es zuhauf in YouTube und sie sind auch ganz klar als Deepfakes deklariert. Der Deepware-Scanner nutzt verschiedene Scanner gleichzeitig und lässt das Video analysieren. Dabei wird besonders das Gesicht von der KI gescannt und analysiert. Das erkennt man im Check, da das grün umrandete Gesicht gescannt wird. Am Ende findet sich unter dem Bild das Ergebnis, das in diesem Fall bei einer Scan-Engine zu 100 Prozent den Fake entdeckt. Weiter Analysen zeigen nur 10 bis 19 Prozent Wahrscheinlichkeit an.
Bild 10: Deepware.ai entlarvt dieses Web-Video mit Tom Cruise als Deepfake
Quelle: PCtipp.ch
Wenn Sie Bilder und Stimmen überprüfen möchten, gibt es auch diverse KI-Scanner dafür. Leider funktionieren viele nicht sehr gut, aber es gibt Lichtblicke. Der Scanner «AI or Not» (aiornot.com) kostet normalerweise eine Gebühr pro Monat, aber es gibt auch einen «Free Plan», mit dem man pro Monat zehn Bilder und sogar zehn Stimmaufnahmen kostenlos kontrollieren kann, Bild 11. Wir haben den Service mit dem gefälschten Bild des Papstes Franziskus und dem Pressebild von Bundeskanzler Viktor Rossi ausprobiert. Während das Papstbild als Fälschung erkannt und enttarnt wird, zeigt der Scan des Bundeskanzlerbildes, dass es sich um ein Foto eines echten Menschen handelt, Bild 12.
Bild 11: «AI or Not» prüft unser Papst-Bild auf seine Echtheit und stellt fest, dass dieses ein Deepfake einer KI ist
Quelle: PCtipp.ch
Bild 12: Die Prüfung des Pressebilds von Bundeskanzler Viktor Rossi bestätigt der Service «AI or Not» als echtes Bild
Quelle: PCtipp.ch
Der Service «AI or Not» prüft auf Wunsch auch Stimmdateien, ob diese von einer Maschine oder von einem Menschen stammen. Dieser Check ist im kleinen Umfang kostenlos. Es lassen sich WAV, MP3 und Flac-Dateien untersuchen – mit maximal 10 MB und 5 Sekunden Laufzeit.
Unser Tipp: Wenn Sie ein unglaubliches Bild oder Video im Internet sehen, hinterfragen Sie die Quellen und bewahren Sie sich eine gute Portion Misstrauen. Testen Sie auch mal mithilfe der genannten Tools, ob ein Bild gefälscht ist oder nicht.