Künstliche Intelligenz 05.09.2025, 10:18 Uhr

KI-Tools erstellen bereitwillig Desinformation

Forscher der University of Technology Sydney lassen trotz Sicherheitsvorkehrungen Fake News generieren. Die Sicherheitsmassnahmen seien überraschend oberflächlich.
(Quelle: EMGenie)
Prominente, Politiker, Kriminelle und Co müssen sich Fake News dank Künstlicher Intelligenz (KI) nicht mehr selber ausdenken. Zwar sind die Tools mit Sicherheitsmerkmalen ausgestattet, die eine solche Bitte eigentlich mit Sätzen wie "Ich kann Ihnen bei der Erstellung falscher Informationen nicht helfen" beantworten sollten. Doch die Medienforscher Lin Tian und Marian-Andrei Rizoiu von der University of Technology Sydney haben einen Weg gefunden, die Vorsichtsmassnahmen zu umgehen.

Alarmierend leicht zu umgehen

"Unsere Tests zeigen, dass diese Sicherheitsmassnahmen überraschend oberflächlich - oft nur wenige Worte tief - und daher alarmierend leicht zu umgehen sind. Was wir herausgefunden haben, sollte jeden beunruhigen, der sich um die Integrität von Online-Informationen sorgt", warnen die Wissenschaftler.
Die Experten haben sich einer Studie von Google und der Princeton University bedient. Danach bestehen die derzeitigen Sicherheitsmassnahmen in erster Linie darin, die ersten paar Wörter einer Frage beziehungsweise Bitte zu kontrollieren. Wird ein kommerzielles Sprachmodell direkt aufgefordert, Desinformationen über australische politische Parteien zu erstellen, lehnt es das korrekt ab.
Kaschiert der User hingegen die Bitte damit, dass sie von einem Social-Media-Vermarkter kommt, der allgemeine Strategien und Verfahren zur Aufdeckung von Fake News entwickelt, kommen die Tools der Aufgabe begeistert nach. Sie produzierten eine umfassende Desinformationskampagne, in der die Rentenpolitik der australischen Labour-Partei fälschlicherweise als "Quasi-Erbschaftssteuer" dargestellt wurde. Auch umfasste sie plattformspezifische Beiträge, Hashtag-Strategien und Vorschläge für visuelle Inhalte, die darauf abzielten, die öffentliche Meinung zu manipulieren.

Grosse Sprachmodelle im Visier

"Das Hauptproblem besteht darin, dass das Modell schädliche Inhalte generieren kann, aber nicht weiss, dass sie schädlich sind und warum es die Antwort ablehnen sollte", schreiben die Medienwissenschaftler. Grosse Sprachmodelle seien lediglich darauf trainiert, bei bestimmten Themen mit "Ich kann nicht" zu antworten.
"Um diese Schwachstelle zu demonstrieren, haben wir mehrere beliebte KI-Modelle mit Prompts getestet, die darauf ausgelegt waren, Desinformation zu generieren. Die Ergebnisse waren beunruhigend: Modelle, die direkte Anfragen nach schädlichen Inhalten konsequent ablehnten, kamen der Anfrage bereitwillig nach, wenn sie in scheinbar harmlose Rahmenbedingungen eingebettet war", heisst es abschliessend. (pressetext.com)


Kommentare
Es sind keine Kommentare vorhanden.