Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

KI ist meistens ein schlechter Wachmann

Generative Künstliche Intelligenz erkennt Straftaten mal zweifelsfrei und dann mal wieder nicht.
© (Quelle: Scott Webb / Pexels)

Grosse Sprachmodelle (LLMs) können bei der Analyse von Überwachungsvideos uneinheitliche Entscheidungen darüber treffen, ob die Situation so ernst ist, dass die Polizei alarmiert werden muss. Ähnliche Schwächen offenbaren sich auch bei anderen sensiblen Aufgaben, die generativer Künstlicher Intelligenz (KI) zur Analyse übertragen werden, so Forscher des Massachusetts Institute of Technology (MIT) und der Pennsylvania State University.

Viele Schlussfolgerungen

Bei Tests mit Videos, auf denen Fahrzeugeinbrüche zu sehen waren, schlugen die LLMs GPT-4, Gemini und Claude mal vor, die Polizei zu rufen, mal sahen sie keine Gefahr. Verschiedene LLMs kamen oft zu unterschiedlichen Schlussfolgerungen. Darüber hinaus empfanden einige Modelle Videos von Vierteln, in denen die meisten Bewohner weiss sind, relativ seltener als bedrohlich. Demgegenüber wurden Regionen mit vorzugsweise schwarzer Bevölkerung anders wahrgenommen.

Den Experten nach haben die Modelle inhärente Vorurteile, die von der Demografie eines Stadtviertels beeinflusst werden. Diese Ergebnisse deuteten darauf hin, dass Modelle bei der Anwendung sozialer Normen auf Überwachungsvideos, die ähnliche Aktivitäten darstellen, inkonsistent seien. Dieses Phänomen, das die Forscher als Norminkonsistenz bezeichnen, macht es schwierig vorherzusagen, wie sich Modelle in verschiedenen Kontexten verhalten.

Vorsicht beim Einsatz von KI

"Die Vorgehensweise, generative KI-Modelle überall und insbesondere in Situationen mit hohen Risiken einzusetzen, sollte gründlicher überdacht werden, da sie sehr schädlich sein könnte", sagt Ashia Wilson, Professorin für Elektrotechnik und Computerwissenschaften und leitende Forscherin am Labor für Informations- und Entscheidungssysteme.

LLMs werden derzeit kaum zur Auswertung von Videos mit kriminellen Inhalten eingesetzt. Doch sie werden verwendet, um normative Entscheidungen in anderen Bereichen mit hohen Risiken zu treffen, beispielsweise im Gesundheitswesen, bei Hypothekenkrediten und bei der Überprüfung von Bewerbern um Jobs. Es sei wahrscheinlich, dass LLMs in diesen Situationen ähnliche Inkonsistenzen aufweisen.

"Es gibt diese implizite Annahme, dass diese LLMs eine Reihe von Normen und Werten gelernt haben oder lernen können. Unsere Arbeit zeigt, dass dies nicht der Fall ist. Vielleicht lernen sie nur willkürliche Muster oder Rauschen", unterstreicht Doktorand Shomik Jain abschliessend. (pressetext.com)

Kommentare

Künstliche Intelligenz KI & Trends
Anzeige
Anzeige

Neueste Beiträge

«ZüriA»
Stadt Zürich lanciert eigene KI-Assistenz
Seit Kurzem steht den Mitarbeitenden der Stadt Zürich mit «ZüriA» eine KI-Assistenz zur Verfügung, die die Bearbeitung von internen, vertraulichen und streng vertraulichen Informationen ermöglicht.
2 Minuten
18. Mär 2026
Amazon plant offenbar ein eigenes Smartphone
Amazon entwickelt offenbar ein eigenes Smartphone. Das berichtet Reuters unter Berufung auf Insider im Unternehmen. Es wäre der zweite Anlauf in diesem Segment für den Web-Riesen.
2 Minuten
23. Mär 2026
Sunrise passt Roaming-Optionen an
Sunrise packt neu mehr Leistung in die Roaming-Optionen für beliebte Reiseziele in Europa, Nordamerika und vielen weiteren Ländern – zu gleichen oder tieferen Preisen.
3 Minuten
23. Mär 2026

Das könnte Sie auch interessieren

Künstliche Intelligenz
KI-Tools verhindern das Lernen am Arbeitsplatz
Berufseinsteiger erledigen an ihrem ersten Arbeitsplatz wegen Künstlicher Intelligenz (KI) immer weniger Routineaufgaben und erwerben auch nicht mehr nebenbei spezielle Qualifikationen durch die Zusammenarbeit mit erfahrenen Kollegen.
3 Minuten
Smartphone
Vivo bringt Zeiss-Kameras in die Mittelklasse
Vivo hat zwei Smartphones der neuen V70-Serie gezeigt, die auch nach Deutschland und in die Schweiz kommen könnten. Sie sollen mit Zeiss-Technologie bei den Kameras punkten.
2 Minuten
24. Feb 2026
Forschung
Strahlenresistente Elektronik für das All kreiert
Laut Forschern der Fudan-Universität eignen sich Schichten aus Molybdändisulfid für strahlungsbeständige Elektronik in Raumfahrzeugen.
3 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Kommentare