Anzeige
Anzeige
Anzeige
Lesedauer 3 Min.

Wissenschaftler treiben KI den Hochmut aus

Forscher des Massachusetts Institute of Technology (MIT) bringen Künstlicher Intelligenz (KI) Zurückhaltung und Bodenhaftung bei. Dies vor allem bei Ärzten und Finanzfragen.  
© Gemini 

Diese soll sich selbst nicht als allwissend empfinden - insbesondere, wenn die KI zur Unterstützung bei der Diagnose von Krankheiten oder bei Fragen zur Finanzveranlagung zum Einsatz kommt. Wenn sie sich bei einer Entscheidung nicht sicher ist, soll sie das offen zugeben und den Nutzer zum Einholen weiterer Informationen auffordern.

KI als Co-Pilot «degradiert»

«Wir nutzen KI derzeit als Orakel, aber wir können KI auch als Coach einsetzen», sagt MIT-Forscher Leo Anthony Celi, der auch als Arzt am Beth Israel Deaconess Medical Center tätig ist und als ausserordentlicher Professor an der Harvard Medical School lehrt. «Wir wollen KI lieber als Co-Piloten nutzen. Das würde nicht nur unsere Fähigkeit verbessern, Informationen abzurufen, sondern auch unsere Handlungsfähigkeit stärken, um Zusammenhänge herzustellen.»

Celi und seine Kollegen haben ein Rahmenwerk entwickelt, das KI-Entwicklern als Leitfaden dienen soll, um Systeme zu entwerfen, die zur Selbstkritik fähig sind. Das könnte es Ärzten und KI-Systemen ermöglichen, als Partner zusammenzuarbeiten und dazu beitragen, dass KI keinen gefährlich grossen Einfluss auf die Entscheidungen von Ärzten nimmt.

Ärzte nicht überstimmen

Die Vision der Wissenschaftler: Stellt das System fest, dass die Beweise, die für eine Entscheidung herangezogen werden, nicht ausreichen, kennzeichnet es seine Unsicherheit und empfiehlt zusätzliche Tests oder die Konsultation eines Spezialisten. Das Ziel ist daher eine KI, die nicht nur Antworten liefert, sondern auch signalisiert, wann diese womöglich mit Vorsicht zu geniessen sind.

Übermässig selbstbewusste KI-Systeme können laut dem MIT-Team zu Fehlern vor allem im medizinischen Umfeld führen. Frühere Studien haben gezeigt, dass sich beispielsweise Ärzte auf der Intensivstation auf KI-Systeme verlassen, die sie als zuverlässig empfinden - selbst wenn ihre eigene Intuition dem Vorschlag der KI widerspricht. Sowohl Ärzte als auch Patienten neigen dazu, falsche KI-Empfehlungen zu akzeptieren, selbst wenn diese als merkwürdig wahrgenommen werden, heisst es. (pressetext.com)

Kommentare

Künstliche Intelligenz Wissenschaft Forschung
Anzeige
Anzeige

Neueste Beiträge

Acer ruft die E-Scooter / Predator ES Series 5 wegen Brandgefahr zurück
In Zusammenarbeit mit der Beratungsstelle für Unfallverhütung (BFU) ruft Acer die E-Scooter / Predator ES Series 5 zurück. Es besteht Brandgefahr.
2 Minuten
25. Mär 2026
Schweizer Glasfaserabdeckung verbessert sich im europäischen Vergleich stark
Die neuesten Zahlen des FTTH Council Europe zeigen, dass die Schweiz beim Glasfaserausbau im 2025 weiter Fortschritte machte, im europäischen Vergleich holt man zum Durchschnitt auf. 
3 Minuten
25. Mär 2026
Digitale Kriminalität bleibt auf ähnlichem Niveau wie 2024
Insgesamt sind 554'963 Straftaten gemäss Strafgesetzbuch (StGB) im Jahr 2025 verzeichnet worden. 57'761 Straftaten wurden mit einem digitalen Tatvorgehen erfasst.
3 Minuten
25. Mär 2026

Das könnte Sie auch interessieren

Neue PCtipp Website
Seit Montagnachmittag ist die neue PCtipp Website online. Sie ist schnell, schlank und auf allen Geräten abrufbar.
2 Minuten
23. Mär 2026
Sunrise passt Roaming-Optionen an
Sunrise packt neu mehr Leistung in die Roaming-Optionen für beliebte Reiseziele in Europa, Nordamerika und vielen weiteren Ländern – zu gleichen oder tieferen Preisen.
3 Minuten
23. Mär 2026
Powered by Samsung
Was das Samsung Galaxy S26 Ultra im Alltag besonders macht
Mehr Privatsphäre, bessere Nachtaufnahmen und ein Zoom mit viel Reserve: Das Galaxy S26 Ultra setzt dort an, wo ein Smartphone im Alltag wirklich überzeugen muss.
4 Minuten
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Kommentare