KI übertrifft Menschen in medizinischen Tests, scheitert jedoch an realer Diagnostik – Studie zeigt klare Grenzen

0
199
KI-Modelle übertreffen Menschen in medizinischem Faktenwissen, zeigen jedoch deutliche Schwächen bei realer klinischer Entscheidungsfindung – menschliche Aufsicht bleibt unerlässlich.

PATTAYA, Thailand – Immer mehr Menschen greifen bei medizinischen Fragen auf künstliche Intelligenz (KI) zurück, um Symptome und Befunde vor einem Arztbesuch zu analysieren. Während KI-Systeme in Sekunden strukturierte Einschätzungen liefern können, bleibt die Frage offen, ob sie tatsächlich in der Lage sind, Patienten zuverlässig zu diagnostizieren und zu behandeln.

Eine Studie der Universität Marburg in Deutschland verglich 13 große Sprachmodelle mit 123 Medizinstudenten und Ärzten anhand standardisierter Tests zum akuten Nierenversagen. Das Ergebnis zeigte eine deutliche Überlegenheit der KI: Die Modelle erreichten im Durchschnitt rund 90 Prozent, einige sogar die volle Punktzahl. Die menschlichen Teilnehmer kamen dagegen lediglich auf durchschnittlich 48,7 Prozent. Zudem benötigten die KI-Systeme deutlich weniger Zeit für die Aufgaben.

Trotz dieser starken Leistung im Bereich Faktenwissen fehlt den Modellen weiterhin die klinische Urteilskraft, die für die reale medizinische Praxis erforderlich ist.

Eine weitere Studie, veröffentlicht in JAMA Network Open, zeigte, dass große Sprachmodelle insbesondere in der frühen Phase medizinischer Fälle Schwierigkeiten mit klinischem Denken haben, wenn nur begrenzte Informationen vorliegen. In 29 simulierten Szenarien konnten die Systeme in mehr als 80 Prozent der Fälle keine angemessene Differenzialdiagnose erstellen.

Forschende betonen, dass die Differenzialdiagnose ein zentraler Bestandteil der „Kunst und Wissenschaft“ der Medizin ist – ein Bereich, in dem KI bislang nicht mit menschlicher Expertise mithalten kann. Daher gilt künstliche Intelligenz zunehmend als unterstützendes Werkzeug und nicht als Ersatz für Ärzte.


Jens Kleesiek vom Universitätsklinikum Essen erklärte, dass digitale Systeme zwar medizinische Abläufe wie Dokumentation und Koordination grundlegend verändern, jedoch weiterhin unter Aufsicht von Fachpersonal stehen müssen. Experten sind sich einig, dass menschliche Kontrolle entscheidend bleibt, um den sicheren Einsatz von KI im Gesundheitswesen zu gewährleisten.

Gleichzeitig wirft die Integration von KI neue Sicherheitsfragen auf. Erfahrene Ärzte können Fehler in KI-Empfehlungen erkennen, während weniger erfahrene Anwender oft nicht über die nötige Urteilskraft verfügen.


Ein weiteres Risiko ist das sogenannte „Auslagern des Denkens“, bei dem Nutzer sich zu stark auf KI verlassen, die überzeugend formulierte, aber nicht immer korrekte Antworten liefert. Dies könnte langfristig die eigenständige Entscheidungsfähigkeit schwächen.

Forscher warnen, dass eine schleichende Abhängigkeit von KI grundlegende medizinische Fähigkeiten beeinträchtigen könnte, die nur durch kontinuierliche Übung und menschliches Urteilsvermögen erhalten bleiben.