Völlig absurd: Wenn das Röntgenbild zeigt, ob jemand Bier trinkt – Visento
Völlig absurd: Wenn das Röntgenbild zeigt, ob jemand Bier trinkt
Technik/Digital
Wenn die KI auf dem Röntgenbild sehen will, ob der Patient Bier trinkt oder nicht. Foto: KI freepik

Völlig absurd: Wenn das Röntgenbild zeigt, ob jemand Bier trinkt

19.12.2024
von medinside · 463 x gelesen

Der Einsatz von künstlicher Intelligenz (KI) im Gesundheitswesen wird zunehmend selber zum Thema: Was kann die Künstliche Intelligenz leisten, was die Fachkräfte nicht können – und was nicht? Bekannt ist, dass KI Anomalien erkennt, die ein Mensch kaum durchschauen kann, und Muster erkennt, die für das blosse Auge unsichtbar sind.

Doch wie zuverlässig ist die KI? Dieser Frage ging nun ein Team des Dartmouth-Hitchcock Medical Center in den USA nach. In Zentrum ihrer Studie geriet dabei ein heikles Phänomen: «shortcut learning». Das heisst: AI-Systeme können genaue Ergebnisse liefern – die aber potenziell überflüssig oder sogar falsche sind.

Auf der Grundlage einer Analyse von über 25'000 Röntgenaufnahmen des Knies stellten die Forscher fest, dass die KI Feinheiten und Störfaktoren aufnahm – und daraus Merkmale ohne medizinischen Bezug «vorherzusagen». Das System ging also so ins Detail, dass es sich am Ende Korrelationen zusammenbastelte. 

So meinte die KI beispielsweise genau erkennen zu können, ob ein Knie-Patient gebratene Bohnen isst oder Bier trinkt – oder nicht. Solche Vorhersagen haben keine klinische Grundlage. Aber in ihrer Detailgenauigkeit kombinierten die Algorithmen falsche Schlussfolgerungen.

«Das geht viel weiter als die Verzerrungen, die man wegen Details bei Herkunft oder Geschlecht macht», sagt Brandon Hill, ein Mitautor der Studie. Der Experte für Machine Learning fügt an: «Wir fanden heraus, dass der Algorithmus sogar dazu neigen kann, das Jahr behaupten, in dem eine Röntgenaufnahme gemacht wurde. Das ist bösartig: Wenn Sie ihn hindern, eines dieser Elemente zu lernen, lernt er einfach etwas anderes, was er vorher ignoriert hat. Das kann wirklich zu fragwürdigen Behauptungen führen, und man muss sich bewusst sein, wie leicht das bei dieser Technik geschieht.»

Nötig sind also strenge Bewertungsstandards – blindes Vertrauen in Algorithmen kann schwerwiegende Fehlinterpretationen nach sich ziehen. Die Forscher weisen darauf hin, dass KI nicht wie ein Mensch wahrnimmt oder konzeptualisiert. Es sei «fast wie bei einer ausserirdischen Intelligenz», erklärt Hill: Sie löst Aufgaben nach ihren eigenen, für Menschen oft undurchschaubaren Regeln – was einen kritischen Ansatz bei ihrem Einsatz in der Medizin unabdingbar macht.

← Zurück zur Übersicht
100%