KI kann anhand von Röntgenbildern die ethnische Zugehörigkeit von Menschen vorhersagen, und Wissenschaftler sind besorgt

(Tridsanu Thophet/EyeEm/Getty Images)

Deep-Learning-Modelle basierend auf künstliche Intelligenz Neue Forschungsergebnisse haben gezeigt, dass Menschen die Rasse einer Person allein anhand ihrer Röntgenbilder identifizieren können – etwas, das für einen menschlichen Arzt unmöglich wäre, wenn er dieselben Bilder betrachtet.

Die Ergebnisse werfen einige besorgniserregende Fragen zur Rolle der KI bei der medizinischen Diagnose, Beurteilung und Behandlung auf: Könnte Computersoftware bei der Untersuchung solcher Bilder unbeabsichtigt rassistische Vorurteile hervorrufen?

Ein internationales Team von Gesundheitsforschern aus den USA, Kanada und Taiwan testete ihr System anhand von Hunderttausenden vorhandenen Röntgenbildern, die mit Angaben zur Rasse des Patienten versehen waren, und testete ihr System anhand von Röntgenbildern, die die Computersoftware nicht erstellt hatte. Ich habe es noch nie gesehen (und hatte keine weiteren Informationen darüber).

Die KI konnte die angegebene Rassenzugehörigkeit des Patienten auf diesen Bildern mit überraschender Genauigkeit vorhersagen, selbst wenn die Scans von Personen gleichen Alters und gleichen Geschlechts stammten. Bei einigen Bildgruppen erreichte das System Werte von 90 Prozent.

„Unser Ziel war es, eine umfassende Bewertung der Fähigkeit der KI durchzuführen, die Rassenidentität eines Patienten anhand medizinischer Bilder zu erkennen“, schreiben die Forscher in ihrem Bericht veröffentlichtes Papier .

„Wir zeigen, dass Standard-KI-Deep-Learning-Modelle trainiert werden können, um Rassen anhand medizinischer Bilder mit hoher Leistung über mehrere Bildgebungsmodalitäten vorherzusagen, was unter externen Validierungsbedingungen aufrechterhalten wurde.“

Die Forschung spiegelt die Ergebnisse von a wider vorherige Studie Dabei wurde festgestellt, dass Scans von Röntgenbildern mit künstlicher Intelligenz bei Schwarzen mit größerer Wahrscheinlichkeit Anzeichen einer Krankheit übersehen. Um dies zu verhindern, müssen Wissenschaftler verstehen, warum es überhaupt geschieht.

KI ahmt von Natur aus das menschliche Denken nach, um Muster in Daten schnell zu erkennen. Dies bedeutet jedoch auch, dass es unwissentlich denselben Vorurteilen unterliegen kann. Schlimmer noch: Ihre Komplexität macht es schwierig, die Vorurteile zu entwirren, die wir in sie eingewoben haben.

Derzeit sind sich die Wissenschaftler nicht sicher, warum das KI-System so gut darin ist, Rassen anhand von Bildern zu identifizieren, die solche Informationen nicht enthalten, zumindest nicht oberflächlich. Selbst wenn nur begrenzte Informationen bereitgestellt wurden, indem beispielsweise Hinweise auf die Knochendichte entfernt oder die Konzentration auf einen kleinen Teil des Körpers konzentriert wurden, schnitten die Modelle immer noch überraschend gut bei der Schätzung der in der Datei angegebenen Rasse ab.

Es ist möglich, dass das System Anzeichen von Melanin findet, dem Pigment, das der Haut ihre Farbe verleiht, die der Wissenschaft bisher unbekannt sind.

„Unsere Erkenntnis, dass KI selbst anhand verfälschter, beschnittener und verrauschter medizinischer Bilder selbst gemeldete Rassen präzise vorhersagen kann, oft dann, wenn klinische Experten dies nicht können, stellt ein enormes Risiko für alle Modelleinsätze in der medizinischen Bildgebung dar.“ schreiben die Forscher .

Die Forschung trägt dazu bei ein wachsender Stapel an Beweisen dass KI-Systeme oft die Vorurteile und Vorurteile von Menschen widerspiegeln können, sei es Rassismus, Sexismus oder etwas anderes. Verzerrte Trainingsdaten können zu verzerrten Ergebnissen führen, wodurch sie deutlich weniger nützlich sind.

Dies muss gegen das leistungsstarke Potenzial der künstlichen Intelligenz abgewogen werden, viel schneller als Menschen von überall her viel mehr Daten zu verarbeiten Techniken zur Krankheitserkennung Zu Klimawandel Modelle.

Die Studie lässt noch viele Fragen unbeantwortet, aber vorerst ist es wichtig, sich der Möglichkeit bewusst zu sein, dass rassistische Vorurteile in Systemen der künstlichen Intelligenz auftauchen – insbesondere, wenn wir ihnen in Zukunft mehr Verantwortung übertragen.

„Wir müssen eine Pause machen“, sagte der Forscher und Arzt Leo Anthony Celi vom Massachusetts Institute of Technology Boston Globe .

„Wir können die Algorithmen nicht überstürzt in Krankenhäuser und Kliniken bringen, bis wir sicher sind, dass sie keine rassistischen oder sexistischen Entscheidungen treffen.“

Die Forschung wurde veröffentlicht in Die Lancet Digital Health .

Über Uns

Die Veröffentlichung Unabhängiger, Nachgewiesener Fakten Von Berichten Über Gesundheit, Raum, Natur, Technologie Und Umwelt.