KI könnte eine mächtige Kraft für das Gute sein – aber wir gehen derzeit einen dunkleren Weg

(Joshua Sortino/Unsplash)

Künstliche Intelligenz (KI) verändert die Welt bereits auf auffällige Weise. Daten treiben unser globales digitales Ökosystem an und KI-Technologien offenbaren Muster in Daten.

Smartphones, Smart Homes und Smart Cities beeinflussen die Art und Weise, wie wir leben und interagieren, und KI-Systeme sind zunehmend an Einstellungsentscheidungen, medizinischen Diagnosen und Gerichtsurteilen beteiligt. Ob dieses Szenario ist utopisch oder dystopisch hängt von Ihrer Perspektive ab.

Die potenziellen Risiken von KI werden immer wieder aufgezählt. Killerroboter Und Massenarbeitslosigkeit sind häufige Sorgen, während manche Menschen sogar Angst haben Aussterben der Menschheit . Optimistischere Vorhersagen gehen davon aus, dass die KI einen Beitrag leisten wird 15 Billionen US-Dollar bis 2030 zur Weltwirtschaft beitragen und uns schließlich zu einer Art führen soziales Nirvana .

Wir müssen auf jeden Fall die Auswirkungen berücksichtigen, die solche Technologien auf unsere Gesellschaften haben. Ein wichtiges Anliegen ist, dass KI-Systeme das Bestehende verstärken soziale Vorurteile – zu schädlicher Wirkung.

Mehrere berüchtigte Beispiele für dieses Phänomen haben große Aufmerksamkeit erregt: hochmoderne automatisierte maschinelle Übersetzungssysteme, die sexistische Ergebnisse produzieren und Bilderkennungssysteme, die schwarze Menschen klassifizieren als Gorillas .

Diese Probleme entstehen, weil solche Systeme mathematische Modelle (z. B. neuronale Netze) verwenden, um Muster in großen Trainingsdatensätzen zu identifizieren. Wenn diese Daten auf verschiedene Weise stark verzerrt sind, werden die inhärenten Verzerrungen unweigerlich von den trainierten Systemen gelernt und reproduziert.

Voreingenommene autonome Technologien sind problematisch, da sie potenziell dazu in der Lage sind marginalisiert Gruppen wie Frauen, ethnische Minderheiten oder ältere Menschen, wodurch bestehende soziale Ungleichgewichte noch verstärkt werden.

Wenn KI-Systeme beispielsweise auf Daten zu Polizeiverhaftungen trainiert werden, dann würden alle bewussten oder unbewussten Vorurteile, die sich in den bestehenden Verhaftungsmustern manifestieren, durch eine „vorausschauende Polizeiarbeit“ repliziert. KI-System auf diesen Daten trainiert.

Verschiedene maßgebliche Organisationen sind sich der schwerwiegenden Folgen bewusst und haben kürzlich empfohlen, alle KI-Systeme auf der Grundlage unvoreingenommener Daten zu trainieren. Ethische Richtlinien Die Anfang 2019 von der Europäischen Kommission veröffentlichte Empfehlung enthielt folgende Empfehlung:

Wenn Daten gesammelt werden, können sie sozial konstruierte Vorurteile, Ungenauigkeiten, Fehler und Irrtümer enthalten. Dies muss vor dem Training mit einem bestimmten Datensatz behoben werden.

Umgang mit voreingenommenen Daten

Das klingt alles vernünftig genug. Aber leider ist es manchmal einfach unmöglich, vor dem Training sicherzustellen, dass bestimmte Datensätze unvoreingenommen sind. Ein konkretes Beispiel soll dies verdeutlichen.

Alle modernen maschinellen Übersetzungssysteme (wie Google Translate) werden auf Satzpaare trainiert.

Ein englisch-französisches System verwendet Daten, die englische Sätze („sie ist groß“) mit äquivalenten französischen Sätzen („sie ist groß“) verknüpfen. Sie ist groß ').

In einem bestimmten Trainingsdatensatz kann es 500 Millionen solcher Paarungen und damit insgesamt eine Milliarde separate Sätze geben. Alle geschlechtsbezogenen Vorurteile müssten aus einem Datensatz dieser Art entfernt werden, wenn wir verhindern wollten, dass das resultierende System sexistische Ergebnisse wie die folgenden produziert:

  • Eingang : Die Frauen haben das Treffen begonnen. Sie haben effizient gearbeitet.
  • Ausgabe : Die Frauen eröffneten das Treffen. Sie haben effizient gearbeitet.

Die französische Übersetzung wurde am 11. Oktober 2019 mit Google Translate erstellt und ist falsch: „ Sie ' ist das männliche Subjektpronomen im Plural im Französischen und kommt hier vor, obwohl der Kontext eindeutig darauf hinweist, dass Frauen gemeint sind.

Dies ist ein klassisches Beispiel dafür, dass das automatisierte System aufgrund von Verzerrungen in den Trainingsdaten die männliche Standardeinstellung bevorzugt.

Allgemein, 70 Prozent der geschlechtsspezifischen Pronomen in Übersetzungsdatensätzen sind männlich, während 30 Prozent weiblich sind. Dies liegt daran, dass sich die für solche Zwecke verwendeten Texte tendenziell eher auf Männer als auf Frauen beziehen.

Um zu verhindern, dass Übersetzungssysteme diese bestehenden Vorurteile reproduzieren, müssten bestimmte Satzpaare aus den Daten entfernt werden, sodass die männlichen und weiblichen Pronomen sowohl auf der englischen als auch auf der französischen Seite je zur Hälfte vorkommen. Dies würde verhindern, dass das System männlichen Pronomen höhere Wahrscheinlichkeiten zuordnet.

Substantive und Adjektive müssten natürlich auch 50/50 ausgewogen sein, da diese auf das Geschlecht hinweisen können beide Sprachen („Schauspieler“, „Schauspielerin“; „neuf“, „neuve“) – und so weiter. Dieses drastische Downsampling würde jedoch zwangsläufig die verfügbaren Trainingsdaten erheblich reduzieren und damit die Qualität der erstellten Übersetzungen verringern.

Und selbst wenn die resultierende Datenteilmenge völlig ausgewogen nach Geschlechtern wäre, wäre sie dennoch in vielerlei Hinsicht verzerrt (z. B. ethnische Zugehörigkeit oder Alter). In Wahrheit wäre es schwierig, all diese Vorurteile zu beseitigen vollständig .

Wenn eine Person nur fünf Sekunden damit verbringen würde, jeden der eine Milliarde Sätze in den Trainingsdaten zu lesen, würde es 159 Jahre dauern, sie alle zu überprüfen – und das setzt die Bereitschaft voraus, Tag und Nacht ohne Mittagspausen zu arbeiten.

Eine Alternative?

Daher ist es unrealistisch zu verlangen, dass alle Trainingsdatensätze unvoreingenommen sind, bevor KI-Systeme erstellt werden. Solche hochrangigen Anforderungen gehen in der Regel davon aus, dass „KI“ eine homogene Gruppe mathematischer Modelle und algorithmischer Ansätze bezeichnet.

In Wirklichkeit erfordern unterschiedliche KI-Aufgaben sehr unterschiedliche Arten von Systemen. Und wenn man das ganze Ausmaß dieser Vielfalt herunterspielt, werden die wahren Probleme verschleiert, die (sagen wir) stark verzerrte Trainingsdaten entstehen. Dies ist bedauerlich, da es bedeutet, dass andere Lösungen für das Problem der Datenverzerrung vernachlässigt werden.

Beispielsweise können die Verzerrungen in einem trainierten maschinellen Übersetzungssystem erheblich reduziert werden, wenn das System angepasst wird, nachdem es anhand des größeren, zwangsläufig verzerrten Datensatzes trainiert wurde.

Dies kann mithilfe eines wesentlich kleineren, weniger verzerrten Datensatzes erfolgen. Der Großteil der Daten kann daher stark verzerrt sein, das darauf trainierte System muss jedoch nicht so sein. Leider werden diese Techniken selten von denjenigen diskutiert, die mit der Entwicklung von Richtlinien und gesetzlichen Rahmenbedingungen für die KI-Forschung beauftragt sind.

Wenn KI-Systeme lediglich bestehende soziale Ungleichgewichte verstärken, dann behindern sie positive soziale Veränderungen eher, als dass sie sie ermöglichen. Wenn die KI-Technologien, die wir täglich zunehmend nutzen, weitaus weniger voreingenommen wären als wir, dann könnten sie uns helfen, unsere eigenen lauernden Vorurteile zu erkennen und ihnen entgegenzutreten.

Sicherlich ist es das, worauf wir hinarbeiten sollten. Daher müssen KI-Entwickler viel sorgfältiger über die sozialen Folgen der von ihnen gebauten Systeme nachdenken, während diejenigen, die über KI schreiben, detaillierter verstehen müssen, wie KI-Systeme tatsächlich entworfen und gebaut werden.

Denn wenn wir uns tatsächlich entweder einer technologischen Idylle oder einer Apokalypse nähern, wäre Ersteres vorzuziehen.

Marcus Tomalin , Senior Research Associate im Machine Intelligence Laboratory, Department of Engineering, Universität von Cambridge Und Stefanie Ullmann , Postdoktorand, wissenschaftlicher Mitarbeiter, Universität von Cambridge .

Dieser Artikel wurde erneut veröffentlicht von Die Unterhaltung unter einer Creative Commons-Lizenz. Lies das originaler Artikel .

Über Uns

Die Veröffentlichung Unabhängiger, Nachgewiesener Fakten Von Berichten Über Gesundheit, Raum, Natur, Technologie Und Umwelt.