Ein großer Fortschritt in der Informatik löst ein komplexes mathematisches Problem 1 Million Mal schneller

(Wachirawit Jenlohakit/Getty Images)

Reservoir-Computing ist bereits eine der fortschrittlichsten und leistungsstärksten Arten von künstliche Intelligenz dass Wissenschaftlern zur Verfügung stehen – und jetzt zeigt eine neue Studie, wie man es bei bestimmten Aufgaben bis zu einer Million Mal schneller machen kann.

Das ist eine spannende Entwicklung, wenn es darum geht, die komplexesten rechnerischen Herausforderungen zu bewältigen, von der Vorhersage der Wetterumschwung bis hin zur Modellierung Fluss von Flüssigkeiten durch einen bestimmten Raum.

Für solche Probleme wurde diese Art von ressourcenintensivem Computing entwickelt. Jetzt werden die neuesten Innovationen es noch nützlicher machen. Das Team hinter dieser neuen Studie nennt sie die nächste Generation des Reservoir-Computings.

„Wir können sehr komplexe Informationsverarbeitungsaufgaben in einem Bruchteil der Zeit und mit viel weniger Computerressourcen im Vergleich zu dem, was Reservoir-Computing derzeit leisten kann, durchführen.“ sagt der Physiker Daniel Gauthier , von der Ohio State University.

„Und Reservoir Computing war bereits eine deutliche Verbesserung gegenüber dem, was bisher möglich war.“

Reservoir Computing baut auf der Idee auf Neuronale Netze maschinelles Lernen Systeme, die auf der Funktionsweise lebender Gehirne basieren und darauf trainiert sind, Muster in einer riesigen Datenmenge zu erkennen. Zeigen Sie einem neuronalen Netzwerk beispielsweise tausend Bilder eines Hundes, und es sollte einen Hund ziemlich genau erkennen, wenn er das nächste Mal auftaucht.

Die Details der zusätzlichen Leistung, die das Reservoir-Computing mit sich bringt, sind recht technischer Natur. Im Wesentlichen sendet der Prozess Informationen in ein „Reservoir“, in dem Datenpunkte auf verschiedene Weise verknüpft werden. Anschließend werden Informationen aus dem Reservoir gesendet, analysiert und in den Lernprozess zurückgeführt.

Dadurch wird der gesamte Prozess in gewisser Weise schneller und lässt sich besser an Lernsequenzen anpassen. Aber es hängt auch stark von der Zufallsverarbeitung ab, also davon, was passiert innen Das Reservoir ist nicht kristallklar. Um einen technischen Begriff zu verwenden: Es handelt sich um eine „Black Box“ – normalerweise funktioniert es, aber niemand weiß wirklich, wie oder warum.

Mit den neuen Forschungsergebnissen, die gerade veröffentlicht wurden, können Reservoir-Computer effizienter gemacht werden, indem die Randomisierung entfernt wird. Mithilfe einer mathematischen Analyse wurde herausgefunden, welche Teile eines Reservoircomputers tatsächlich für seine Funktion entscheidend sind und welche nicht. Das Entfernen dieser redundanten Bits beschleunigt die Verarbeitungszeit.

Eines der Endergebnisse ist, dass eine kürzere „Aufwärmphase“ erforderlich ist: Hier wird das neuronale Netzwerk mit Trainingsdaten gefüttert, um es auf die Aufgabe vorzubereiten, die es erledigen soll. Hier hat das Forschungsteam deutliche Verbesserungen erzielt.

„Für unser Reservoir-Computing der nächsten Generation ist fast keine Aufwärmzeit erforderlich.“ sagt Gauthier .

„Derzeit müssen Wissenschaftler 1.000 oder 10.000 Datenpunkte oder mehr eingeben, um es aufzuwärmen.“ Und das sind alles Daten, die verloren gehen, die für die eigentliche Arbeit nicht benötigt werden. „Wir müssen nur ein, zwei oder drei Datenpunkte eingeben.“

Eine besonders schwierige Prognoseaufgabe konnte mit dem neuen System auf einem Standard-Desktop-Computer in weniger als einer Sekunde erledigt werden. Mit der aktuellen Reservoir-Computing-Technologie dauert die gleiche Aufgabe selbst auf einem Supercomputer deutlich länger.

Das neue System erwies sich je nach Datenlage als 33- bis 163-mal schneller. Als das Aufgabenziel jedoch auf Genauigkeit verlagert wurde, war das aktualisierte Modell satte 1 Million Mal schneller.

Dies ist erst der Anfang für diesen hocheffizienten Typ eines neuronalen Netzwerks, und die dahinter stehenden Forscher hoffen, es in Zukunft mit anspruchsvolleren Aufgaben zu messen.

„Das Spannende ist, dass diese nächste Generation des Reservoir-Computing das, was bereits sehr gut war, nutzt und es deutlich effizienter macht.“ sagt Gauthier .

Die Forschung wurde veröffentlicht in Naturkommunikation .

Über Uns

Die Veröffentlichung Unabhängiger, Nachgewiesener Fakten Von Berichten Über Gesundheit, Raum, Natur, Technologie Und Umwelt.