Künstliche Intelligenzen haben bisher ein entscheidendes Manko: Selbst einfache logische Umkehrschlüsse wie „wenn A gleich B ist, dann ist auch B gleich A“ bereiten ihnen oft Probleme. Lake & Baroni (2023) haben nun ein KI-System entwickelt, das erlernte Konzepte erstmals ähnlich gut verallgemeinern kann wie Menschen, denn bisher hatten künstliche Intelligenzen Probleme, wenn es darum ging, bekannte Komponenten unter Berücksichtigung logischer Zusammenhänge neu zu kombinieren. Das jetzt in „Nature“ vorgestellte KI-System auf Basis eines neuronalen Netzes zeigt jedoch diese Fähigkeit – ein weiterer Schritt zur Nachahmung der menschlichen Kognition. Für den Menschen ist es selbstverständlich, erlernte Konzepte miteinander zu verknüpfen, denn wenn man beispielsweise weiß, was hüpfen und was rückwärts bedeutet, kann man auf Kommando problemlos rückwärts hüpfen, ohne dies als neues Konzept extra lernen zu müssen, und auch die Verknüpfung dieser Eigenschaften mit neuen Objekten oder Personen fällt leicht. Lake & Baroni (2023) haben gezeigt, dass neuronale Netze eine menschenähnliche Systematik erreichen können, wenn ihre kombinatorischen Fähigkeiten entsprechend optimiert werden. Um ein künstliches neuronales Netz speziell für solche systematischen Verallgemeinerungen zu trainieren, wählten sie einen neuen Ansatz des maschinellen Lernens, das Meta-Lernen für Kompositionalität. Anstatt einen statischen Trainingsdatensatz zu verwenden, erlaubten sie dem System, sich nach jeder gelösten Aufgabe mit den neuen Informationen zu aktualisieren, wobei sich die Aufgaben dynamisch an den jeweiligen Wissensstand des Systems anpassen. Im Gegensatz zu anderen Modellen des maschinellen Lernens erreicht das Meta-Lernen für Kompositionalität sowohl die notwendige Systematik als auch die Flexibilität, die für eine menschenähnliche Generalisierung erforderlich ist. Um das so trainierte neuronale Netz zu testen, ließ man es gegen 25 menschliche Testpersonen antreten. Damit die Menschen keinen Vorteil dadurch hatten, dass sie bestimmte Wörter bereits kannten, erfanden die Forscher Phantasienamen für die Farben Rot, Grün, Grau und Blau. So stand zum Beispiel „dax“ für rot und „wif“ für grün. Außerdem erfanden sie Wörter, die Verbindungen beschreiben. So bedeutete „kiki“ vertauschen. „dax wif“ stand also für rot grün, „dax kiki wif“ für grün rot.
Sowohl die menschlichen Testpersonen als auch die KI sollten aus einer kleinen Anzahl von Beispielen Regeln in einer künstlichen Sprache ableiten und diese dann auf neue Aufgaben anwenden, bei denen sie neue, komplexere Kombinationen von Anweisungen in der Fantasiesprache erhielten und auf dieser Basis farbige Punkte in die richtige Reihenfolge bringen sollten. Die menschlichen Versuchspersonen wendeten die zuvor abgeleiteten Prinzipien in 80,7 Prozent der Fälle korrekt an und fanden die richtige Lösung; selbst bei Anweisungen, die deutlich komplexer waren als die Trainingsbeispiele, lagen sie in 72,5 Prozent der Fälle richtig. Das speziell trainierte Modell erreichte dagegen eine Trefferquote von bis zu 100 Prozent und übertraf damit die besten menschlichen Probanden. In anderen Experimenten lag die Trefferquote mit 82,4 Prozent nahe an der menschlichen Leistung, und auch die Art der Fehler ähnelte der des Menschen, wie die Wissenschaftler berichten. Diese Ergebnisse zeigen erstmals, dass ein generisches neuronales Netz die systematische Generalisierung des Menschen im direkten Vergleich nachahmen oder sogar übertreffen kann.
Literatur
Lake, Brenden M. & Baroni, Marco (2023). Human-like systematic generalization through a meta-learning neural network. Nature, doi:10.1038/s41586-023-06668-3.
https://www.scinexx.de/news/technik/ki-lernt-das-verallgemeinern/ (23-10-27)