Wie das Gehirn bei einer Kommunikation vorausdenkt

Schmitt et al. (2021) haben versucht, mithilfe von Künstlicher Intelligenz zu erklären, wie das menschliche Gehirn beim Sprachverstehen voraushört, denn bekanntlich weiß man in einer Konversation manchmal ganz genau, was das Gegenüber gleich sagen wird, d. h., das Gehirn ist immer schon einen Schritt voraus. So kann man beim Zuhören etwa das nächste Wort mit einer erstaunlich hohen Trefferquote vorhersagen, was umso bemerkenswerter ist, als dass diese Vorhersagen auf sehr vielen vorangegangenen Äußerungen beruhen können, auch wenn diese noch so irreführend sein mögen.

In einem Experiment, das den Herausforderungen des alltäglichen Sprachverstehens nachempfunden war, hörten ProbandInnen der Literaturnobelpreisträgerin Herta Müller rund eine Stunde aufmerksam dabei zu, wie sie im Plauderton von ihrer Kindheit im rumänischen Banat erzählte, während ein Magnetresonanztomograph dabei fortlaufend die Aktivität im gesamten Gehirn der Zuhörenden aufzeichnete. Menschen speichern ein soeben gehörtes Wort in der Hörrinde im Schläfenlappen und einen langen Satz im höher gelegenen, nachgeschalteten Scheitellappen, wobei auch artifizielle Netzwerke aus dem Bereich des Maschinellen Lernens diese Grundprinzipien des menschlichen Gehirns nutzen und das Gesagte in aufeinander aufbauenden, zunehmend abstrakten Verarbeitungsstufen speichern, sodass sie mittlerweile in der Vorhersage von Sprache annähernd so gut wie Menschen sind.

In der Studie wurde dann verglichen, wie Maschine und Mensch einen bestimmten Textabschnitt bearbeiten, um von den bekannten und leicht zu überprüfenden Berechnungen in artifiziellen Netzwerken auf noch unbekannte Verarbeitungsstrategien im Gehirn zuschließen. Dabei zeigte sich, dass Hirnregionen fernab der Hörrinde im Scheitellappen bei jenen Textstellen eine stärkere Aktivierung zeigten, bei denen sich auch eine höhere Verarbeitungsstufe des artifiziellen Netzwerks überrascht von Herta Müllers nächster Äußerung zeigte. Dies verdeutlicht, dass in verschiedenen Hirnarealen unterschiedlich lange Gesprächsinhalte genutzt werden, um eine Vorhersage zu machen und diese mit anderen Hirnarealen abzustimmen. Erst eine solche Segmentierung von Gesprächen erlaubt es den Zuhörenden, einige Gesprächsabschnitte für die Vorhersage heranzuziehen, aber andere (bestenfalls unwichtige) zu ignorieren.

Diese Vorhersagehierarchie in Schläfen- und Scheitellappen konnte man allerdings nur dann nachweisen, wenn das artifizielle Netzwerk die Gesprächsinhalte in einzelne Ereignisse unterteilte. So werden im Schläfenlappen kurze, gerade erst beschriebene Ereignisse für die Vorhersage genutzt, etwa wenn Herta Müller in den blau-schwarzen Weintrauben (Tintentrauben) im Garten ihrer Eltern die Farbe der Nacht erkennt. Im Scheitellappen werden hingegen längere, weiter zurückliegende Ereignisse hinterlegt, etwa wenn Herta Müller auf dem Weg zum Elternhaus einen ausgiebigen Spaziergang durch die Straßen ihres Heimatdorfs macht.

Diese ereignisbasierte Vorhersagehierarchie im Gehirn kann nicht nur sehr viele verschiedene Gesprächsinhalte vorhalten, sondern muss diese auch seltener, nämlich nur am Ende eines Ereignisses, aktualisieren. Es könnte daher nach Ansicht der ForscherInnen genau solch eine reichhaltige und doch recheneffiziente Netzwerkarchitektur sein, mit der das Gehirn beim Zuhören genaue und schnelle Vorhersagen treffen kann. Im Alltag unterstützt diese Hirnfunktion Menschen vor allem bei der erfolgreichen Kommunikation mit anderen und könnte künftig auch helfen, die Kommunikation zwischen Menschen und Maschinen wie Siri oder Alexa weiter zu verbessern.

Literatur

Schmitt, Lea-Maria, Erb, Julia, Tune, Sarah, Rysop, Anna U., Hartwigsen, Gesa & Obleser, Jonas (2021). Predicting speech from a cortical hierarchy of event-based time scales. Science Advances, 7, doi: 10.1126/sciadv.abi6070.
https://idw-online.de/de/news783633 (21-12-09)