„Voraushören“ des Gehirns erforscht23. Dezember 2021 Foto: ©deagreez – stock.adobe.com Die Forschungsgruppe Auditive Kognition der Universität zu Lübeck hat in Zusammenarbeit mit Forschenden des Max-Planck-Instituts für Kognitions- und Neurowissenschaften mithilfe von Künstlicher Intelligenz geklärt, wie das Gehirn beim Sprachverstehen „voraushört“ und die richtigen Informationen dafür auswählt. Wissen Sie manchmal auch ganz genau, was Ihr Gegenüber gleich sagen wird? Tatsächlich denkt unser Gehirn immer schon einen Schritt voraus. So können wir beim Zuhören etwa das nächste Wort mit einer erstaunlich hohen Trefferquote vorhersagen. Das ist umso bemerkenswerter, als diese Vorhersagen auf sehr vielen vorangegangenen Äußerungen beruhen können, auch wenn diese noch so irreführend sein mögen. Der Forschungsgruppe Auditive Kognition der Universität zu Lübeck ist es in Zusammenarbeit mit Forschenden des Max-Planck-Instituts für Kognitions- und Neurowissenschaften nun gelungen, mithilfe von Künstlicher Intelligenz zu erklären, wie unser Gehirn beim Sprachverstehen „voraushört“. In einer Studie, die jetzt in der Fachzeitschrift Science Advances erschien, entschlüsselten sie, wie es das Gehirn schafft, die richtigen Informationen für das „Voraushören” auszuwählen. In einem Experiment, das den Herausforderungen des alltäglichen Sprachverstehens nachempfunden war, hörten Probandinnen und Probanden der Literaturnobelpreisträgerin Herta Müller rund eine Stunde aufmerksam dabei zu, wie sie im Plauderton von ihrer Kindheit im rumänischen Banat erzählte. Ein Magnetresonanztomograph zeichnete dabei fortlaufend die Aktivität im gesamten Gehirn der Zuhörenden auf. Menschen speichern ein soeben gehörtes Wort in der Hörrinde im Schläfenlappen und einen langen Satz im höher gelegenen, nachgeschalteten Scheitellappen. Auch artifizielle Netzwerke aus dem Bereich des Maschinellen Lernens nutzen diese Grundprinzipien des menschlichen Gehirns und speichern das Gesagte in aufeinander aufbauenden, zunehmend abstrakten Verarbeitungsstufen. Mittlerweile sind sie in der Vorhersage von Sprache genauso gut wie Menschen. Auch gut trainierte artifizielle Netzwerke bekamen die Aufgabe, Herta Müllers Erzählung zu- und vorauszuhören. Den Kniff ihrer Studie beschreibt Studienleiterin Lea-Maria Schmitt so: „Indem wir vergleichen, wie Maschine und Mensch einen bestimmten Textabschnitt ‘bearbeiten’, können wir von den bekannten und leicht zu überprüfenden Berechnungen in artifiziellen Netzwerken auf noch unbekannte Verarbeitungsstrategien im Gehirn schließen.“ In der Auswertung machten die Forschenden zunächst die Entdeckung, dass Hirnregionen fernab der Hörrinde im Scheitellappen bei jenen Textstellen eine stärkere Aktivierung zeigten, bei denen sich auch eine höhere Verarbeitungsstufe des artifiziellen Netzwerks „überrascht“ von Herta Müllers nächster Äußerung zeigte. Dies verdeutlicht, dass in verschiedenen Hirnarealen unterschiedlich lange Gesprächsinhalte genutzt werden, um eine Vorhersage zu machen und diese mit anderen Hirnarealen abzustimmen. Erst eine solche Segmentierung von Gesprächen erlaubt es den Zuhörenden, einige Gesprächsabschnitte für die Vorhersage heranzuziehen, aber andere (bestenfalls unwichtige) zu ignorieren. Die „Vorhersagehierarchie“ in Schläfen- und Scheitellappen konnten die Forscherinnen und Forscher allerdings nur dann finden, wenn das artifizielle Netzwerk die Gesprächsinhalte in einzelne Ereignisse unterteilte. So werden im Schläfenlappen kurze, gerade erst beschriebene Ereignisse für die Vorhersage genutzt – etwa wenn Herta Müller in den blau-schwarzen Weintrauben (besser gesagt „Tintentrauben“) im Garten ihrer Eltern die Farbe der Nacht erkennt. Im Scheitellappen werden hingegen längere, weiter zurückliegende Ereignisse hinterlegt – etwa wenn Herta Müller auf dem Weg zum Elternhaus einen ausgiebigen Spaziergang durch die Straßen ihres Heimatdorfs macht. Diese „ereignisbasierte“ Vorhersagehierarchie im Gehirn kann nicht nur sehr viele verschiedene Gesprächsinhalte vorhalten, sondern muss diese auch seltener, nämlich nur am Ende eines Ereignisses, aktualisieren. „Es könnte genau solch eine reichhaltige und doch recheneffiziente Netzwerkarchitektur sein, mit der unser Gehirn beim Zuhören genaue und schnelle Vorhersagen treffen kann“, erklärt Forschungsgruppenleiter Jonas Obleser. Im Alltag unterstützt uns diese Hirnfunktion vor allem bei der erfolgreichen Kommunikation mit anderen und könnte künftig auch helfen, die Kommunikation zwischen Menschen und Maschinen wie Siri oder Alexa weiter zu verbessern.
Mehr erfahren zu: "Neubesetzung in der HNO-Klinik des Universitätsklinikums OWL Campus Klinikum Bielefeld" Neubesetzung in der HNO-Klinik des Universitätsklinikums OWL Campus Klinikum Bielefeld Prof. Claudia Scherl ist neue Chefärztin der Universitätsklinik für Hals-Nasen-Ohrenheilkunde, Kopf- und Halschirurgie am Klinikum Bielefeld. Gleichzeitig tritt sie die Professur für HNO-Heilkunde an der Medizinischen Fakultät am Universitätsklinikum OWL […]
Mehr erfahren zu: "Weltkrebstag: Bedeutung der medizinischen Labordiagnostik" Weltkrebstag: Bedeutung der medizinischen Labordiagnostik Anlässlich des Weltkrebstags am 4. Februar unterstreichen die Akkreditierten Labore in der Medizin (ALM) die bedeutende Rolle der medizinischen Labordiagnostik in der Krebsfrüherkennung, Diagnostik und Therapiebegleitung.
Mehr erfahren zu: "WHO aktualisiert Europäischen Kodex gegen Krebs: 14 Empfehlungen für wirksame Krebsprävention" WHO aktualisiert Europäischen Kodex gegen Krebs: 14 Empfehlungen für wirksame Krebsprävention Pünktlich zum Weltkrebstag am 04. Februar liegt die aktualisierte, fünfte Auflage des Europäischen Kodex gegen Krebs in deutscher Sprache vor.