Hirnforscher sind bereits seit Jahrzehnten im Prinzip fähig, menschliche Gedanken zu interpretieren. Was sich leicht anhört, ist in der Realität nicht ganz so einfach. Hierzu müssen sich StudienteilnehmerInnen mitunter stundenlang in die Enge eines funktionellen Magnetresonanztomografen (fMRI) zwängen, während sie sich unter nervenden Hammer- und Klopfgeräuschen Hörbücher anhören oder Filme ansehen. Zeitgleich zum Bild- oder Tonablauf zeichnet das fMRI-Gerät auf, wie sich bei den Probanden das Blutflussmuster des Gehirns verändert – ein Indikator für die neuronale Aktivität.
Liegen diese Daten vor, nutzen die Forschenden eine Software, mit deren Hilfe sekundenweise erstellte Paare aus Blutflussmustern sowie Filmbildern oder gesprochenem Wort, auf Besonderheiten der Gehirnreaktion untersucht werden. So lernt die Software Zusammenhänge zwischen dem, was die StudienteilnehmerInnen sehen und hören und dem Blutflussmuster. All dies bedarf selbstverständlich der Zustimmung der Probanten, die sich für die Experiment freiwillig gemeldet hatten. Heißt: auf absehbare Zeit werden Gedanken weiterhin privat bleiben, so man das möchte. Auf der anderen Seite ermöglichen die klaustrophobischen Erfahrungen eine maßgeschneiderte Rekonstruktion dessen, was Mensch gehört bzw. gesehen hat – durch einfachste Analyse des Blutflusses im zentralen Denkorgan und hierzu gibt es Neuigkeiten.
Seit mehr als einem Jahrzehnt trainieren Forschende der University of California in Berkeley ein Programm, um Doppelgänger der Videos zu erstellen, die sich ihre in der fMRI-Röhre liegenden StudienteilnehmerInnen angesehen hatten. Sie nutzen hierzu generative Künstliche Intelligenz (KI), um auf der Grundlage neuronaler Aktivitäten weitaus realistischere Rekonstruktionen von Bild und Ton zu erstellen, als dis bislang der Fall war. Das ist beeindruclend, aber eben immer noch nicht ganz genau bzw. exakt. Betrachtet man sich den Hype (und die damit verbundenen finanziellen Investitionen) die generative KI im Moment anzieht, wird sich diese Art und Weise und Qualität der NeuroStimulus-Rekonstruktionstechnologie ohne Zweifel stetig weiter verbessern – vielleicht sogar dank Elon Musks Neuralink-Projekt, mit dessen Hilfe Hirnirnimplantate für die breite Masse verfügbar gemacht werden sollen.
Aber machen wir uns nichts vor: Einen Film aus der neuronalen Aktivität eines Menschen zu generieren, ist eine sehr limitierte Form des Gedankenlesens. Um unsere Welt tatsächlich mit den Augen eines anderen sehen zu können, müssten es den Forschenden gelingen, gleichzeitig zu interpretieren, was man darüber denkt und / oder empfindet sowie über die im Gehirn abgerufenen Erinnerungen verfügen. Und unsere inneren Gefühle und Gedanken sind weitaus schwieriger zu erfassen, als Blutflussmuster im Gehirn. Was durchaus damit zusammenhängt, dass KI-Algorithmen zum Erlernen von Gehirnsignalen so viele Informationen wie möglich darüber benötigen, was diese bedeuten. Um nicht zu sagen: eas es braucht ist perfekte Synchronisation aller Infos ohne Latenz. Aktuell können sich Hirnforschende bei der Untersuchung des inneren Erlebens im Geiste eines Menschen allein auf das stützen, was diese Menschen darüber erzählen, was in ihrem Kopf vor sich geht – und das sollte dann auch noch zuverlässig sein.
Es war der britische Philosoph John Locke, der vor mehr als drei Jahrhunderten die Frage stellte, ob die Farbe Blau für alle Menschen wohl gleich aussieht. Könnte es nicht sein, so Locke, dass die eine individuelle Erfahrung von „Blau“ vielleicht näher an der Gelb- oder Grün-Erfahrung eines anderen Menschen liege? Auch die Einbeziehung solch subtiler Aspekte könnte ein Punkt am Horizont der Neurowissenschaft sein, wenn die Frage des Gedankenlesens auf das nächste Level gehoben wird. So gesehen steckt dieser Zweig der Hirnforschung noch in den Kinderschuhen, aber es deutet vieles darauf hin, dass die Neurowissenschaftler eines Tages mehr leisten könnten, als nur zu interpretieren, was jemand anderes gedanklich durchlebt.
Ein Artikel von Dr. Bernhard Doepfer und Rainer W. Sauer im Auftrag von WAVEPRODUCTIONS © 2023.