Können wir bald Gedanken lesen? Künstliche Intelligenz macht's möglich
Gehirnströme konnten vom KI-Modell ChatGPT transkribiert werden. (Unsplash License)
Mit Hilfe von Künstlicher Intelligenz wie ChatGPT haben Forscher:innen einen bahnbrechenden Erfolg erzielt: Sie können die Gedanken von Menschen aus ihren Gehirn-Scans in Worte fassen. Vielleicht lässt sich diese Methode sogar auf Träume anwenden.
Der KI-Decoder ist das erste System, das die Gehirnaktivität in einen fliessenden Text verwandeln kann, ohne dass ein chirurgischer Eingriff nötig ist. Bisherige Systeme mussten Elektroden ins Gehirn implantieren. Der Decoder kann die Sprache erstaunlich genau wiedergeben, wenn Menschen einer Geschichte zuhören oder sich eine Geschichte ausdenken, und das nur mit den Daten eines MRT-Scans. Dies könnte eine neue Möglichkeit bieten, die Sprachfähigkeit von Patient:innen wiederherzustellen, die durch einen Schlaganfall oder eine Erkrankung der motorischen Neuronen verstummt sind.
Dr. Alexander Huth, ein Neurowissenschaftler von der Universität von Texas in Austin, der die Forschung leitet, ist begeistert: «Wir waren sehr erstaunt, wie gut es klappt. Ich habe 15 Jahre lang darauf hingearbeitet ... es war also ein Schock und eine Freude zugleich, als es endlich funktionierte.»
Die Forschung löst auch ein grundlegendes Problem der MRT: Die Technik kann zwar die Hirnaktivität an einem bestimmten Ort sehr genau darstellen, aber es gibt eine zeitliche Verzögerung, die es unmöglich macht, die Hirnaktivität in Echtzeit zu verfolgen.
Die MRT-Scans sind so langsam, weil sie zeigen, wie das Blut im Gehirn fliesst, wenn es arbeitet. Das dauert ungefähr 10 Sekunden, bis es am stärksten ist, und dann geht es wieder zurück zum Normalzustand. Das heisst, dass kein Scanner das schneller machen kann. «Das ist ein lautes, träges Signal für die Nervenzellen», sagt Huth.
Das macht es schwer, zu verstehen, wie das Gehirn auf natürliche Sprache reagiert, weil es viele Informationen über mehrere Sekunden vermischt.
Aber jetzt gibt es eine neue Möglichkeit, dank der grossen Sprachmodelle (die Art von künstlicher Intelligenz, die OpenAIs ChatGPT benutzt). Diese Modelle können die Bedeutung von Sprache in Zahlen ausdrücken, so dass die Forscher:innen sehen konnten, welche Muster von Nervenzellen zu welchen Bedeutungen passen, anstatt zu versuchen, jedes Wort zu lesen.
Später wurden dieselben Teilnehmer:innen wieder gescannt, als sie eine neue Geschichte hörten oder sich eine Geschichte ausdachten. Der Decoder erzeugte den Text nur aus den Nervenzellen. In etwa der Hälfte der Fälle war der Text sehr ähnlich oder sogar genau wie die Bedeutungen der ursprünglichen Wörter.
«Unser System arbeitet auf der Ebene von Ideen, Semantik und Bedeutung», sagt Huth. «Deswegen bekommen wir nicht die genauen Wörter heraus, sondern das Wichtigste».
Die Forscher:innen liessen die Teilnehmer:innen vier kurze stumme Videos anschauen, während sie im Gehirnscanner lagen. Dann nutzten sie einen Decoder, um aus ihrer Hirnaktivität einige der gezeigten Inhalte zu rekonstruieren. Die Ergebnisse wurden in Nature Neuroscience veröffentlicht. «Das ist ein grosser Fortschritt für eine nicht-invasive Methode, die bisher nur einzelne Wörter oder kurze Sätze erfassen konnte», sagte Huth.
Der Decoder war individuell angepasst und funktionierte bei anderen Personen nicht. Ausserdem konnten die Teilnehmer:innen, für die der Decoder trainiert war, das System austricksen, indem sie zum Beispiel an Tiere dachten oder sich im Kopf eine andere Geschichte ausdachten.
Jerry Tang, Doktorand an der University of Texas in Austin und einer der Mitautoren, sagte: «Wir sind uns der Bedenken bewusst, dass die Technologie für böse Zwecke eingesetzt werden könnte, und haben versucht, dies zu vermeiden. Wir wollen sicherstellen, dass die Menschen diese Art von Technologien nur nutzen, wenn sie es wünschen und wenn es ihnen nützt.»
Dr. Alexander Huth, ein Neurowissenschaftler von der Universität von Texas in Austin, der die Forschung leitet, ist begeistert: «Wir waren sehr erstaunt, wie gut es klappt. Ich habe 15 Jahre lang darauf hingearbeitet ... es war also ein Schock und eine Freude zugleich, als es endlich funktionierte.»
Die Forschung löst auch ein grundlegendes Problem der MRT: Die Technik kann zwar die Hirnaktivität an einem bestimmten Ort sehr genau darstellen, aber es gibt eine zeitliche Verzögerung, die es unmöglich macht, die Hirnaktivität in Echtzeit zu verfolgen.
Die MRT-Scans sind so langsam, weil sie zeigen, wie das Blut im Gehirn fliesst, wenn es arbeitet. Das dauert ungefähr 10 Sekunden, bis es am stärksten ist, und dann geht es wieder zurück zum Normalzustand. Das heisst, dass kein Scanner das schneller machen kann. «Das ist ein lautes, träges Signal für die Nervenzellen», sagt Huth.
Das macht es schwer, zu verstehen, wie das Gehirn auf natürliche Sprache reagiert, weil es viele Informationen über mehrere Sekunden vermischt.
Aber jetzt gibt es eine neue Möglichkeit, dank der grossen Sprachmodelle (die Art von künstlicher Intelligenz, die OpenAIs ChatGPT benutzt). Diese Modelle können die Bedeutung von Sprache in Zahlen ausdrücken, so dass die Forscher:innen sehen konnten, welche Muster von Nervenzellen zu welchen Bedeutungen passen, anstatt zu versuchen, jedes Wort zu lesen.
Die künstliche Intelligenz lernen lassen
Das Lernen war anstrengend: Drei Freiwillige mussten jeweils 16 Stunden lang Podcasts hören, während sie in einem Scanner lagen. Der Decoder lernte, die Nervenzellen mit der Bedeutung zu verbinden, indem er ein grosses Sprachmodell, GPT-1, einen Vorgänger von ChatGPT, benutzte.Später wurden dieselben Teilnehmer:innen wieder gescannt, als sie eine neue Geschichte hörten oder sich eine Geschichte ausdachten. Der Decoder erzeugte den Text nur aus den Nervenzellen. In etwa der Hälfte der Fälle war der Text sehr ähnlich oder sogar genau wie die Bedeutungen der ursprünglichen Wörter.
«Unser System arbeitet auf der Ebene von Ideen, Semantik und Bedeutung», sagt Huth. «Deswegen bekommen wir nicht die genauen Wörter heraus, sondern das Wichtigste».
Die Forscher:innen liessen die Teilnehmer:innen vier kurze stumme Videos anschauen, während sie im Gehirnscanner lagen. Dann nutzten sie einen Decoder, um aus ihrer Hirnaktivität einige der gezeigten Inhalte zu rekonstruieren. Die Ergebnisse wurden in Nature Neuroscience veröffentlicht. «Das ist ein grosser Fortschritt für eine nicht-invasive Methode, die bisher nur einzelne Wörter oder kurze Sätze erfassen konnte», sagte Huth.
Schutz vor Missbrauch
Der Decoder machte manchmal Fehler und kam mit bestimmten sprachlichen Aspekten nicht zurecht, zum Beispiel mit Pronomen. «Er kann nicht unterscheiden, ob es sich um die erste oder dritte Person, männlich oder weiblich handelt», erklärte Huth. «Wir wissen nicht, warum er darin so schlecht ist.»Der Decoder war individuell angepasst und funktionierte bei anderen Personen nicht. Ausserdem konnten die Teilnehmer:innen, für die der Decoder trainiert war, das System austricksen, indem sie zum Beispiel an Tiere dachten oder sich im Kopf eine andere Geschichte ausdachten.
Jerry Tang, Doktorand an der University of Texas in Austin und einer der Mitautoren, sagte: «Wir sind uns der Bedenken bewusst, dass die Technologie für böse Zwecke eingesetzt werden könnte, und haben versucht, dies zu vermeiden. Wir wollen sicherstellen, dass die Menschen diese Art von Technologien nur nutzen, wenn sie es wünschen und wenn es ihnen nützt.»
(fest/vadian.ai)
publiziert: Donnerstag, 4. Mai 2023 / 14:26 Uhr
, aktualisiert: Donnerstag, 4. Mai 2023 / 14:44 Uhr
KI in der Kriegsplanung getestet
Forscher aus den USA haben GPT-4 in einem Kriegsspiel zur Planung von Gefechten eingesetzt. Dabei schnitt das Modell besser ab als bisher veröffentlichte militärische Künstliche Intelligenzen. Das berichtet heise.de.KI macht Bier noch geschmackvoller
Belgische Forscher setzen künstliche Intelligenz ein, um den Geschmack von belgischem Bier zu verbessern, das Können des Braumeisters bleibt aber weiterhin entscheidend.KI erkennt Gentrifizierung
In einer Zeit, in der Veränderungen in unseren Städten in einem beispiellosen Tempo voranschreiten, haben Forscher einen innovativen Ansatz gefunden, um die visuellen Spuren der Gentrifizierung frühzeitig zu erkennen. Mit Hilfe eines KI-Modells, das mit Bildern von Google Street View trainiert wurde, können nun subtile Veränderungen in urbanen Landschaften identifiziert werden, die auf eine Gentrifizierung hindeuten.Google, Meta und OpenAI engagieren sich im Kampf gegen Deepfakes
Um der steigenden Verbreitung manipulierter Inhalte entgegenzuwirken, haben sich Google, Meta und OpenAI der C2PA angeschlossen. Ihr Ziel ist es, Standards zu entwickeln, um authentische Inhalte von solchen zu unterscheiden, die mithilfe von Künstlicher Intelligenz erstellt wurden.Wahl-Manipulationen mit KI werden dieses Jahr zum Problem
Während die USA und andere Länder sich auf die bevorstehenden Wahlen vorbereiten, prognostiziert eine neue Studie eine Eskalation der täglichen Aktivitäten von bösartig-manipulierenden Akteuren, die von KI gesteuert werden, bis Mitte 2024.AlphaMissense: KI-Programm hilft bei der Diagnose seltener Krankheiten
Seltene Krankheiten sind oft schwer zu diagnostizieren, da sie nur wenige Menschen betreffen und die Symptome variieren können. Eine neue Software namens AlphaMissense soll Ärzten dabei helfen, solche Krankheiten schneller und genauer zu erkennen. Die Software nutzt künstliche Intelligenz (KI), um die genetischen Ursachen von seltenen Krankheiten zu analysieren und mögliche Therapien vorzuschlagen.
Menschliche Beteiligung ist unerlässlich für KI-generierte Kunstwerke ohne US-Copyright
weiterlesen