AI Kompetenzen suchen

Können wir bald Gedanken lesen? Künstliche Intelligenz macht's möglich

Gehirnströme konnten vom KI-Modell ChatGPT transkribiert werden. (Unsplash License)
Mit Hilfe von Künstlicher Intelligenz wie ChatGPT haben Forscher:innen einen bahnbrechenden Erfolg erzielt: Sie können die Gedanken von Menschen aus ihren Gehirn-Scans in Worte fassen. Vielleicht lässt sich diese Methode sogar auf Träume anwenden.
Der KI-Decoder ist das erste System, das die Gehirnaktivität in einen fliessenden Text verwandeln kann, ohne dass ein chirurgischer Eingriff nötig ist. Bisherige Systeme mussten Elektroden ins Gehirn implantieren. Der Decoder kann die Sprache erstaunlich genau wiedergeben, wenn Menschen einer Geschichte zuhören oder sich eine Geschichte ausdenken, und das nur mit den Daten eines MRT-Scans. Dies könnte eine neue Möglichkeit bieten, die Sprachfähigkeit von Patient:innen wiederherzustellen, die durch einen Schlaganfall oder eine Erkrankung der motorischen Neuronen verstummt sind.

Dr. Alexander Huth, ein Neurowissenschaftler von der Universität von Texas in Austin, der die Forschung leitet, ist begeistert: «Wir waren sehr erstaunt, wie gut es klappt. Ich habe 15 Jahre lang darauf hingearbeitet ... es war also ein Schock und eine Freude zugleich, als es endlich funktionierte.»

Die Forschung löst auch ein grundlegendes Problem der MRT: Die Technik kann zwar die Hirnaktivität an einem bestimmten Ort sehr genau darstellen, aber es gibt eine zeitliche Verzögerung, die es unmöglich macht, die Hirnaktivität in Echtzeit zu verfolgen.

Die MRT-Scans sind so langsam, weil sie zeigen, wie das Blut im Gehirn fliesst, wenn es arbeitet. Das dauert ungefähr 10 Sekunden, bis es am stärksten ist, und dann geht es wieder zurück zum Normalzustand. Das heisst, dass kein Scanner das schneller machen kann. «Das ist ein lautes, träges Signal für die Nervenzellen», sagt Huth.
Das macht es schwer, zu verstehen, wie das Gehirn auf natürliche Sprache reagiert, weil es viele Informationen über mehrere Sekunden vermischt.

Aber jetzt gibt es eine neue Möglichkeit, dank der grossen Sprachmodelle (die Art von künstlicher Intelligenz, die OpenAIs ChatGPT benutzt). Diese Modelle können die Bedeutung von Sprache in Zahlen ausdrücken, so dass die Forscher:innen sehen konnten, welche Muster von Nervenzellen zu welchen Bedeutungen passen, anstatt zu versuchen, jedes Wort zu lesen.

Die künstliche Intelligenz lernen lassen

Das Lernen war anstrengend: Drei Freiwillige mussten jeweils 16 Stunden lang Podcasts hören, während sie in einem Scanner lagen. Der Decoder lernte, die Nervenzellen mit der Bedeutung zu verbinden, indem er ein grosses Sprachmodell, GPT-1, einen Vorgänger von ChatGPT, benutzte.

Später wurden dieselben Teilnehmer:innen wieder gescannt, als sie eine neue Geschichte hörten oder sich eine Geschichte ausdachten. Der Decoder erzeugte den Text nur aus den Nervenzellen. In etwa der Hälfte der Fälle war der Text sehr ähnlich oder sogar genau wie die Bedeutungen der ursprünglichen Wörter.

«Unser System arbeitet auf der Ebene von Ideen, Semantik und Bedeutung», sagt Huth. «Deswegen bekommen wir nicht die genauen Wörter heraus, sondern das Wichtigste».

Die Forscher:innen liessen die Teilnehmer:innen vier kurze stumme Videos anschauen, während sie im Gehirnscanner lagen. Dann nutzten sie einen Decoder, um aus ihrer Hirnaktivität einige der gezeigten Inhalte zu rekonstruieren. Die Ergebnisse wurden in Nature Neuroscience veröffentlicht. «Das ist ein grosser Fortschritt für eine nicht-invasive Methode, die bisher nur einzelne Wörter oder kurze Sätze erfassen konnte», sagte Huth.

Schutz vor Missbrauch

Der Decoder machte manchmal Fehler und kam mit bestimmten sprachlichen Aspekten nicht zurecht, zum Beispiel mit Pronomen. «Er kann nicht unterscheiden, ob es sich um die erste oder dritte Person, männlich oder weiblich handelt», erklärte Huth. «Wir wissen nicht, warum er darin so schlecht ist.»

Der Decoder war individuell angepasst und funktionierte bei anderen Personen nicht. Ausserdem konnten die Teilnehmer:innen, für die der Decoder trainiert war, das System austricksen, indem sie zum Beispiel an Tiere dachten oder sich im Kopf eine andere Geschichte ausdachten.

Jerry Tang, Doktorand an der University of Texas in Austin und einer der Mitautoren, sagte: «Wir sind uns der Bedenken bewusst, dass die Technologie für böse Zwecke eingesetzt werden könnte, und haben versucht, dies zu vermeiden. Wir wollen sicherstellen, dass die Menschen diese Art von Technologien nur nutzen, wenn sie es wünschen und wenn es ihnen nützt.»
(fest/vadian.ai)
publiziert: Donnerstag, 4. Mai 2023 / 14:26 Uhr , aktualisiert: Donnerstag, 4. Mai 2023 / 14:44 Uhr

KI in der Kriegsplanung getestet

Forscher aus den USA haben GPT-4 in einem Kriegsspiel zur Planung von Gefechten eingesetzt. Dabei schnitt das Modell besser ab als bisher veröffentlichte militärische Künstliche Intelligenzen. Das berichtet heise.de.
weiterlesen

KI macht Bier noch geschmackvoller

Belgische Forscher setzen künstliche Intelligenz ein, um den Geschmack von belgischem Bier zu verbessern, das Können des Braumeisters bleibt aber weiterhin entscheidend.
weiterlesen

KI erkennt Gentrifizierung

In einer Zeit, in der Veränderungen in unseren Städten in einem beispiellosen Tempo voranschreiten, haben Forscher einen innovativen Ansatz gefunden, um die visuellen Spuren der Gentrifizierung frühzeitig zu erkennen. Mit Hilfe eines KI-Modells, das mit Bildern von Google Street View trainiert wurde, können nun subtile Veränderungen in urbanen Landschaften identifiziert werden, die auf eine Gentrifizierung hindeuten.
weiterlesen

Google, Meta und OpenAI engagieren sich im Kampf gegen Deepfakes

Um der steigenden Verbreitung manipulierter Inhalte entgegenzuwirken, haben sich Google, Meta und OpenAI der C2PA angeschlossen. Ihr Ziel ist es, Standards zu entwickeln, um authentische Inhalte von solchen zu unterscheiden, die mithilfe von Künstlicher Intelligenz erstellt wurden.
weiterlesen

Wahl-Manipulationen mit KI werden dieses Jahr zum Problem

Während die USA und andere Länder sich auf die bevorstehenden Wahlen vorbereiten, prognostiziert eine neue Studie eine Eskalation der täglichen Aktivitäten von bösartig-manipulierenden Akteuren, die von KI gesteuert werden, bis Mitte 2024.
weiterlesen

AlphaMissense: KI-Programm hilft bei der Diagnose seltener Krankheiten

Seltene Krankheiten sind oft schwer zu diagnostizieren, da sie nur wenige Menschen betreffen und die Symptome variieren können. Eine neue Software namens AlphaMissense soll Ärzten dabei helfen, solche Krankheiten schneller und genauer zu erkennen. Die Software nutzt künstliche Intelligenz (KI), um die genetischen Ursachen von seltenen Krankheiten zu analysieren und mögliche Therapien vorzuschlagen.
weiterlesen
Menschliche Beteiligung ist unerlässlich für KI-generierte Kunstwerke ohne US-Copyright

Urteil: Computer alleine haben keinen Anspruch auf Urheberrecht

In zunehmend mehr Bereichen wird die KI-Technologie eingesetzt, jedoch hat ein US-Gericht bestätigt, dass Kunstwerke, die von dieser Technologie erstellt wurden, keinen Urheberrechtsschutz geniessen.
weiterlesen

New York Times prüft Urheberrechtsklage gegen OpenAI

Die New York Times prüft eine Urheberrechtsklage gegen OpenAI, ein KI-Forschungslabor, das ChatGPT entwickelt hat, einen Chatbot, der Texte generieren kann, die von Menschen geschriebenen Texten ähneln.
weiterlesen

Neurowissenschaftler können Songs aus der Gehirnaktivität rekonstruieren

Neurowissenschaftler der University of California, Berkeley, haben zum ersten Mal ein erkennbares Lied aus Gehirnaufzeichnungen rekonstruiert. Die Studie, die in der Fachzeitschrift PLOS Biology veröffentlicht wurde, könnte neue Wege zur Verbesserung der Kommunikation bei Menschen mit Sprachstörungen eröffnen.
weiterlesen

KI erkennt Schlaganfälle per App

Forscher der University of California Los Angeles haben eine App entwickelt, die mithilfe von maschinellem Lernen und Künstlicher Intelligenz (KI) Schlaganfallrisiken erkennt und Betroffene frühzeitig warnt.
weiterlesen