Wird KI in der Lage sein, unsere Gedanken zu lesen?

Wenn wir den großen Technologieunternehmen zuhören, wird KI in naher Zukunft zu allem fähig sein, aber Was denken Neurowissenschaftler, die sich auf neue Technologien spezialisiert haben? Wird künstliche Intelligenz so weit gehen, wie uns versprochen wird? Was wäre, wenn KI beispielsweise Gedanken lesen könnte? Science-Fiction oder Realität?

Als nächstes wenden wir uns zwei aktuellen Studien zu, die sich mit der Möglichkeit befassen, wozu künstliche Intelligenz fähig ist Rendern Sie Bilder des menschlichen Gehirns und übersetzen Sie die Gehirnaktivität in einen kontinuierlichen Textstrom. Abschließend besprechen wir das neueste Versprechen von Meta, dem neuen Gesicht von Facebook, die Verwendung von KI zur Entschlüsselung von Sprache aus Gehirnaktivität.

Gedankenlesen mit einem semantischen Decoder

Eine Person mit einer Zahlenprojektion auf ihrem Gesicht – Quelle: Pexels

Bereits 2013 veröffentlichte das Wired-Magazin eine der ersten Arbeiten des damaligen Informatik- und Neurowissenschaftsstudenten Alexander Huthzusammen mit ihrem Professor Jack Gallant, in dem sie eine Infografik präsentierten, die zeigt, wie häufige Wortkategorien in unserem Gehirn gespeichert sind.

Bevor die KI-„Revolution“ die Aufmerksamkeit der Medien auf sich zog, Forscher haderten bereits mit der Möglichkeit des „Gedankenlesens“: Fünf Freiwillige wurden in ein fMRT-Gerät (funktionale Magnetresonanztomographie) eingesetzt, das ihr Gehirn scannte, während sie drei Stunden lang Filmtrailer sahen. „Jedes Mal, wenn der Freiwillige ein bestimmtes Substantiv oder Verb sah, ermittelten wir die Stelle im Gehirn, die gleichzeitig aufleuchtete.“.

Fast ein Jahrzehnt nach dieser Studie hat Huth, bereits als Professor an der University of Texas, eine Studie in die gleiche Richtung vorgelegt, die insbesondere den Einsatz neuer KI-Technologien berücksichtigt Sprachmodell GPT Das ist der Motor des beliebten Free-Access-Chats.

In diesem Fall, Die semantische Dekodierung wurde durch die Gehirnaktivität von drei Freiwilligen „trainiert“. die jeweils 16 Stunden lang in einem fMRT-Gerät lagen. Nach dem Training wurden dieselben Teilnehmer gescannt, indem sie sich neue Geschichten anhörten oder sich neue Geschichten vorstellten Der Decoder intervenierte, um Text ausschließlich aus Gehirnaktivität zu generieren.

In von Medien wie The Guardian gesammelten Aussagen erklärte Huth, dass sein System „Es funktioniert auf der Ebene der Ideen, der Semantik und der Bedeutung. Obwohl wir nicht in der Lage waren, die genauen Worte zu verstehen, haben wir das Wesentliche verstanden“. Und es ist überhaupt nicht schlecht, oder?

Als einer Freiwilligen beispielsweise die Worte „Ich habe noch keinen Führerschein“ gegeben wurden, übersetzte der Decoder diese mit „Sie hat noch nicht einmal angefangen, Autofahren zu lernen“.

Obwohl die von Huths Team angestrebte „Genauigkeit“ nicht erreicht wurde, bekräftigt der Professor von der University of Texas, dass dies der Fall ist ein echter Durchbruch für eine nicht-invasive Methode. Um ähnliche Ergebnisse zu erzielen, waren bisher chirurgische Implantate erforderlich.

Die Herausforderung dieses semantischen Decoders besteht jedoch darin, beliebige Gedanken zu „lesen“, da das System im Moment nicht mit einer Person trainieren und es dann mit einer anderen ausführen kann, außerdem, und das ist wichtig, kann die Worte des Probanden nicht ohne die Mitarbeit des Probanden reproduzieren. So können wir uns vorerst beruhigt zurücklehnen: Keine Maschine wird unsere Gedanken erraten, wenn wir es nicht wollen.

Rekonstruieren Sie Gehirnbilder mit KI

Bilder und Diagramme der Studie

Bei der Bewertung des vorangegangenen Experiments bezeichnete der Neurowissenschaftsprofessor Shinji Nishimoto es als einen bedeutenden Fortschritt und begrüßte die Möglichkeit, dass dies der Fall sein könnte die Grundlage für die Entwicklung von „Gehirn-Computer“-Schnittstellen.

Und es ist so, dass Nishimoto weiß, wovon er spricht, denn auch er hat kürzlich eine vielversprechende Studie auf diesem Gebiet vorgelegt, obwohl er sich dafür entschieden hat Rekonstruktion von Bildern statt Übersetzung von Gedanken in Worte.

Forscher der Universität Osaka präsentierten Freiwilligen eine Reihe von Fotos und forderten sie auf, sich auf diese zu konzentrieren, während sie sich einer Gehirn-MRT unterzogen. Um die Bilder aus der im fMRT erfassten Gehirnaktivität zu rekonstruieren, nutzten die Forscher ein latentes Diffusionsmodell, bekannt als stabile Diffusion mit hoher generativer Ausbeute.

Das Testergebnis war sehr zufriedenstellend, wie die Bilder zeigen: „Wir zeigen, dass unsere vorgeschlagene Methode dies kann Rekonstruieren Sie problemlos hochauflösende Bilder mit hoher Wiedergabetreueohne dass zusätzliches Training und die Optimierung komplexer Deep-Learning-Modelle erforderlich sind.“

Meta und sein semantischer Decoder

Gehirn

Facebook, jetzt bekannt als Meta, hat jahrelang nach einer neuen Technologie gesucht, um wieder an der Spitze der Branche zu stehen. Und es ist offensichtlich, dass künstliche Intelligenz als geeignetes Mittel zur Erreichung ihrer Ziele dargestellt wird. Das neueste Versprechen von Mark Zuckerbergs Imperium ist das KI-Anwendung zur Dekodierung von Sprache aus Gehirnaktivitätetwas, das wir bereits in früheren Experimenten gesehen haben, in diesem Fall jedoch mit kommerziellem Ziel.

In einer im August letzten Jahres veröffentlichten Erklärung wies Meta darauf hin, dass jedes Jahr fast 70 Millionen Menschen traumatische Hirnverletzungen erleiden, die dazu führen, dass viele von ihnen nicht mehr in der Lage sind, durch Sprache, Gesten oder Schrift zu kommunizieren. „Das Leben dieser Menschen könnte drastisch verbessert werden, wenn Forscher eine Technologie zur Entschlüsselung von Sprache entwickeln würden. direkt aus nicht-invasiven Gehirnaufzeichnungen.

In Zusammenarbeit mit der New York University, der Michigan University, dem Trinity College Dublin und der University of Rochester finanzierte Meta eine Forschung zur Identifizierung komplexer Sprachdarstellungen im Gehirn von Freiwilligen, die Hörbücher hörten.

Hierzu nutzten sie den sogenannten wave2vec 2.0, ein Spracherkennungsmodell, das die Sprachstruktur aus Rohaudio lernt. Basierend auf Elektroenzephalographie und Magnetenzephalographie, die in der Lage sind, jede Sekunde etwa 1.000 Schnappschüsse der makroskopischen Gehirnaktivität zu machen, Das System wurde darauf trainiert, auf die Wörter zu schließen, die die Person (wahrscheinlich) gehört hat.

Meta stellte fest, dass ihr Modell „die entsprechenden Sprachsegmente mit dekodieren kann“. Bis zu 73 % Genauigkeit der Top Ten aus einem Vokabular mit 793 Wörterndas heißt, ein großer Teil der Wörter, die wir normalerweise an einem Tag verwenden.“

Schreibe einen Kommentar