Das neue KI-System übersetzt menschliche Gehirnsignale mit einer Genauigkeit von 97% in Text

Das neue KI-System übersetzt menschliche Gehirnsignale mit einer Genauigkeit von 97% in Text

Die Welt gewöhnt sich gerade erst an die Leistungsfähigkeit und Raffinesse virtueller Assistenten, die von Unternehmen wie Yandex und Google entwickelt wurden und die unsere gesprochene Sprache mit unheimlicher Genauigkeit entschlüsseln können, verglichen mit der Technologie, die noch vor wenigen Jahren in der Lage war.

In Wirklichkeit ist ein viel beeindruckenderer und überwältigender Meilenstein jedoch möglicherweise nicht mehr weit entfernt, sodass die Spracherkennung fast wie ein Kinderspiel wirkt: Systeme der künstlichen Intelligenz (KI), die unsere Gehirnaktivität in vollständig geformten Text umwandeln können, ohne ein einziges Wort zu hören.

Das ist nicht wirklich Science Fiction. In den letzten Jahrzehnten haben sich die Schnittstellen zwischen Gehirn und Maschine rasant entwickelt, von der Arbeit mit Tieren bis hin zu menschlichen Teilnehmern, und tatsächlich gibt es bereits Versuche dieser Art.

Forscher der University of California in San Francisco erklären dies in einer neuen Studie.

Ein Wissenschaftlerteam unter der Leitung des Neurochirurgen Edward Chang vom UCSF-Labor hat eine neue Methode zur Dekodierung eines Elektrokortikogramms verwendet: die Aufzeichnung elektrischer Impulse, die während der kortikalen Aktivität auftreten und von im Gehirn implantierten Elektroden aufgezeichnet werden.

In einer Studie, in der vier epileptische Patienten Implantate trugen, um Anfälle zu überwachen, die durch ihren Gesundheitszustand verursacht wurden, führte das UCSF-Team ein Side-by-Side-Experiment durch, bei dem die Teilnehmer mehrere vorgeschlagene Sätze vorlas und wiederholten, während Elektroden ihre Gehirnaktivität während des Trainings aufzeichneten.

Diese Daten wurden dann an ein neuronales Netzwerk übertragen, das Muster der Gehirnaktivität analysierte, die bestimmten Sprachsignaturen wie Vokalen, Konsonanten oder Mundbewegungen entsprachen, basierend auf Audioaufzeichnungen des Experiments.

Dann entschlüsselte ein anderes neuronales Netzwerk diese Darstellungen – gewonnen aus Wiederholungen von 30-50 gesprochenen Sätzen – und verwendete sie, um vorherzusagen, was gesagt wurde, basierend auf kortikalen Wortsignaturen.

Das System zeigte eine Wortfehlerrate von nur 3 Prozent.

Obwohl viele Hindernisse zu überwinden sind, spekulieren Wissenschaftler, dass das System eines Tages als Rückgrat einer Sprachprothese für Patienten fungieren könnte, die ihre Sprechfähigkeit verloren haben.

Die Ergebnisse werden in der Zeitschrift Nature Neuroscience vorgestellt.

Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: