Nowy implant mózgowy dekoduje „wewnętrzny monolog” człowieka. To przełom
Naukowcy z Uniwersytetu Standforda zbudowali przełomowy interfejs mózg-komputer, zdolny dekodować wewnętrzną mowę człowieka. Tego typu rozwiązanie może pomóc sparaliżowanym ludziom w komunikacji ze światem.

Eksperci z zakresu neurologii i inżynierii opracowali interfejs mózg-komputer (BCI), który może przechwytywać i dekodować wewnętrzny monolog danej osoby. W przeciwieństwie do niektórych poprzednich systemów, nowy interfejs mózg-komputer nie wymaga od używających go osób fizycznej próby mówienia.
Zamiast tego muszą one po prostu pomyśleć o tym, co chcą powiedzieć. To przełom najbardziej zbliżony do telepatii. Tylko zamiast mutacji występującej u Profesora Xaviera – fikcyjnej postaci znanej z komiksów o przygodach X-Menów, wykorzystuje się w tym celu komputer.
Gdy mózg myśli o mówieniu
– Po raz pierwszy udało nam się zrozumieć, jak wygląda aktywność mózgu w sytuacji, gdy nie próbujemy mówić, a tylko myślimy o mówieniu – napisała w oświadczeniu współautorka badania Erin Kunz, inżynier elektryk z Uniwersytetu Stanforda.
Erin Kunz przekonuje, że ludziom z poważnymi zaburzeniami mowy i motoryki interfejsy mózg-komputer zdolne do dekodowania wewnętrznej mowy mogą pomóc w znacznie łatwiejszej i bardziej naturalnej komunikacji. A to dawałoby im dużą samodzielność i możliwość nawiązywania relacji.
Interfejsy mózg-komputer nie są nowym wynalazkiem. Pierwsze, bardzo proste urządzenia były testowane już kilkadziesiąt lat temu. Prowadzono wówczas pierwsze eksperymenty z rejestrowaniem sygnałów mózgowych (EEG) w celu sterowania prostymi urządzeniami.
W 1973 roku Jonathan Wolpaw i inni zaczęli testy sterowania komputerem za pomocą EEG u ludzi i zwierząt. Nieco ponad dekadę później powstają pierwsze komercyjne systemy EEG do sterowania wskaźnikami lub wózkami inwalidzkimi. Ogromny rozwój tego typu interfejsów miał miejsce od lat 2000 do dzisiaj. Mowa zarówno o interfejsach inwazyjnych, jak i nieinwazyjnych, w tym np. o systemie Neuralink, implantach w korze ruchowej umożliwiające sterowanie komputerem i protezami z dużą precyzją.
Zdekodować mowę wewnętrzną
Używany przez cierpiącego na stwardnienie zanikowe boczne profesora Stephena Hawkinga system mowy nie był interfejsem typu mózg-komputer. Hawking używał systemu komunikacji opartego na czujniku mięśni policzka, który pozwalał mu wybierać litery i słowa na ekranie komputera.
Wiele opracowanych do tej pory interfejsów BCI, które pomagają ludziom komunikować się, wymaga od nich fizycznej próby mówienia. Na tej bazie próbują zinterpretować to, co chce przekazać chory. Proces ten może być męczący dla osób z ograniczoną kontrolą mięśni. Naukowcy biorący udział w omawianym badaniu zastanawiali się, czy zamiast tego mogliby dekodować mowę wewnętrzną.
Erin Kunz i jej współpracownicy pracowali z czterema osobami sparaliżowanymi w wyniku udaru lub stwardnienia zanikowego bocznego (ALS), choroby zwyrodnieniowej, która atakuje komórki nerwowe odpowiedzialne za kontrolę mięśni. Uczestnikom wszczepiono elektrody do mózgu w ramach badania klinicznego dotyczącego sterowania urządzeniami wspomagającymi za pomocą myśli. Następnie badacze wyszkolili modele sztucznej inteligencji do dekodowania mowy wewnętrznej i próbnej mowy na podstawie sygnałów elektrycznych odbieranych przez elektrody w mózgach uczestników.
Myśli chronione hasłem
Zespół odkrył, że modele dekodowały zdania, które uczestnicy „wypowiadali” wewnętrznie w swoich umysłach, z dokładnością do 74%. Wykrywały one również naturalną mowę wewnętrzną danej osoby podczas zadań, które tego wymagały, takich jak zapamiętanie kolejności serii strzałek wskazujących różne kierunki.
Jednym z dylematów etycznych związanych z interfejsami mózg-komputer jest to, że mogą one potencjalnie dekodować prywatne myśli ludzi, a nie to, co zamierzali powiedzieć na głos. Dlatego badacze wprowadzili dodatkowe zabezpieczenie. Ich interfejs chroniony jest hasłem. Uczestnicy mogli w dowolnym momencie komunikować się za pomocą mowy próbowanej, ale interfejs rozpoczynał dekodowanie mowy wewnętrznej dopiero po wypowiedzeniu w myślach hasła „chitty chitty bang bang”.
Chociaż interfejs BCI nie był w stanie dekodować pełnych zdań, gdy osoba nie myślała wyraźnie słowami, zaawansowane urządzenia mogą być w stanie to zrobić w przyszłości – napisali naukowcy w badaniu.
Źródło: LiveScience
Nasza autorka
Ewelina Zambrzycka-Kościelnicka
Dziennikarka i redaktorka zajmująca się tematyką popularnonaukową. Związana z magazynami portali Gazeta.pl oraz Wp.pl. Współautorka książek „Człowiek istota kosmiczna”, „Kosmiczne wyzwania” i „Odważ się robić wielkie rzeczy”.

