– Mrugnięcie okiem, żeby zasłonić rolety lub włączyć telewizor to już nic nadzwyczajnego. Najciekawsze w technologii mózg-komputer jest bowiem to, żeby wygenerować taką myśl – impuls adekwatny do danej czynności, bez konieczności dodatkowej stymulacji czyli bez faktycznego zamykania oka, zaciskania zębów, podnoszenia brwi, ruchu ręką – podkreśla prof. Szczepan Paszkiel, organizator konferencji IC BCI Opole.
Anna Kułynycz: Podczas konferencji na temat technologii interfejsów mózg-komputer prof. Janusz Kacprzyk zauważył, że w zasadzie łatwiej wskazać branżę, w której nie można zastosować połączenia mózg-komputer.
Prof. Szczepan Paszkiel z Katedry Elektroenergetyki i Energii Odnawialnej Wydziału Elektrotechniki, Automatyki i Informatyki, organizator konferencji IC BCI Opole:
Dokładnie tak jest. Technologia interfejsów mózg-komputer (BCI) jest na tyle adaptacyjna, że docelowo może być wykorzystana praktycznie wszędzie. Weźmy na przykład modne obecnie systemy domów inteligentnych, które są sterowane w oparciu o aplikację na smartfonie. Poprzez aplikację opuszczamy rolety, włączamy mobilny odkurzacz, czy programujemy uruchomienie ogrzewania. Powyższe w miarę rozwoju metod klasyfikacji sygnałów EEG jest niewątpliwie możliwe do zrealizowania przy pomocy technologii BCI.
Dzięki interfejsom mózg-komputer nie musimy dotykać smartfonu, za pomocą interfejsu wysyłamy sygnał do konkretnego urządzenia – co najciekawsze: obojętnie do jakiego – żeby dać mu impuls do włączenia, czy też wyłączenia. To rozwiązanie jest bardzo dobre dla osób z niepełnosprawnościami, chociaż mogą korzystać z niego także osoby pełnosprawne, którym zwyczajnie nie chce się sięgać po telefon lub po prostu lubią technologie przyszłości jaką jest niewątpliwie włączenie urządzania bezpośrednio za pomocą „myśli”.
W przypadku osób sparaliżowanych, które mają sprawny mózg, w kilku przypadkach na świecie zastosowano inwazyjne interfejsy mózg-komputer. W przypadku tradycyjnych Headset-ów BCI, sygnał jest sczytywany z powierzchni czaszki, musi przejść przez kość, skórę, włosy, stąd też musi być odpowiednio odfiltrowany, pozbawiony zakłóceń a także wzmocniony. Inwazyjne interfejsy polegają na tym, że wykonuje się trepanację czaszki, a następnie wszczepia się albo do kory mózgowej albo umieszcza na jej powierzchni elektrody po to, żeby uzyskać lepszej jakości sygnał. To rodzi jednak dylematy etyczne. Problem polega na tym, że instalując czipy na powierzchni kory mózgowej bądź bezpośrednio w korze, dajemy bezpośredni interfejs do tego, żeby wysyłać bodźce temu człowiekowi. Pytanie, co się stanie, jeśli ktoś przechwyci sterowanie? Łatwo przechwycić sterowanie komputerem, więc łatwo można przechwycić także sterowanie nad … człowiekiem. Tradycyjny Headset można zdjąć, nie oddziałujemy w żaden sposób, nie mamy trwałej pętli sprzężenia zwrotnego, poza tym przez niego nie można stymulować komórek nerwowych w sposób bezpośredni. W interfejsach inwazyjnych jest taka możliwość. Takie interfejsy testowano np. na gryzoniach, żeby sprawdzić czy można nimi kierować. To jednak nie ma nic wspólnego z etyką. My tego nie robimy.

Co w sytuacji zhakowania połączenia w interfejsie inwazyjnym?
To rodzi znaczący problem. Umożliwia w pewnym zakresie „sterowanie” człowiekiem, po drugie mamy wpływ na urządzenia w jego otoczeniu.
Jaka była geneza powstania interfejsu mózg-komputer?
W świecie nauki nikt nie lubi nudy. Naukowcy lubią wymyślać kolejne metody, w tym zakresie interfejsów człowiek-maszyna. Jednym z nich jest interfejs optyczny wykorzystujący elektronystagmografię, w ramach której nalewamy do uszu pewną ilość cieczy i mierzymy potencjały wokół oczodołów. Za pomocą tych potencjałów jesteśmy w stanie sterować obiektem. Ta metoda jest jednak mało funkcjonalna. Oprócz tego występują interfejsy wideo, które działają w oparciu o identyfikację ruchu gałki ocznej. W połączniu mózg-komputer chodziło o to, żeby mieć możliwość zebrania pewnego sygnału z powierzchni głowy. W mojej opinii pierwotnie nie było żadnych przesłanek, żeby to rozwiązanie było kierowane dla określonej grupy osób. Technologia ta powstała na bazie odkrycia elektroencefalografu. Początkowo badania elektroencefalograficzne były wykorzystywana tylko w zakresie medycznym: za pomocą pisaków atramentowych urządzenie kreśliło przebiegi fal elektroencefalograficznych i tylko lekarz potrafił je zidentyfikować. Gdy pojawiła się postać cyfrowa zapisu EEG, można to było wykorzystać w innych dziedzinach. Dzięki sztucznej inteligencji klasyfikatory mogą zidentyfikować zmiany w sygnale EEG online. Z bardzo małym opóźnieniem jesteśmy w stanie to przełożyć na obiekt wykonawczy, czyli na coś co jeździ, lata lub wykonuje inne czynności. Warto jednak wspomnieć, iż EEG to nie jedyna metoda akwizycji sygnałów z mózgu używana w BCI.
Czyli mrugnięcie okiem, żeby zasłonić rolety lub włączyć telewizor to już nie jest nic nadzwyczajnego?
Nie, ale to jest pójście na łatwiznę. Najciekawsze w tej technologii jest to, żeby wygenerować taką myśl – impuls adekwatny do danej czynności, bez konieczności dodatkowej stymulacji czyli bez faktycznego zamykania oka, zaciskania zębów, podnoszenia brwi, ruchu ręką. W praktyce wygląda to tak, iż najpierw myślimy o tym, że mamy przykładowo dokonać ruchu ręką, żeby np. uruchomić opuszczanie rolet. Wtedy impuls jest przesyłany do mięśnia efektorowego. Natomiast bazując na mimice twarzy po fizycznym zamknięciu oka, jesteśmy w stanie sczytać informacje z sygnału elektroencefalograficznego na tych konkretnych elektrodach pod którymi nastąpiło zakłócenie, czyli artefakt wynikający z zamknięcia oka, sklasyfikować go za pomocą np. sieci neuronowej po to, aby następnie móc dać to jako impuls do sterownika, który w instalacji domu inteligentnego opuści rolety.
Natomiast najtrudniej jest tak wyćwiczyć swój mózg, aby móc generować sygnały w czasie rzeczywistym, które w żaden sposób nie są związane z otoczeniem, po to, by móc wprawić w ruch dany obiekt. W ostatnim roku kierowałem projektem finansowanym przez Narodowe Centrum Nauki, gdzie zajmowałem się badaniem pilotażowym w zakresie wykorzystania systemu do generowania potencjałów w zakresie wyobrażenia ruchu. Chodzi o to, że wyobrażamy sobie ruch ręką, którego nie wykonujemy, po to, żeby móc go potem wykorzystać do sterowania chociażby neuroprotezą.
Udowodniliśmy, że badany nie ruszył ręką, a powstał impuls identyczny z tym, gdyby ruszył ręką. To, że można oszukać mózg, udowadniają także nasi naukowcy zajmujący się wykorzystaniem wirtualnej rzeczywistości w rehabilitacji. Podczas ostatniej z konferencji IC BCI Opole, wspominał o tym prof. Jan Szczegielniak. Wirtualna rzeczywistość przekłada się na pracę mózgu. Warto także podkreślić, że można nie tylko oszukać mózg, ale także poprawić jego pracę. W Polsce mamy takie przedmioty jak wychowanie fizyczne, które stymuluje nas fizycznie. Szkoda, że nie ma jednak przedmiotów, kursów, które stymulują nas z punktu widzenia typowo kognitywnego.
Do czego jeszcze wykorzystywany jest interfejs mózg-komputer?Neuromarketingowcy wykorzystują tę technologię do tego, aby sprawdzić, jak postrzegamy daną markę. Na swojej drodze naukowej, przy jednym z projektów badawczych spotkałem prof. Rafała Ohme, który jest jednym z prekursorów neuromarketingu w Polsce, który sprawdzał dlaczego tak a nie inaczej postrzegamy dane marki. Dlaczego jedna marka samochodowa kojarzy nam się jako bardziej luksusowa a inna już nie. Dzięki interfejsom BCI mamy możliwość w bezpośredni sposób sczytać nie bezpośrednio myśli, a sygnały elektroencefalograficzne, które są odzwierciedleniem tego jak pobudzone są elementy naszej kory mózgowej odpowiedzialne za to, jak postrzegamy dany produkt i co na to wpływa. Nie musimy robić ankiety, zresztą uczestnik ankiety może oszukać.
Należąca do Elona Muska firma Neuralink pracuje nad chipem, który umieszczony wewnątrz ludzkiej czaszki stymulowałby pracę mózgu. Pojawiają się głosy, że ta technologia pozwoli np. na osiągnięcie muzycznych umiejętności na poziomie Mozarta lub całkowite przekształcenie osobowości. Brzmi to jak science-fiction.
Rzeczywiście, myślę, że to jest obecnie na etapie science-fiction – osiągnięcia tym sposobem umiejętności muzycznych na poziomie Mozarta. Nie jesteśmy w stanie takiej rewolucji zrobić obecnie, abstrahując od tego, że pod względem bioetycznym jest to nie do końca akceptowalne w świecie nauki. Może to być problem tak samo jak rozszerzona rzeczywistość (AR) od Googla, która miała zostać upowszechniona już kilka lat temu. Mam na myśli projekcje obrazu na szkle okularów, które identyfikowałby napotkane osoby i sczytywałyby ich historie z mediów społecznościowych. Powyższe sprowadzało się także do realizacji okularów, które wyświetlałyby nam przykładowo treść naszego wystąpienia. Nikt tego nie widzi, tylko my. Takie rozwiązanie w zasadzie uniemożliwiłoby egzekwowanie wiedzy. Tak samo jak przekaźnictwo kostne w oprawkach wyżej wspomnianych okularów. Ktoś mógł do nas mówić, a nikt inny tego nie słyszał. Na szczęście nie wdrożono tego rozwiązania z dostępem dla każdego klienta.