Możliwość odczytywania myśli, szczególnie dzisiaj, gdy czujemy się nieustannie śledzeni przez algorytmy, wywołuje automatycznie uczucie zagrożenia. Czy jest się czego bać?
W internecie pojawiły się ostatnio sensacyjne nagłówki: Mark Zuckerberg może czytać w twoich myślach! Facebook i Meta mają skuteczną metodę czytania myśli!
Brzmi to dość przerażająco. Sfera myśli jest najbardziej intymną częścią naszego świata. W ostatnich latach jesteśmy zaś bombardowani doniesieniami sugerującymi, że już zaraz, już za chwilę, ostatnia bariera naszej prywatności zostanie zniesiona przez któreś z coraz mniej dla nas zrozumiałych urządzeń, powstających gdzieś w Dolinie Krzemowej.
Tym razem chodzi o algorytm opracowany przez Meta, firmę Marka Zuckerberga, która oprócz prowadzenia Facebooka i Instagrama zajmuje się też intensywnie rozwojem metod sztucznej inteligencji, a od jakiegoś czasu zaś interesuje się także – być może pod presją działań Elona Muska w tym obszarze – zastosowaniem tych metod do interpretacji aktywności mózgu.
Algorytm nazywa się Brain2Qwerty i został opisany w publikacji pod nie aż tak wiele mówiącym tytułem Brain-to-Text Decoding: A Non-invasive Approach via Typing (Dekodowanie pracy mózgu na tekst: Nieinwazyjne podejście oparte o pisanie). Wynik tego eksperymentu Mety, choć ciekawy, nie ma nic wspólnego z czytaniem w myślach.
Przede wszystkim jednak, choć maszyna do czytania w myślach brzmi złowrogo, urządzenia mające na celu odczytywanie i interpretację sygnałów pochodzących z mózgu, a następnie wykorzystywanie ich do kontroli np. urządzeń zewnętrznych są opracowywane już od dziesiątek lat. I mogą zmienić życie wielu ludzi na lepsze.
Zasada działań interfejsów mózg-komputer (bo taka jest ich formalna nazwa) jest zazwyczaj następująca: za pomocą różnego typu urządzeń odczytujemy aktywność mózgu badanej osoby, a następnie, za pomocą specjalnych algorytmów, zazwyczaj opartych o metody sztucznej inteligencji, interpretujemy je i wykorzystujemy do kontrolowania jakiegoś zewnętrznego urządzenia – na przykład kursora na ekranie komputera, jak w niedawnych próbach Neuralinka, firmy Elona Muska zajmującej się rozwojem tych metod.
Najczęściej deklarowaną motywacją ich zastosowania jest pomoc osobom dotkniętym utratą kończyn. Protezy kontrolowane za pomocą myśli mogłyby przywrócić sprawność ludziom, którzy obecnie skazani są na niedoskonałe i umiarkowanie precyzyjne rozwiązania. Być może jeszcze większą rewolucją byłoby umożliwienie osobom całkowicie sparaliżowanym komunikacji ze światem zewnętrznym.
Ale to oczywiście nie wszystko. Celem firmy Neuralink jest też usprawnienie codziennego życia wszystkich ludzi. Wiele osób pracujących nad interfejsami mózg-komputer sugeruje, że moglibyśmy za ich pomocą kontrolować urządzenia, przeglądać internet, robić zakupy bez konieczności ruszania się z miejsca.
Neuralink idzie zresztą dalej: Musk zapowiada możliwość telepatii, czyli komunikowania się między ludźmi wyłącznie za pomocą myśli.
Metody budowy podobnych urządzeń są różne. Sam Neuralink używa do pomiaru aktywności mózgu elektrod zaimplantowanych wewnątrz mózgu, które są wszczepiane pacjentom w trakcie skomplikowanej operacji. Elektrody takie zapewniają możliwość precyzyjnego nagrywania aktywności neuronów na niewielkim obszarze mózgu.
Precyzja ta jest dużą zaletą, wadę stanowi jednak inwazyjność metody. Operacje mogą łączyć się z ryzykiem krwotoków, a same elektrody z czasem mogą przestać działać ze względu na reakcję komórek glejowych mózgu, które traktują elektrodę jako ciało obce i pokrywają ją specjalną warstwą, która izoluje ją od otoczenia.
Badacze z Mety wykorzystali inną metodę, nazywaną magnetoencefalografią (MEG). Umożliwia ona nieinwazyjne obrazowanie pracy mózgu przez mierzenie pola magnetycznego wytwarzanego przez aktywność elektryczną neuronów.
Jest to metoda zupełnie bezinwazyjna – badanych umieszcza się w skanerze, który wygląda nieco jak suszarka do włosów w salonie fryzjerskim. Ma jednak zasadniczą wadę w porównaniu do implantowanych elektrod – jest bardzo zgrubna. O ile elektrody umożliwiają analizę pracy pojedynczych komórek nerwowych, o tyle MEG daje nam jedynie ogólny obraz pracy mózgu, jest ograniczony do obszarów znajdujących się blisko kości czaszki, wykazuje się też dużą podatnością na rozmaite zakłócenia, w tym – ruchy osób badanych.
U niektórych badanych Meta połączyła MEG z EEG (elektroencefalografią), klasyczną i tanią metodą badania pracy mózgu, która ma jednak dość podobne ograniczenia. Rozumowanie za tym wyborem było jednak jasne: nie jesteśmy obecnie w stanie wszczepiać elektrod każdej osobie, są one ponadto drogie, a zabieg jest inwazyjny.
Pytanie brzmiało: jak dobrze jesteśmy w stanie wykrywać i interpretować aktywność mózgu za pomocą prostszych metod?
Eksperyment wyglądał następująco. Badanym, umieszczonym w skanerach MEG, wyświetlano na ekranie zdania. Po wyświetleniu odpowiedniego sygnału mieli za zadanie przepisać je na klawiaturze QWERTY. Badacze wykorzystali aktywność mózgu w trakcie pisania zdań do wytrenowania modelu sztucznej inteligencji – jego zadaniem było przewidzenie, co badani pisali na podstawie sygnału z mózgu.
Tu rzuca nam się w oczy pierwszy istotny szczegół. Algorytm nie interpretował tego, co badani myśleli. Jego zadaniem było wykrycie, co pisali na klawiaturze –
nie jest to zatem absolutnie żadna maszyna do czytania w myślach. Pozwala nam ona zgadnąć, co człowiek robi, a nie to, o czym myśli.
Tym bardziej że wedle dalszych analiz okazało się, że algorytm wykorzystuje przede wszystkim aktywność ruchowych obszarów mózgu do interpretacji sygnału.
Badacze sprawdzili, jakie litery pisane na klawiaturze najczęściej się algorytmowi mylą – okazało się, że były to klawisze znajdujące się blisko siebie na klawiaturze. Naciśnięcie Q lub W jest związane z bardzo zbliżonym ruchem; aktywność obszarów ruchowych mózgu będzie więc w obu przypadkach zbliżona – a tym samym trudniejsza do rozróżnienia.
Znów więc widzimy, że mamy do czynienia z algorytmem, który z aktywności mózgu odczytuje działanie, a nie myśli.
Ciekawym eksperymentem byłoby sprawdzenie, czy algorytm radzi sobie w sytuacji, w której badani jedynie wyobrażają sobie pisanie na klawiaturze. Wiemy, że wyobrażone ruchy również aktywują obszary ruchowe – zostało to zresztą wykorzystane w badaniach nad osobami sparaliżowanymi, które w skanerze miały wyobrażać sobie np. grę w tenisa. Prawdopodobne jest, że w przypadku tak precyzyjnych ruchów, jak pisanie na klawiaturze, aktywność ta nie byłaby wystarczająca.
Ale to nie koniec. Algorytm został wytrenowany w bardzo specyficznych warunkach. Wszyscy badani siedzieli w laboratorium, w skanerze i w ściśle określonej pozycji. Nie wiadomo, jak urządzenie poradziłoby sobie z interpretacją sygnałów uzyskanych w innym miejscu albo choćby w innej pozycji ciała.
Z badań nad gryzoniami wiemy, że aktywność mózgu może dramatycznie różnić się w zależności od kontekstu – nawet podstawowa interpretacja bodźców wzrokowych przez mózg wygląda inaczej, gdy zwierzę np. się porusza. Na aktywność mózgu będzie wpływał też stan naszego organizmu, pora dnia i wiele innych czynników. Nadal nie do końca wiemy, czy model wytrenowany w jednych warunkach poradzi sobie w innych.
Jest to nadal bardzo ciekawe osiągnięcie – MEG czy EEG to bardzo zgrubne metody i pokazanie, że nawet za ich pomocą możemy stworzyć sprawnie funkcjonujący interfejs mózg-komputer może sporo wnieść. Ale nie jest to nadal nawet bliskie odczytywaniu myśli.
To, jak wspomniałem, nie pierwszy raz, gdy widzimy informacje o „czytaniu w myślach”. W 2023 roku pojawiły się sensacyjne nagłówki i doniesienia na social mediach, twierdzące, że naukowcom i naukowczyniom z École Polytechnique Fédérale de Lausanne udało się przewidzieć, co mysz widzi w oparciu o aktywność jej mózgu. Załączone filmiki wyglądały spektakularnie – pokazywały nieco poszatkowaną, ale mimo wszystko spójną rekonstrukcję czarnobiałego filmu, który był w tym samym czasie wyświetlany myszy na ekranie.
Można było odnieść wrażenie, że algorytm rekonstruował oglądany obraz piksel po pikselu na podstawie sygnału z mózgu. Nic z tych rzeczy.
Jak wyglądał ten eksperyment?
Myszy, której praca mózgu była obrazowana za pomocą mikroskopu lub elektrod, puszczano wielokrotnie ten sam film. Następnie wytrenowano algorytm, który próbował przewidzieć, która klatka filmu odpowiada jakiemu wzorcowi aktywności mózgu. Nie chodziło zatem w ogóle o odtworzenie obrazu z aktywności mózgu, a jedynie przewidzenie, która klatka filmu jest obecnie pokazywana – algorytm wskazywał, że takiej a takiej aktywności odpowiada na przykład klatka numer 345.
Jest to oczywiście nadal bardzo interesujące, ale nijak się ma do odczytywania obrazów z aktywności mózgu. Podobnie jest w przypadku bardzo wielu interfejsów mózg-komputer. Ich wynik jest oparty o dane wytrenowane na bardzo konkretnym zbiorze danych.
Możliwość odczytywania myśli z aktywności mózgu jest ciągle bardzo daleko przed nami; wiele badaczek i badaczy uważa zresztą, że w takiej formie, jaką wyobrażamy sobie ją powszechnie, może nie być możliwa nigdy. Musielibyśmy najprawdopodobniej obserwować sygnał jednocześnie z bardzo wielu obszarów mózgu, a model musiałby być trenowany w bardzo wielu okolicznościach, różnych stanach i różnych kontekstach. Jest to – przynajmniej obecnie – nieosiągalne technicznie.
W tym wszystkim szczególnie ciekawy jest jednak dobór clickbaitowych tytułów tekstów poświęconych badaniu Mety. Można by oczywiście założyć, że jest to po prostu zwykłe podkręcanie wyników badań tak, by brzmiały bardziej spektakularnie i interesująco.
Ale wydaje mi się, że stoi za tym coś więcej – clickbait żywi się bowiem lękiem, a możliwość odczytywania myśli, szczególnie dzisiaj, gdy czujemy się nieustannie śledzeni przez algorytmy, wywołuje automatycznie uczucie zagrożenia i uruchamia skojarzenia z panoptykonem. Tym bardziej że nagłówki wyraźnie podkreślają, w czyich rękach znajduje się owo narzędzie – co w świetle ostatnich wydarzeń w Stanach, gdzie właściciele wielkich firm technologicznych oddają hołd lenny władzy – czyni te wiadomości szczególne złowrogimi.
To odwraca jednak naszą uwagę od prawdziwych zagrożeń. Firmy technologiczne są w stanie zebrać o nas ogromną ilość informacji i nie potrzebują kosztownych skanerów czy implantowanych elektrod, żeby dowiedzieć się, co lubimy, czego się boimy i jakie mamy zamiary.
I to na tym problemie powinniśmy się skupić – choć i w przypadku badań nad interfejsami mózg-komputer patrzenie wielkim koncernom na ręce nigdy nie zawadzi.
Neurobiolog w Uniwersytecie w Heidelbergu, zajmuje się ewolucją układu nerwowego i zachowaniami społecznymi zwierząt. Prowadzi na Instagramie popularnonaukowe konto Książki, mózgi i lasery.
Neurobiolog w Uniwersytecie w Heidelbergu, zajmuje się ewolucją układu nerwowego i zachowaniami społecznymi zwierząt. Prowadzi na Instagramie popularnonaukowe konto Książki, mózgi i lasery.
Komentarze