0:00
0:00

0:00

Prawa autorskie: Ilustracja: Weronika SyrkowskaIlustracja: Weronika...

Empatia maszyny

Katarzyna Sroczyńska, OKO.press: 80 procent osób, które rozmawiały z chatem GPT o swoim zdrowiu psychicznym, uznało ten kontakt za dobrą alternatywę dla terapii. Czy chatbot może zostać terapeutą?

Cveta Dimitrova: To zależy przede wszystkim od tego, jak definiujemy terapię i co tak naprawdę w psychoterapii jest czynnikiem, który sprawia, że ta metoda pomaga, bo na to, że jest skuteczna, mamy dowody.

Żeby rozstrzygnąć, czy chatbot może zostać psychoterapeutą, musielibyśmy bardziej się skupić na rozumieniu tego, czym jest proces terapeutyczny i czy to jest do odtworzenia w relacji ze sztuczną inteligencją. I tutaj pojawiają się komplikacje, bo istnieją różne nurty i podejścia w psychoterapii.

Ale na Twoje pytanie odpowiedziałabym: nie, przynajmniej na obecnym poziomie zaawansowania technologicznego chatbot nie może zostać terapeutą, ale może świadczyć usługi psychoterapeutyczne. To niby subtelna różnica, ale z mojego punktu widzenia znacząca.

Bo chatboty mogą mieć zdolność do korzystania z różnych technik stosowanych w psychoterapii, najczęściej poznawczo-behawioralnej. To jedna kwestia. A druga dotyczy komponenty relacyjnej, czyli tego, co się wiąże z budowaniem zaufania, empatii, więzi, bycia rozumianym. I nawet na obecnym etapie, czyli przy niespecjalnie zaawansowanej technologii, ludzie mają subiektywne odczucie, że kontakt z chatbotami im pomaga i że czują się potraktowani z empatią. Choć wiedzą oczywiście, że mają do czynienia z maszyną.

Ale i tak czują się nie tylko rozumiani, ale i lubiani, tak wynika z sondażu przeprowadzonego wśród użytkowników Woebota, chatbota stworzonego z myślą o wspieraniu zdrowia psychicznego.

Chatboty przygotowane stricte pod kątem pomocy w obszarze zdrowia psychicznego nie działają na razie w oparciu o skomplikowane systemy, jak duże modele językowe, choćby chat GPT, który ma większą zdolność do budowania kontekstu w trakcie rozmowy. Ale i Woebot oraz podobne chatboty potrafią tak prowadzić rozmowę, że ludzie mają poczucie kontaktu interpersonalnego. Tworzy się więc coś, co jest czymś więcej niż na przykład stosowanie jakiejś techniki przy korzystaniu z książki. Znam dane, z których wynika, że jeden na czterech Amerykanów o swoich problemach chętniej porozmawia z chatbotem niż specjalistą zdrowia psychicznego.

Czy subiektywne odczucie, niezależnie od tego, co je generuje, nie jest skuteczną formą oddziaływania i leczenia? Ja myślę, że w terapii uruchamiane są głębsze procesy, które w kontakcie z technologią na dzisiejszym etapie rozwoju nie powstają. Ale ludzie mogą mieć poczucie korzyści, zwłaszcza jeśli nie borykają się z jakimś pogłębionym, długotrwałym problemem. Te aplikacje mogą pomóc odzyskać samosterowność i służyć jako rodzaj regulatora emocjonalnego.

Ponad jedna trzecia osób korzystających przez około pięć miesięcy z aplikacji EarKick deklaruje poprawę nastroju i zmniejszenie poziomu lęku.

Są różne badania i statystyki, ale konkluzja zwykle jest taka, że większość osób odczuwa korzyści płynące z tego typu relacji i interakcji. Trzeba by jednak rozróżnić między sondażami a badaniami empirycznymi, wziąć pod uwagę to, jak mierzono spadek objawów. I pamiętać, że przynajmniej część z tych badań jest prowadzona w kolaboracji z instytucjami, które tworzą te systemy pomocowe, aplikacje czy chatboty.

Skoro jednak dużo ludzi raportuje, że ma z tego korzyść, pojawia się pytanie, czy jest grupa, która faktycznie może skutecznie sięgać po taką pomoc oraz taka, która absolutnie nie powinna tego robić. I kolejne: w jakim stopniu tego typu programy są w stanie ocenić, czy potencjalny odbiorca należy do pierwszej, czy do drugiej grupy.

Łatwy dostęp do tego typu pomocy i jej niska cena przemawiają za tym, żeby rozwijać takie technologie, zwłaszcza że borykamy się z kryzysem zdrowia psychicznego. Nowe rozwiązania mogą dodatkowo odciążać system służby zdrowia. Na przykład w psychiatrii gromadzone są ogromne bazy danych i gdyby algorytm mógł szybko je analizować i identyfikować osoby wymagające szybkiej interwencji, podpowiadać, w jakim kierunku ktoś powinien być diagnozowany, ostrzegać, czy istnieje jakieś ryzyko, czy zagrożenie zdrowia i życia, ułatwiłoby to działanie instytucji, które mają za mało personelu.

Pułapki samodiagnozy

Analiza ogromnej biblioteki danych to właśnie to, co sztuczna inteligencja potrafi zrobić lepiej i szybciej niż my. Ale co z bezpieczeństwem tego typu danych?

Rzeczywiście, są to szczególnie wrażliwe dane, a w wypadku chatbotów wspomagających zdrowie psychiczne mówimy o prywatnych firmach, które mają na nich zarabiać. To jedna rzecz.

Druga to kwestia braku doskonałości tego systemu. Opracowywany na Uniwersytecie Kalifornijskim program z wykorzystaniem AI na podstawie obrazu wideo i głosu jest w stanie wychwycić np. sygnały tego, że ktoś osuwa się w stronę depresji i odpowiednio zainterweniować. Pytanie, do kogo to zostanie zgłoszone, kto będzie podmiotem interwencji i czy zawsze można jej ufać.

Zdarzały się na przykład takie sytuacje, że osoby cierpiące na zaburzenia odżywiania dostawały od chatbotów porady dotyczące odchudzania się i zdrowego jedzenia, czyli nieadekwatne. Można co prawda zakładać, że przy takim rozwoju technologicznym to są problemy, które będą stopniowo eliminowane.

Ale jest jeszcze trzecia sprawa związana z diagnozowaniem. Psychoterapeuci posługują się siecią odniesień, konceptualizacji czy teorii, które pomagają im diagnozować pacjenta i według tego pracować z nim w określonym kierunku. Ale żadna osoba nie jest redukowalna do jednoznacznej diagnozy. Trudno sobie wyobrazić szerokie myślenie o człowieku na podstawie jakiejś konkretnej liczby czynników, tym bardziej symptomów.

Myślenie w kategoriach diagnostycznych, poza tym, że ma swoje dobre strony, zaczyna się wiązać ze społecznym niebezpieczeństwem. Ludzie szukają konkretu, nazwy, etykiety, to prawda. Ale nie wiem, czemu miałoby właściwie służyć zaawansowane oprogramowanie do samodiagnozowania. W jaki sposób miałoby pomagać lepiej sobie radzić w życiu, sprawniej nawiązywać relacje czy przynosić ulgę w cierpieniu.

Wystarczy wejść na Instagram i znajdziemy mnóstwo kont, które pozwalają zdiagnozować u siebie np. ADHD w dorosłym wieku, a następnie codziennie udzielają kilku czy kilkunastu porad i tak mogą kogoś prowadzić przez kolejne tygodnie i miesiące. Rozumiem, że Ty stawiasz znak zapytania: po co to jest i czy to na pewno pomaga.

To jest analogiczne w pewnym sensie do sytuacji ze sztuczną inteligencją: komputer może błyskawicznie przeanalizować ogromną ilość danych, czego my nie jesteśmy w stanie zrobić.

Tak samo można tu myśleć o korzyściach psychoedukacyjnych – płynących z dostępu do wiedzy o różnych trudnościach i problemach.

Z drugiej strony mam wrażenie, że diagnozowanie staje się dzisiaj źródłem poczucia tożsamości i autodefinicji. Uważam, że to jest właśnie przeciwskuteczne, antyterapeutyczne. Że to, paradoksalnie, wcale nie pomaga tak bardzo w rozumieniu siebie i tego, kim jestem dla innych.

Podobnie można zapytać, czy budując więź ze sztuczną inteligencją, uczymy się, oswajamy zdolność do budowania pogłębionych relacji, które tak naprawdę są kamieniem milowym zdrowia psychicznego. Czy wręcz przeciwnie – utwierdzamy się w przekonaniu, że łatwiej jest ograniczyć się do kontaktu z AI niż korzystać z sieci społecznej. Jedną z rzeczy, którą użytkownicy chatbotów zgłaszają jako korzystną, jest to, że odsłonięcie się przed czymś takim nie jest tak trudne, jak przed drugą osobą. Dużo łatwiej na przykład zwierzyć się z problemu chatowi, który jest miły, sympatyczny i nieoceniający, niż innemu człowiekowi. Tylko czy wtedy faktycznie uczymy się czerpać z relacji z drugą osobą i przezwyciężać lęk? Czy też raczej utwierdzamy w przekonaniu, że tak naprawdę to jest jedyny sposób na mówienie o swoich kłopotach, a więc że zdrowie psychiczne jest tak wstydliwe i problematyczne, że musimy się nim zająć w zaciszu własnego chatbota, a nie na poziomie społecznym?

Przeczytaj także:

Technologia zamiast wspólnoty

Kiedy mówimy o problemach zdrowia psychicznego, to często koncentrujemy się na społeczeństwach podobnych do naszego: zachodnich, dość zamożnych. Tyle że ogromny problem z dostępnością opieki psychiatrycznej i pomocy w zakresie zdrowia psychicznego istnieje w państwach, które nie radzą sobie z zapewnieniem swoim obywatelom opieki medycznej. Szuka się rozmaitych sposobów, by im pomóc, na przykład indyjski psychiatra Vikram Patel uczy pracowników opieki społecznej wczesnej interwencji psychologicznej. To są proste sprawy, których można nauczyć podczas dwudniowego kursu. Czy w takich sytuacjach chatboty nie mogłyby pomagać w pracy pielęgniarkom środowiskowym albo pracownicom i pracownikom opieki społecznej?

Mogłyby, i to na różnych poziomach. Mogłyby na przykład spełniać funkcje psychoedukacyjne, bo dostęp do tej sfery jest również ograniczony. Jeżeli zadaję konkretne pytania i dostaję na nie odpowiedź, to jest zupełnie inny rodzaj interakcji niż przeszukiwanie podręcznika. Wyobrażam też sobie, że na przykład dla osób, które mają trudność z nazywaniem własnych uczuć, AI może być pomocą w uczeniu się rozpoznawania swoich stanów wewnętrznych. Istnieją aplikacje do medytacji, skanowania ciała czy ćwiczeń relaksacyjnych – to są wszystko dobre narzędzia.

Tyle że innym poziomem interwencji jest psychoedukacja czy radzenie sobie z przejściowymi zaburzeniami nastroju czy trudnościami życiowymi, które są wpisane w nasze doświadczenie, a czym innym leczenie poważnych zaburzeń psychicznych. Wygląda na to, że społeczeństwa globalnej Północy coraz bardziej się osuwają z neurotycznych konfliktów charakterystycznych dla przełomu XIX i XX wieku w stronę deficytów i problemów osobowościowych.

Oczywiście, można myśleć o tym, z czego to wynika; czy nauczyliśmy się tak myśleć o sobie w kontekście różnych zmian społecznych, czy po prostu społeczeństwo w taki sposób ewoluuje, że jest z nami coraz gorzej. Jestem skłonna raczej uważać, że przyczyniają się do tego zmiany społeczne, a jednym z fundamentalnych czynników jest tu rozpad więzi na różnych etapach, także na poziomie organizowania się wokół różnego rodzaju wspólnot. Rozpadają się wspólnoty religijne, sąsiedzkie, polityczne, rodzinne. I tutaj pojawia się pytanie, na ile aplikowanie technologii, które są odpowiedzią na to, co się dzieje w naszym atomizującym się świecie, w innych kulturach jest adekwatne? Chociaż wiem, że na przykład w Kenii przy depresji poporodowej stosowano tego typu pomoc i nie mogę powiedzieć, że jest w tym cokolwiek złego.

Stajemy przed jeszcze jednym problemem, który wcale nie jest natury ani technologicznej, ani terapeutycznej nawet, tylko etyczno-społeczno-politycznej. To pytanie o to, jak chcemy ewoluować jako społeczeństwo.

Czy rzeczywiście chcemy, żeby odpowiedzią na nasze problemy było sztucznie wytwarzane w nas poczucie, że jesteśmy lubiani i rozumiani przez kogoś, kto tak naprawdę nie istnieje? To jest problematyczne.

Czy ma znaczenie to, że chociaż czujemy się rozumiani, to tak naprawdę nie jesteśmy, bo źródłem tego poczucia jest maszyna? Czy jest inaczej, kiedy czerpiemy tego typu poczucie z relacji z inną osobą?

Czy można stworzyć więź z AI

Rozumiem, że to także pytanie o to, czemu ma służyć psychoterapia. Czy chodzi o dobrostan rozumiany w ten sposób, że będzie mi przyjemnie i że to poczucie staje się moim celem w każdej chwili. Czy może o to, że mam więcej zasobów, energii i siły do radzenia sobie z różnymi życiowymi sytuacjami.

Bardzo się z tym zgadzam i wydaje mi się, że akurat właśnie to jest jedno z większych ograniczeń technologii, o których rozmawiamy. Terapeuta, który ma własną osobowość i temperament, ale jest też wyszkolony, czujny i używa wszystkich swoich kompetencji, w tym interpersonalnych, jest w stanie balansować – co jest kluczowe w psychoterapii – pomiędzy dostarczaniem z jednej strony odpowiedniego wsparcia, ale z drugiej – konfrontowaniem.

Wie, ile pogłaskać, a na ile sfrustrować.

Trochę tak, ale nawet nie chodzi o głaskanie, tylko o to, żeby wytworzyć taki rodzaj porozumienia pomiędzy pacjentem a terapeutą, w którym pewne trudne treści są do przyjęcia dla pacjenta, i dlatego są dla niego rozwojowe. Do tego potrzebne jest wsparcie, czucie się rozumianym i empatia. Jeżeli czujemy się atakowani czy zagrożeni, to automatycznie się zamykamy. I wydaje mi się, że ten etap budowania więzi przez chatboty jest dobrze rozwiązany. Ale z drugiej strony

niektórzy użytkownicy chatbotów już deklarują, że ich relacje społeczne ucierpiały na tym, jaki status zyskały w ich świecie nowe technologie.

I tutaj dotykamy kwestii fundamentalnej: czym w ogóle jest więź i czy można ją wytworzyć z AI? I przede wszystkim jak to się ma do budowania poczucia zaufania.

Dlaczego więź jest tak ważna w terapii?

Nie tylko w terapii, ale w ogóle w ludzkim świecie. Jest ważna we wszelkich procesach rozwojowych i budowaniu podstawowego poczucia bezpieczeństwa. Kwestia więzi i bezpieczeństwa jest kluczowa dla umiejętności mentalizowania, czyli rozpoznawania własnych stanów mentalnych w kontekście intencji, chęci, pragnień, uczuć i tak dalej, jak i stanów mentalnych innych osób. Jest to też problem z zakresu teorii umysłu. Im wyższy poziom zaburzenia psychicznego, tym bardziej zakłócona jest zdolność do mentalizowania. Badaniem tych zależności zajmują się Peter Fonagy i jego zespół w Anna Freud Center. Z ich pracy wynika, że kluczowym warunkiem wykształcenia umiejętności mentalizowania jest właśnie więź, która wytwarza się na wczesnym etapie rozwoju. Mówiąc bardzo ogólnie, jeśli ktoś ma na przykład traumatyczne czy krzywdzące doświadczenia, może w sposób zniekształcony interpretować intencje, zachowania i stany umysłu innych osób, na przykład przypisywać im wrogość.

W ten sposób nakręca się spirala podtrzymywania zniekształconego obrazu rzeczywistości i siebie, co wiąże się z pogorszonym nastrojem czy niemożnością czerpania ukojenia od drugiej osoby.

Zaufać chatbotowi

Peter Fonagy mówi też o zaufaniu epistemicznym. Co to jest?

To jest właśnie coś, co się wytwarza w relacji, kiedy, mówiąc szerzej, opiekun dziecka reaguje na jego stany wewnętrzne, mentalne w taki sposób, że je nazywa albo daje sygnał, że je czyta. Można powiedzieć, że odzwierciedla stan umysłu drugiej osoby, dziecka – to po pierwsze. A po drugie robi to tak, że pokazuje różnice między własnym stanem a stanem tego dziecka.

W mentalizacji nie chodzi o to, że ktoś poddaje stany umysłu głębokiemu namysłowi, ale że potrafi ich doświadczać w taki sposób, że umie o nich pomyśleć, mieć jakiś rodzaj meta refleksji na temat tego, co się z nim dzieje. To jest coś, czego się uczymy w relacjach z innymi, a nie sami.

Zaufanie epistemiczne to jest w gruncie rzeczy zaufanie do tego, że inni ludzie są dla mnie źródłem wiarygodnych komunikatów. Nie w sensie informacyjnym czy poznawczym, tylko że na przykład mają wobec mnie dobre zamiary czy intencje. Kiedy dziecko uczy się świata, musi uogólniać swoje doświadczenia relacyjne, żeby móc przewidywać. Jeżeli jego zaufanie epistemiczne zostało zakłócone czy nadszarpnięte w wyniku tego, że na przykład rodzic był nadużywający czy przekraczający granice, to możne je próbować odbudować w terapii. Rodzi się pytanie, czy maszyna lub jakikolwiek program jest w stanie je przywracać, czyli w gruncie rzeczy, czy my w kontakcie z maszyną możemy się tego uczyć.

Na Cornell University badano chat GPT pod kątem teorii umysłu i oceniono, że jego zdolności są na poziomie dziewięciolatka.

Całkiem nieźle, zważywszy na to, że będzie się pewnie dalej rozwijał. Można sobie wyobrażać scenariusz, w którym sztuczna inteligencja zyska świadomość. Z punktu widzenia teorii psychoanalitycznej pojawia się pytanie, czy może mieć również nieświadomość i jak to się ma do doświadczenia relacyjnego. Dla mnie ważne w tym kontekście jest pytanie o to, czym jest czucie się rozumianym, kochanym, przyjętym, akceptowanym, jeżeli dostajemy komunikaty o tym, że tak się dzieje, od czegoś, o czym nie wiemy, czy faktycznie czuje. Może to nie ma znaczenia, może istotne jest to, że my tak czujemy.

I tu właśnie chodzi o to zaufanie epistemiczne. Jaki rodzaj więzi musi tego typu maszyna zbudować, żeby umysł osoby, której zaufanie epistemiczne zostało nadszarpnięte, zaczął znowu czerpać ze świata? To właśnie, a nie takie czy inne podejście teoretyczne, jest fundamentem psychoterapii. Czynnikiem leczącym jest relacja terapeutyczna, kluczowa składowa w przymierzu terapeutycznym.

Czym jest przymierze w sensie terapeutycznym?

To jest przede wszystkim współpraca pomiędzy dwiema osobami wokół celów terapii oraz sposobu realizacji tych celów oparta na wzajemnym zaangażowaniu. Gdy mówimy o celach, nie chodzi o bardzo konkretną rzecz, w rodzaju „przestanie pani źle spać”, ale że ktoś będzie się w procesie terapeutycznym mierzyć z potencjalnymi źródłami swojego złego samopoczucia, innymi słowy: będzie rozumiał, dlaczego źle śpi.

Oczywiście, nie zawsze przyczyny mają charakter psychologiczny. Całkiem często ludzie zgłaszają się do terapeuty raczej z poczuciem, że mają jakieś niepokojące objawy, nie wiedzą, co się z nimi dzieje, więc pierwszym celem może być zrozumienie, dlaczego i skąd ktoś miał pomysł, że jego depresja jest związana na przykład z jakimiś relacjami. Psychoterapia nie obiecuje magicznych uzdrowień ani tego, że cokolwiek się wydarzy bez udziału strony, która zgłasza się po pomoc.

Fundamentalne w pracy terapeutycznej jest zbudowanie więzi opartej na zaufaniu. To nie jest tak, że trzeba koniecznie terapeucie w stu procentach ufać, tylko że to jest stan, który można „oswoić”. Powstaje baza pod to, żeby można było różne treści przyjmować. Jeżeli ktoś ma, dajmy na to, zniekształcony sposób myślenia na jakiś temat, to warunkiem możliwości zmiany jest możliwość uczenia się pewnych rzeczy.

Nie chodzi o akumulowanie wiedzy, bo mogę przeczytać tysiąc poradników, wiedzieć, jaki mam problem, umieć go zdefiniować i dalej się z nim zmagać, ale o doświadczenie na poziomie relacyjnym, o korekcyjne doświadczenie emocjonalne. Coś, co było trudne albo poszło nie tak, podlega w procesie terapeutycznym korekcie. Nie w tym sensie, że odczarowana zostaje przeszłość, ani w tym, że terapeuta nigdy nie zawodzi i nie dostarcza frustracji, tylko że sytuacja aktualna nie jest repliką sytuacji przeszłej, i to jest do przemyślenia, przegadania, zobaczenia. Wydaje mi się, że to proces na tyle wymagający, że przekracza możliwości sztucznej inteligencji.

To nie eliminuje pytania, jeśli jednak jakiś człowiek czerpie z relacji z AI, tak jak w filmie „Her”, to czy to jest problem?

Cyfrowy terapeuta 7/24

To chyba też kwestia tego, z jakiego poziomu zadajemy to pytanie. Można pytać o to, czy to jest problematyczne dla tego człowieka, ale możemy też pytać o to, na ile to jest problematyczne dla całej wspólnoty.

No ale powiedzmy, choć nie jestem zwolenniczką tej wizji, że mamy świat, w którym ludzie są szczęśliwsi, ponieważ mają dobre relacje z takimi tworami, mającymi imię i cechy osobowości. Dla osoby, która jest bardzo zamknięta, to może być coś, co otwiera na relację.

Ale jest jeszcze jeden wymiar, w którym AI budzi moje wątpliwości. Z grubsza wiemy, że psychoterapia nie jest źródłem pocieszenia czy komfortu w takim prostym sensie. W psychoterapii są pewne ramy, które z mojego punktu widzenia są bardzo ważne – mamy do czynienia z drugim człowiekiem, z którym jesteśmy na coś umówieni, ale ten człowiek jest od nas też niezależny i autonomiczny.

Na przykład nie jest dostępny 24 godziny na dobę.

Właśnie. I dlatego pewne nasze potrzeby są w tej relacji frustrowane. Uczymy się i oswajamy to, że możemy tęsknić, przechowywać w swoim umyśle obraz drugiej osoby, być z nią w relacji nie tylko wtedy, kiedy jesteśmy dosłownie w kontakcie. Chatbot dla odmiany jest stale na wyciągnięcie ręki. Relacja z nim to jak obraz Narcyza i Echo – tyle że tam właściwie nie ma relacji z innym.

Zresztą – i to jest już komponenta narcystycznej kultury – Woebot reklamuje się jako sympatyczny, słodki robot. Pamiętaj, jestem robotem, ale jestem bardzo kochanym robotem. Nie masz poczekalni w gabinecie, nie czekasz tydzień na sesję. To jest świat, w którym wszystkie narcystyczne i pierwotne potrzeby są zaspokojone, tylko problem polega na tym, że świat tak nie wygląda. W prawdziwym świecie istnieje odrębność, samotność, ograniczenia czy śmierć.

Peter Fonagy opisuje też zjawisko pseudomentalizacji, czyli taki styl działania, w którym my ciągle dajemy nowe interpretacje wszystkiego, co się dzieje. I rozumiem, że to też może być niekorzystne.

W pseudomentalizacji wydaje nam się, że jakiś proces czy zjawisko rozumiemy, bo możemy je intelektualnie opracowywać, ale de facto nie przyswajamy tego na tym poziomie doświadczenia czy odczuwania. Kiedy myślę o ograniczeniu chatbotów, to wydaje mi się, że w procesie emocjonalnego uczenia się dużo zachodzi w sytuacji, w której współdzielimy fizyczną przestrzeń, w relację jest włączona mimika, gesty, głos, zapach.

Jesteśmy też ciałem.

Faktem jest, że można prawdopodobnie generować rozbudowane twory, które są w stanie pewne rzeczy imitować. Znowu wracamy do pytania moralnego, czy imitacja ma taką samą wartość jak to, co jest naśladowane.

Ale z drugiej strony te problemy są już obecne, na przykład dlatego, że na skutek pandemii psychoterapia się przeniosła częściowo do świata online. Ten rodzaj kontaktu może być pomocny, ale jest okrojonym doświadczeniem relacji. Nie czujesz pewnych subtelnych rzeczy, które między wami zachodzą. Czym innym jest mieć kontakt wzrokowy bezpośrednio, tak jak my mamy, a czym innym jest mieć poczucie, że się ma kontakt wzrokowy. Jak na to reagujemy, jak nasz mózg się do tego przystosowuje, to są już z kolei kwestie neuronaukowe.

Rozmowy z umarłymi

Być może do pomyślenia jest świat, w którym ciało przestaje być czymś, z czym się tak bardzo liczymy, bo przez nie odbieramy rzeczywistość.

Istnieją grupy terapeutyczne online, w których ludzie mogą się spotykać jako awatary. I to jest znowu zagadnienie z filozofii umysłu: na ile jesteśmy wszyscy mózgami w naczyniu, na ile możemy się ze sobą komunikować bez ciała. Dla niektórych to przerażająca wizja, dla innych ciekawa.

Myślę, że powinno wybrzmieć, że pojawienie się sztucznej inteligencji i aplikacji świadczących usługi terapeutyczne jest częścią naszego życia. Tutaj nie ma odwrotu. I są w tym rzeczywiście dobre rzeczy: technologie, nawet jeśli się ich boimy, mogą rozwijać nasze zasoby. Ale z drugiej strony wiąże się to jednak ze sporym ryzykiem.

Nieograniczony dostęp do terapeuty może być doraźnie przyjemny, długofalowo jest jednak krzywdzący, buduje rodzaj ochrony przed światem, która jest też odpowiedzią na fundamentalny problem współczesności – nieradzenie sobie z utratą. Przychodzi mi tu na myśl chatbot stworzony przez Eugenię Kuydę, rosyjską dziennikarkę, która nie mogła się pogodzić ze śmiercią przyjaciela. Zaprogramowała aplikację na podstawie jego wypowiedzi, stworzyła postać, która jest w stanie dalej funkcjonować w jej świecie. Pytanie, czy tego typu podtrzymywanie w sobie iluzji, że coś czy ktoś istnieje, nie jest tak naprawdę maniakalnym zaprzeczeniem tego, że pewne rzeczy się kończą, że ludzie umierają.

Mówisz o niebezpieczeństwie związanym z podtrzymywaniem iluzji nieskończoności, osobistej omnipotencji, nieśmiertelności, wyemancypowania od wszelkich ograniczeń.

Może to jest rodzaj wyboru, ale ja postawiona przed nim, nie chciałabym, żeby źródłem mojego ukojenia była iluzja, że ktoś, kogo już nie ma, istnieje. Oczywiście może istnieć w moim wnętrzu, ale to jest już zdolność mojego umysłu i jakość mojej więzi z tą osobą, a nie to, że mam poczucie, że mogę z tą osobą zawsze porozmawiać. Pojawia się też pytanie, czy można mówić o prawdziwej relacji z kimś, kto niczego od nas nie chce, w pewnym sensie nie stawia ograniczeń.

Ale można się zastanawiać, czy wszystko, co jest naszym problemem życiowym, jest do przegadywania w gabinecie terapeutycznym, czy może coś innego może być źródłem ulgi. I żeby nie wpadać w jakiś strasznie defetystyczny ton, uważam, że technologie mogą być w wielu sprawach naprawdę pomocne i potrzebne.

Pewnie nie tylko pacjentom, ale i specjalistom. W Stanach Zjednoczonych 10 proc. pracowników służby zdrowia korzysta ze sztucznej inteligencji, a prawie 50 proc. planuje to zrobić w przyszłości, chociaż 42 proc. pozostaje bez entuzjazmu. I mówi o obawach dotyczących interakcji międzyludzkich i prywatności danych.

No właśnie, i to są główne problemy. Wydaje się, że to prywatny świat, ale ani relacja z chatbotem, ani zdrowie psychiczne w gruncie rzeczy nie są kwestią prywatną.

*Cveta Dimitrova – filozofka i psychoterapeutka. Założycielka ośrodka terapeutycznego „Znaczenia. Psychoterapia”.

;

Komentarze