Aktualności

20250826_161005

Małgorzata Talarczyk

Psychoterapia a sztuczna inteligencja

Streszczenie

Rozwój zaawansowanych modeli językowych, nazwanych sztuczną inteligencją, niesie wiele korzyści, ale też wiele zagrożeń. Szczególnym obszarem wykorzystywania zaawansowanych modeli językowych jest ochrona zdrowia, a w ramach świadczonych usług także psychoterapia. W artykule poruszone są zagadnienia dotyczące definicji psychoterapii oraz czynników leczących w procesie psychoterapii. Omówione zostały zagadnienia dotyczące nazewnictwa świadczonych usług oraz kompetencji, odpowiedzialności, tajemnicy i etyki w wykorzystywania chatbotów w psychoterapeutycznym leczeniu zaburzeń psychicznych. Opisane zostały także różnice w stosowaniu psychoterapii przez terapeutę człowieka oraz korzystania z chatbotów przez osoby szukające pomocy terapeutycznej. Autorka zwraca szczególną uwagę na znaczenie słów, które zgodnie z założeniami konstrukcjonizmu społecznego, nie tylko opisują, ale też tworzą rzeczywistość, także w obszarze pracy nad ustawami i legislacją psychoterapii.

Słowa kluczowe: psychoterapia, sztuczna inteligencja, korzyści i zagrożenia.

Wstęp

Zaawansowane modele informatyczne czy słowne modele językowe, określane „sztuczną inteligencją” zmieniają ludzki świat. Trudno w obecnych czasach, a tym bardziej w przyszłości, wyobrazić sobie życie bez tzw. sztucznej inteligencji. Modele angażowane są w wielu dziedzinach nauki, przemysłu i życia społecznego. W dziedzinie nauki szczególne zadania sztuczna inteligencja ma i będzie mieć w medycynie i ochronie zdrowia. W dziedzinie psychoterapii, która jest formą leczenia zaburzeń psychicznych, także pojawiają się doniesienia o planach wykorzystania słownych modeli językowych w leczeniu zaburzeń psychicznych. Zastosowanie sztucznej inteligencji w leczeniu psychoterapeutycznym nasuwa wiele wątpliwości i pytań, m.in. dotyczących relacji terapeutycznej, odpowiedzialności za leczenie i jego skutki, tajemnicy czy etyki? Zagadnienia te zostaną omówione w niniejszym artykule, z koncentracją głównie na obszarze psychoterapii, z pominięciem możliwości sztucznej inteligencji, które pozostają kompetencją specjalistów zajmujących się modelami informatycznymi.

Psychoterapia – czym jest i jak działa?

Psychoterapia wg Wielkiego słownika języka polskiego – to „leczenie zaburzeń psychicznych i emocjonalnych, które polega na stosowaniu określonych technik psychologicznych” [1].

Trudno obecnie podać jednoznacznie obowiązującą definicję psychoterapii, ponieważ w ramach toczących się aktualnie prac nad Ustawą o zawodzie psychoterapeuty trwają w naszym kraju dyskusje i spory dotyczące definicji i zakresu stosowania psychoterapii oraz bazowego wykształcenia umożliwiającego kształcenie w dziedzinie psychoterapii. Natomiast projekt Ustawy nie uwzględnia i nie odnosi się do stosowania psychoterapii przez narzędzia, jakim są modele językowe.

Ponieważ nie obowiązuje jedna definicja psychoterapii odwołam się do kilku definicji uznanych autorów, które funkcjonują w literaturze.

Profesor Czesław Czabała definiuje psychoterapię w następujący sposób: „Psychoterapia jest metodą leczenia zaburzeń psychicznych, której stosowanie wymaga wiedzy odwołującej się do wyników badań naukowych i umiejętności, których nabycie jest możliwe w wyniku uczenia się. Psychoterapia jest sztuką tylko w tym sensie, że każdy psychoterapeuta dostosowuje nabytą wiedzę i umiejętności do własnych możliwości ich używania i do potrzeb wynikających z jednostkowych problemów pacjenta” [2, s. 16]. Czabała zwraca uwagę, że pacjenci poddawani psychoterapii w różnych warunkach organizacyjnych uzyskują podobne efekty i istotną poprawę objawową. Nie potwierdziły się oczekiwania, że jedne metody psychoterapii okażą się generalnie lepsze od innych. Psychoterapia umożliwia ustąpienie objawów i wpływa na poprawę funkcjonowania, pozwala także na nabywanie nowych strategii i metod radzenia sobie z przyszłymi problemami [2].

Jerzy Aleksandrowicz wskazuje, że „psychoterapia jest to taka forma oddziaływań psychospołecznych, która ma na celu korektę zaburzeń przeżywania i zachowania, ma usunąć objawy i przyczyny choroby, w tym cechy osobowości powodujące zaburzenia przeżywania. Oddziaływania te wpływające na stan czynnościowy narządów, przeżywanie i zachowanie poprzez zmianę procesów psychicznych chorego, są wywierane w ramach relacji interpersonalnej między dwoma osobami lub w grupie, w której psychoterapeuta leczy” [3 s. 18]. W artykule zatytułowanym „Psychoterapia” czy „Psychoterapie” Jerzy Aleksandrowicz pisze: „Niewątpliwie zadanie zdefiniowania istoty psychoterapii jest niezmiernie trudne,    chociażby ze względu na jej usytuowanie w obszarze, w którym krzyżują się fenomeny zdrowia i choroby, pomagania i leczenia, relacji i interakcji międzyludzkich będących warunkiem jakiegokolwiek oddziaływania jednej osoby na drugą. Dlatego, jak się wydaje, sformułowanie takiej definicji wymaga przede wszystkim rozróżnienia między oddziaływaniami psychospołecznymi, mającymi na celu leczenie, a tymi, których celem jest udzielanie pomocy. Tylko dla pierwszych właściwa jest nazwa ‘psychoterapia;, zgodnie ze znaczeniem słowa ‘terapia’, dla tych drugich właściwsze wydaje się określenie ‘pomoc psychospołeczna” [3 s.22]. Natomiast prof. Bogdan de Barbaro w ustnej wypowiedzi definiuje psychoterapię szerzej: „Psychoterapia to jest taka metoda, która służy ludziom do tego żeby sobie poradzili lepiej, a to z cierpieniem, z objawem, z konfliktem, z problemem. I to co jest ważne, to taka okazja do tego, żeby siebie lepiej zrozumieć” [4]. Według Norcrossa, „Psychoterapia jest świadomym i zamierzonym zastosowaniem metod klinicznych i interpersonalnych zabiegów, pochodzących ze sprawdzonych twierdzeń nauk psychologicznych, w celu towarzyszenia ludziom przy modyfikacji ich zachowań, właściwości poznawczych, emocji i/lub innych osobistych charakterystyk na takie, które wydają się uczestnikom tego procesu pożądane” [2, s. 18]. Z kolei Urban i Ford, podsumowując poglądy różnych autorów na temat istoty psychoterapii, piszą: „psychoterapia pozostaje nadal przemyślanym i w tej mierze planowanym sposobem interwencji w behawioralne okoliczności danej osoby, w celu korekty lub modyfikacji prezentowanej przez nią postawy wobec określonego typu trudności” [2, s. 18].

Wymienione definicje prezentują różnice w rozumieniu psychoterapii, ale wspólną cechą jest zmiana, wymieniana jako najważniejszy element psychoterapii. Psychoterapia jako metoda leczenia ma na celu doprowadzenie do zmian, które pozwolą na usunięcie lub zmniejszenie nasilenia objawów zaburzenia czy choroby. Zmiana zależy od różnych czynników m.in. od diagnozy, cech pacjenta, jego gotowości do zmiany, rodzaju interwencji terapeutycznych, reakcji pacjenta na te interwencje na różnych etapach procesu psychoterapii [2,5].

Czynniki leczące w psychoterapii a tzw. sztuczna inteligencja

 

Do czynników leczących w psychoterapii zalicza się czynniki swoiste i nieswoiste. Czynniki swoiste to podejścia teoretyczne oraz metody i techniki psychoterapii. Czynniki nieswoiste to przede wszystkim: relacja terapeutyczna dająca pacjentom poczucie zrozumienia, akceptacji, bezpieczeństwa i oparcia. To także osoba terapeuty – jego wiedza, empatia, doświadczenie zawodowe i życiowe oraz cechy osobowości i sposób pracy. Podkreśla się, że warunkiem efektywności każdej terapii oraz skuteczności czynników swoistych jest udział czynników nieswoistych [6].

Istotny czynnik leczący w psychoterapii stanowi relacja terapeutyczna. Badacze wyróżniają jej trzy elementy:

  1. sojusz roboczy czyli przymierze terapeutyczne – polegające na uzgodnieniu między terapeutą a pacjentem terapii, współpracy, więzi i zaufaniu;
  2. konfiguracja przeniesienia i przeciwprzeniesienia – to mechanizmy obronne, które opisywane są w trzech definicjach, ale najkrócej mówiąc, „przeniesienie” polega na nieświadomym „przenoszeniu” na terapeutę reakcji emocjonalnych, których pacjent doświadczał wobec ważnych osób w swoim życiu. A „przeciwprzeniesienie” to reakcje terapeuty na przeniesienie pacjenta;
  3. rzeczywista relacja między terapeutą a pacjentem, na którą składają się różne czynniki po stronie pacjenta oraz terapeuty. W obszarze rzeczywistej relacji między terapeutą a pacjentem znajdują się m.in. sesja diagnostyczna, cele, kontrakt [2,3,7].

W procesie psychoterapii myślimy o relacji międzyludzkiej: psychoterapeuty i pacjenta/klienta czy psychoterapeuty i uczestników psychoterapii, np. rodziny. I tu nasuwa się pytanie: czy jest możliwa relacja terapeutyczna między człowiekiem a modelem informatycznym? Z definicji międzyludzkiej relacji terapeutycznej wynika, że nie jest możliwa. Chociaż nie można wykluczyć jednostronnego zaangażowania emocjonalnego człowieka w kontakcie z ChatGPT, z którym rozmawia, szczególnie jeśli człowiek dokonuje antropomorfizacji modelu językowego. Warto podkreślić, że jest to wyłącznie jednostronne zaangażowanie, ponieważ w przypadku narzędzi czy zjawisk nieożywionych, nie jest możliwe dwustronnie, nie spełnia więc kryteriów relacji terapeutycznej. Bo „rozmówcą” osoby chcącej uzyskać pomoc terapeutyczną nie jest osoba terapeuty z jego wiedzą, empatią, doświadczeniem zawodowym i życiowym, cechami osobowości i sposobem pracy. Planowane zastosowanie modeli językowych do świadczenia usług „psychoterapeutycznych” prawdopodobnie zakłada możliwość nauczenia narzędzia wiedzy z zakresu wielu różnych nurtów psychoterapii, mimo to nie umożliwi to rzeczywistej dwustronnej relacji terapeutycznej opartej na odczuwaniu empatii, poza tą wyłącznie deklarowaną werbalnie przez SI. Będąc psychologiem i psychoterapeutką szczególną wagę przywiązuję do słów, dlatego od dawna nie mam zgody, by modele informatyczne nazywać sztuczną inteligencją, ponieważ uważam, że jest to nadużycie, które może sprzyjać antropomorfizacji, gdyż łatwiej poczuć „relację” czy „więź” ze „sztuczną inteligencją” niż np. z „modelem językowym”. Mój brak zgody na nazywanie modeli językowych sztuczną inteligencją potwierdzają wypowiedzi badaczy zajmujących się modelami językowymi. Profesor Piotr Durka, polski naukowiec w dziedzinie fizyki, specjalizujący się w fizyce biomedycznej, który zapoczątkował polskie badania nad interfejsami mózg-komputer, stosuje określenia „tak zwana sztuczna inteligencja”, „uczenie maszynowe” czy „sieć sztucznych neuronów”. W rozmowie z red. Karoliną Głowacką w Radio Nauka prof. Durka mówi: „Tu jest taka sieć neuronowa, czyli to tak jak mózg, czyli ten mózg myśli, to ja go spytam, co on uważa na temat sensu istnienia. Zastanów się na tym, to jest po prostu taka żonglerka słowami. Jeżeli tu jest słowo neuron, to słowo neuron występuje również w mózgu i to jest podobne, to coś innego też jest podobne. Kto tak powiedział?” [8]. Natomiast Jowita Michalska ekspertka w dziedzinie nowych technologii podkreśla, że „sztuczna inteligencja nie rozumie pytań, które jej zadajemy. Mimo różnych prób jest modelem statystycznym, czyli ona jak zadajemy pytanie, to każdy kolejny wyraz, który pisze, nawet jeśli pisze bardzo szybko i świetnymi zdaniami, to jest cały czas obliczanie tego, jaki wyraz jest najbardziej właściwy jako następny w tym zdaniu, biorąc pod uwagę wszystko na czym była trenowana” [9].

„Żonglerka słowna”, o której mówi prof. Durka budzić może obawy i wątpliwości w kontekście czynników swoistych psychoterapii, czyli teorii oraz metod i technik terapeutycznych, czy w przyszłości twórcy oraz osoby powiązane z biznesem AI nie będą na masową skalę forsować modeli językowych do pracy psychoterapeutycznej. Nasuwa się więc pytanie, czy tego typu usługi kiedykolwiek będą w pełni bezpieczne dla osób szukających pomocy psychoterapeutycznej. Natomiast co do czynników nieswoistych, czyli relacji terapeutycznej – obustronne nawiązanie jej w przypadku osoby i narzędzia nie jest możliwe. A ponieważ podkreśla się, że warunkiem efektywności każdej terapii oraz skuteczności czynników swoistych jest udział czynników nieswoistych, tego kryterium nie spełniają chatboty.

Korzyści i zagrożenia stosowania modeli językowych zamiast psychoterapeuty w leczeniu psychoterapeutycznym

Jak podają doniesienia „intensywne i długotrwałe korzystanie z chatbotów, jak ChatGPT może prowadzić do poważnych kryzysów psychicznych. Na całym świecie dokumentowane są przypadki, w których u użytkowników bez wcześniejszej historii chorób rozwijały się urojenia i paranoja. Problem, nazywany potocznie „psychozą ChatGPT”, zmusił technologicznego giganta do reakcji, a regulatorów do wprowadzenia pierwszych ograniczeń” [10].

W artykule „Sztuczna inteligencja w psychoterapii – komentarze eksperta” dr Marcin Rządeczka, badacz specjalizujący się w obszarze zastosowań sztucznej inteligencji w obszarze zdrowia psychicznego zwraca uwagę, że: „chatboty terapeutyczne wykorzystujące duże modele językowe zyskują na popularności jako potencjalne narzędzia wspierające proces psychoterapii lub cyfrowi asystenci zdrowia psychicznego. (…) Chatboty terapeutyczne zostały zaprojektowane w celu dostarczania wsparcia emocjonalnego głównie w oparciu o terapię poznawczo-behawioralną (CBT). Nieograniczona czasowo i geograficznie dostępność tych narzędzi oraz ich pozorna anonimowość sprawiają, że są one często atrakcyjne dla osób poszukujących natychmiastowej pomocy lub niemających dostępu do tradycyjnej terapii z powodu wykluczenia geograficznego, ekonomicznego czy zdrowotnego. Badania wskazują, że użytkownicy często odczuwają subiektywną poprawę samopoczucia po interakcjach z chatbotami, co sugeruje ich potencjalną wartość jako uzupełnienia tradycyjnych form wsparcia psychologicznego. Nie wolno jednak zapominać, że narzędzie takie powinno być nadzorowane przez doświadczonego terapeutę” [11].

W tym miejscu chcę zwrócić uwagę, że sformułowanie „wsparcie psychologiczne”, które mieści się w zakresie pomocy psychologicznej, stosowane przez ChatGPT, nie jest zgodne z rekomendacją Polskiego Towarzystwa Psychologicznego „pomoc psychologiczna’ stanowi ustawowo zapisaną kompetencję uprawiania zawodu psychologa. (…) Stosowanie przez nieprofesjonalistów oddziaływań pomocy psychologicznej, zastrzeżonych dla osób z wykształceniem psychologicznym rodzi ryzyko podejrzenia o łamanie przepisów prawa. Ponad wszystko jednak niesie to ryzyko dla zdrowia psychicznego świadczeniobiorców, dzieci, młodzieży i dorosłych. (…). Dla określenia pierwszej pomocy świadczonej przez nieprofesjonalistów odpowiednią będzie terminologia „pomoc przedpsychologiczna”, która podobnie jak przypadku pomocy przedmedycznej podkreśla jej „przed profesjonalny” charakter” [12]. Jak więc nazwać „usługę”, którą miałyby świadczyć modele językowe?

Wracając do publikacji dr. Marcina Rządeczki, badacz zwraca uwagę na transparentność działania chatbotów terapeutycznych, która odgrywa kluczową rolę w zapewnieniu skuteczności i bezpieczeństwa interakcji użytkowników z tymi narzędziami. Autor pisze: „jednym z głównych wyzwań jest brak jasnych informacji na temat sposobu, w jaki chatboty identyfikują i korygują błędy poznawcze, co jest szczególnie istotne w pracy z osobami zmagającymi się z zaburzeniami psychicznymi. (…) Ponadto, większość badań koncentruje się na krótkoterminowych efektach stosowania chatbotów, podczas gdy ich długoterminowy wpływ na relację terapeutyczną i trwałość poprawy zdrowia psychicznego pozostaje niejasny” [11].

W tym miejscu podobnie jak w przypadku sformułowania „pomoc psychologiczna” odwołując się do nazewnictwa i wcześniej opisanej „relacji terapeutycznej” chcę ponownie zwrócić uwagę, że określenie „relacja terapeutyczna” w kontakcie z modelem informatycznym nie spełnia kryteriów relacji terapeutycznej charakterystycznej dla pracy z profesjonalnym psychoterapeutą i może być błędnie interpretowane czy nadinterpretowane przez osoby korzystające z chatbotów.

Dr Marcin Rządeczka w swoim doniesieniu porusza także zagadnienie ryzyka nieadekwatnych interwencji, pisząc „istnieje ryzyko, że chatboty mogą udzielać nieodpowiednich lub wręcz szkodliwych porad, zwłaszcza w przypadkach skomplikowanych zaburzeń psychicznych. Przykładem zaczerpniętym z badań może być tutaj sytuacja, w której osoba z urojeniami prześladowczymi instruowana jest, jak zebrać dowody potwierdzające swoje obawy lub osoba z tendencją do antropomorfizacji urządzeń technicznych instruowana jest, by przeprosić swój stary smartfon za zaniedbywanie go” [11].

Innym ważnym zagadnieniem poruszonym przez autora jest „autonomia pacjenta a odpowiedzialność”, w którym autor stawia pytanie „czy użytkownik jest w pełni świadomy, że rozmawia z programem komputerowym, a nie z człowiekiem? Na początku dyskusji zwykle tak, ale ta świadomość często tymczasowo się wyłącza pod wpływem zręcznych zabiegów perswazyjnych i rozbudowanych odpowiedzi wypełnionych pozorowaną empatią. Kto ponosi odpowiedzialność w przypadku, gdy interakcja z chatbotem prowadzi do pogorszenia stanu psychicznego pacjenta? Brak jasnych regulacji prawnych w wielu krajach w tym zakresie może prowadzić do licznych nadużyć i nieporozumień” [11].

Kolejnym zagadnieniem opisanym przez badacza dotyczącym bezpieczeństwa korzystania z modeli informacyjnych w obszarze zdrowia psychicznego jest uzależnienie emocjonalne od chatbotów terapeutycznych. Uzależnienie to m.in. wynika z ich stałej dostępności, ignorowanie przez użytkowników ostrzeżeń, że chatboty nie są profesjonalnymi terapeutami, a ich zaprojektowanie nastawione na zapewnienie użytkownikom maksymalny komfort i wsparcie emocjonalne może zmniejszać motywację do aktywnego szukania rozwiania problemów lub/i skorzystania z profesjonalnej pomocy terapeutycznej” [11]. Autor zwraca również uwagę na dosłowność interpretacji przez chatboty: „chatboty interpretują informacje w sposób dosłowny, co czyni je podatnymi na manipulację lub wybiórcze ujawnianie informacji przez użytkowników, którzy mogą unikać trudnych tematów lub zniekształcać swoje doświadczenia. Co więcej, brak zdolności do odczytywania niewerbalnych sygnałów, takich jak ton głosu, mimika czy mowa ciała, dodatkowo ogranicza ich zdolność do wykrywania ukrytych problemów emocjonalnych lub niespójności w wypowiedziach. W rezultacie chatboty mogą nieświadomie wzmacniać patologiczne wzorce myślowe, utrudniając użytkownikom osiągnięcie rzeczywistej poprawy stanu psychicznego” [11].

I ostatnia ważna kwestia poruszona przez badacza, to problem odwrotnego dostosowania (ang. reverse alignment) w przypadku chatbotów. Co polega „na ryzyku nieświadomego dostosowania sposobu myślenia i języka użytkownika do charakterystycznego stylu komunikacji danego narzędzia. Podobnie jak sztuczna inteligencja wpływa na homogenizację językową poprzez ujednolicanie sposobu komunikacji, chatboty mogą kształtować schematy myślowe użytkowników, skłaniając ich do uproszczonych i schematycznych interpretacji problemów emocjonalnych. Dodatkowo stereotypy zaszyte w danych treningowych często sprawiają, że chatboty generują odpowiedzi wysycone pokorną pewnością siebie, tj. brzmiące empatycznie i przekonująco, ale spełniające wszystkie oczekiwania emocjonalne użytkownika bez dostarczania krytycznego wglądu we właściwy problem. W wyniku tego interakcje z niektórymi narzędziami, zamiast wspierać rozwój autonomii emocjonalnej i poznawczej, mogą wzmacniać błędne przekonania lub prowadzić do utwierdzania się w dysfunkcyjnych interpretacjach rzeczywistości” [11].

Podsumowując, dr Marcin Rządeczka w artykule porusza kluczowe zagadnienia dotyczące stosowania modeli językowych w dziedzinie psychoterapii: odpowiedzialność, zagrożenia szczególnie w przypadku psychoz, więź z narzędziem (antropomorfizacja), specyfikę komunikacji z uproszczeniami czy tzw. odwrotnym dostosowaniu, błędne odpowiedzi i zalecenia oraz uzależnienie, a także aspekt etyki.

Wykształcenie, kodeks etyczny i odpowiedzialność w przypadku modeli informatycznych świadczących usługę nazywaną „psychoterapią”

Aktualnie w ramach przygotowywania Ustawy o zawodzie psychoterapeuty toczą się w naszym kraju dyskusje w środowisku psychoterapeutów m.in. na temat wymaganego wykształcenia, tzw. wykształcenia bazowego, które będzie umożliwiało kształcenie się w czteroletnich kursach z psychoterapii. Nie ma jednomyślności na ten temat w środowisku psychoterapeutów, a rozbieżności można rozpatrywać na kontinuum: od wymaganego wyłącznie wykształcenia psychologicznego, przez dopuszczanie do kształcenia poza psychologami także lekarzy psychiatrów lub również pielęgniarki psychiatryczne oraz pedagogów specjalnych i resocjalizacji, po każde wyższe wykształcenie humanistyczne lub nie tylko humanistyczne. W obliczu wymienionych rozbieżności dotyczących wymaganego wykształcenia bazowego, nasuwa się pytanie, jakie wykształcenie miałyby mieć modele językowe, o ile w ogóle można rozpatrywać wykształcenie w tym przypadku? Bo przywołując choćby najprostszą definicję wykształcenia podaną przez Słownik Języka Polskiego PWN – „wykształcenie to zasób wiedzy określony programem danej szkoły” [13], lub „Wykształcenie to poświadczona dokumentem wiedza zdobyta w oficjalnym systemie nauczania”. W Polsce prawne kryteria poziomu wykształcenia określają Prawo oświatowe z 14.XII.2016 oraz Prawo o szkolnictwie wyższym i nauce z 20.VII.2018 [14]. W związku z powyższym trudno określić „wykształcenie” modeli informatycznych.

W stosowaniu psychoterapii jako formy leczenia zaburzeń czy pomagania ludziom w problemach, psychoterapeutów obowiązuje Kodeks etyczny psychoterapeuty. Wielu, o ile nie większość, psychoterapeutów zrzeszonych jest w Polskim Towarzystwie Psychologicznym lub/i w Polskim Towarzystwie Psychiatrycznym. W obu Towarzystwach obowiązuje Kodeks etyczny psychoterapeuty, oba kodeksy w swojej treści są do siebie zbliżone. Kodeks etyczny psychoterapeutów Polskiego Towarzystwa Psychiatrycznego przyjęty przez Sekcję Naukową Psychoterapii oraz Sekcję Naukową Terapii Rodzin przyjęty 17.10.2025 r. zawiera: Preambułę, Zasady – a w nich: 1. profesjonalne kompetencje psychoterapeuty,2. Odpowiedzialność, 3. Standardy moralne i prawne, a także Zasady Szczegółowe: 4. Tajemnicę leczenia, 5. Konflikt interesów, 6. Relacje psychoterapeuty z pacjentem, 7. Relacje psychoterapeuty z innymi profesjonalistami i w życiu publicznym, 8. Prawa psychoterapeuty, 9. Specyficzne problemy etyczne terapii par i rodzin oraz 10. Superwizję [15]. Natomiast Kodeks etyczny psychoterapeuty w Polskiem Towarzystwie Psychologicznym zawiera zbiór zasad określających odpowiedzialność terapeutów za dobro klienta, zachowanie tajemnicy, kompetencje oraz unikanie konfliktu ról (m.in. gdy własne interesy mogą kolidować z dobrem klienta). Kolejne zasady to: odpowiedzialność, standardy moralne i prawne oraz relacje z innymi profesjonalistami [16]. Wymienione zasady Kodeksów etycznych obu Towarzystw wskazują, że usługi, które miałyby być świadczone przez tzw. sztuczną inteligencję, nie spełniają żadnego z wymienionych kryteriów, które odnoszą się do pracy psychoterapeutów, w związku z tym, nie mogłyby być określane „psychoterapią”. Bo poczynając od profesjonalnych kompetencji psychoterapeuty, które nie są wyłącznie algorytmami informacji, to kto ponosiłby odpowiedzialność za świadczone usługi przez model językowy, jakie standardy moralne i prawne obowiązywałby model, kto odpowiadałby za tajemnicę leczenia, i co szczególne w procesie psychoterapii – nie byłoby relacji psychoterapeuty z pacjentem.

Psychoterapeuta człowiek a modele językowe

 

Jak już wcześniej wspomniałam, na efektywność czy skuteczność psychoterapii mają wpływ czynniki swoiste i nieswoiste. Czynniki nieswoiste dotyczą osoby psychoterapeuty. Można sobie wyobrazić, że zaawansowane modele językowe zostaną wyposażone w wyczerpujące informacje z różnych nurtów psychoterapii. Natomiast informacje nie są tożsame z wiedzą. Wiedza pozwala terapeucie rozpatrywać zagadnienia w różnych kontekstach, m.in. kontekście indywidualnych doświadczeń pacjenta, ale też w kontekście doświadczeń i wielopokoleniowych przekazów rodzinnych czy kulturowych, a także w kontekście czynników predysponujących, wyzwalających czy podtrzymujących zaburzenie. Czyli w zależności od etapu procesu terapeutycznego psychoterapeuta odwołując się do swojej wiedzy i doświadczenia uwzględnia różne konteksty dostrzegania, analizowania i reflektowania problemu zdrowotnego pacjenta czy rodziny w przypadku terapii rodzinnej.

Psychoterapeuta w czasie pracy doświadcza też emocje, choć to, czy je werbalizuje na sesji, zależy od różnych czynników, m.in. osoby terapeuty, osoby pacjenta oraz procesu psychoterapii, a także od podejścia, z którego metod terapeuta korzysta. Terapeuci czują – w przeciwieństwie do narzędzi, jakimi są modele językowe, a to czucie, szczególnie gdy jest przepracowane np. w ramach pracy własnej terapeuty czy superwizji, może wzbogacać umiejętności i zasoby pracy terapeutycznej. Znaczenie tych zasobów ciekawie i wnikliwie opisał dr Władysław Sterna w artykule pt. „Czy korzysta tylko pacjent. Potencjalny wpływ pracy z osobami z traumą – terapeutę”, pisząc m.in. „Niedawno zaczęto identyfikować pozytywne efekty wynikające z doświadczeń praktyków w pracy z osobami, które przeżyły traumę – określając ją jako zastępczą odporność (Vicarious Resilience, VR) lub zastępczy wzrost potraumatyczny (Vicarious Posttraumatic Growth, VPTG)” [17]. Większość psychoterapeutów ma za sobą tzw. pracę własną, czyli pracę nad własnymi doświadczeniami czy problemami, co jest pomocne – z jednej strony w czerpaniu z doświadczenia terapeutycznego i życiowego, a z drugiej strony – umożliwia świadome i kontrolowane korzystanie z ludzkich zasobów, jakimi są: doświadczenia, wyobraźnia i empatia.

 

Czynnikiem niespecyficznym w prowadzeniu psychoterapii, jak już wcześniej wspomniałam, jest relacja terapeutyczna, w tym szczególnie przymierze terapeutyczne. Przed rozwojem sztucznej inteligencji myśląc, pisząc czy mówiąc o relacji zawsze brano pod uwagę relację między psychoterapeutą i pacjentem/klientem, obecnie wydaje się zasadne wskazywać, że jest to relacja międzyludzka, ponieważ rozwija się zjawisko określane „sztuczną” bliskością. Podkreśla się, że „relacje” z AI mogą mieć poważne konsekwencje dla osób budujących takie „relacje”. Anna Rymkiewicz autorka doniesienia na ten temat zwraca uwagę, że psychologowie z USA ostrzegają, że „bliskie, emocjonalne relacje ludzi ze sztuczną inteligencją mogą prowadzić do poważnych konsekwencji psychologicznych i społecznych, w tym zakłócenia relacji międzyludzkich, narażenia na manipulację i uzyskiwania fałszywych porad” [18]. Autorka opracowania powołuje się na autorów według których „AI przestaje być narzędziem, staje się partnerem. A ponieważ relacje z nim mogą wydawać się łatwiejsze niż relacje międzyludzkie, naukowcy twierdzą, że może to zniechęcać do budowania więzi w prawdziwym życiu i zaburzać naturalne mechanizmy funkcjonowania społecznego”. Powołując się na badacza Daniela B. Shank’a z Missouri University of Science & Technology, który specjalizuje się w psychologii społecznej i technologii, autorka opracowania przytacza cytat wypowiedzi: „Istnieje realne ryzyko, że ludzie zaczną przenosić oczekiwania z relacji z AI na prawdziwe relacje międzyludzkie. Widzimy już pojedyncze przypadki, w których sztuczna inteligencja zakłóca więzi między ludźmi, ale nie wiemy jeszcze, czy zjawisko to będzie miało szeroki zasięg”. Shank wskazuje też, że „kolejnym zagrożeniem jest to, że AI może udzielać błędnych lub wręcz niebezpiecznych porad. Sztuczna inteligencja ma skłonność do „halucynowania”, czyli podawania nam informacji niezgodnych z rzeczywistością” i dalej „Gdy użytkownicy zaczynają wierzyć, że AI ich zna i troszczy się o nich, zakładają też, że będzie im udzielać samych dobrych rad. A to nie zawsze jest prawdą. Zdarza się, że są one całkowicie nieodpowiednie lub wręcz niebezpieczne” [18].

Chcę zwrócić uwagę, że badania dotyczące psychoterapii i sztucznej inteligencji zwykle dotyczą psychoterapii indywidualnej osób dorosłych. Natomiast nie wyczerpuje to obszaru psychoterapii jako formy leczenia, w ramach którego stosowana jest psychoterapia dzieci i młodzieży oraz terapia rodzin. Jest to ważny i duży obszar w ramach psychiatrii dzieci i młodzieży. Mając wieloletnie doświadczenie kliniczne i terapeutyczne w leczeniu terapeutycznym zaburzeń psychicznych pacjentów dziecięco-młodzieżowych, trudno mi sobie wyobrazić świadczenie usług rodzinom w kryzysach czy zaburzeniach psychicznych przez modele informatyczne. Natomiast mam nadzieję, że w psychoterapii dzieci i młodzieży stosowanie SI będzie prawnie zabronione.

Podsumowanie

Z opisanych w niniejszym artykule kryteriów psychoterapii oraz planów wdrażania modeli językowych do świadczenia usług określanych „terapeutycznymi”, chcę zwrócić uwagę na znaczenie języka, który zgodnie z założeniami konstruktywizmu społecznego, nie tylko opisuje rzeczywistość, ale też ją tworzy. Dlatego sądzę, że uważność na słowa i ich odpowiedni dobór, ma znaczenie, szczególnie w kontekście rozwoju modeli językowych oraz ich zastosowania w różnych dziedzinach nauki i obszarach naszego życia. Nazwanie narzędzia, jakim są zaawansowane modele językowe „sztuczną inteligencją” sprzyja antropomorfizacji, bo inteligencja do tej pory przypisywana była głównie z człowiekowi, a także z niektórym gatunkom zwierząt, ale zawsze kojarzona z organizmami żywymi. Podobnie stosowanie określenia „psychoterapia” jako usługi świadczonej przez narzędzie, a utożsamianej do tej pory wyłącznie z pracą człowieka – terapeuty, z człowiekiem – pacjentem/klientem, tym bardziej sprzyjać może nie tylko antropomorfizacji, ale też budowaniu przez ludzi zastępczych relacji z narzędziem. Tak więc słowa tworzące rzeczywistość mają kluczowe znaczenie i mogą być wykorzystywane nieopatrznie bądź z premedytacją na korzyść albo niekorzyść człowieka, a w liczbie mnogiej też ludzi. Dlatego przy uwzględnieniu plusów (m.in. szybkiej dostępności) dotyczących wykorzystania tzw. sztucznej inteligencji w ochronie zdrowia, a szczególnie w obszarze leczenia zaburzeń psychicznych, tak ważne, moim zdaniem, jest zastosowanie adekwatnego nazewnictwa.

Czym więc mogłaby być usługa świadczona przez modele językowe w leczeniu zaburzeń psychicznych czy problemów emocjonalnych? Nie może być psychoterapią, bo nie spełnia kryteriów psychoterapii, ze szczególnym uwzględnieniem relacji między psychoterapeutą i pacjentem czy klientem a także nie spełnia zasad Kodeksów etycznych psychoterapeuty. Nie może też być wsparciem psychologicznym, bo wsparcie będące formą pomocy psychologicznej mogą udzielać wyłącznie osoba będąca psychologiem. Jak więc nazwać usługę, z której będą korzystać osoby poszukujące pomocy w swoich problemach emocjonalnych czy psychicznych? Być może adekwatnym określeniem byłoby: „słowna pomoc modeli językowych” lub „pomoc ChatGPT” co mogłoby ułatwić osobom korzystającym z tego typu pomocy odróżniać ją od psychoterapii spełniającej profesjonalne kryteria. Określenie „pomoc świadczona przez modele językowe” prawdopodobnie mogłaby też utrudnić antropomorfizację, tym samym zwracając uwagę na wskazane szukanie profesjonalnej pomocy psychologicznej czy psychoterapeutycznej. Odrębnym zagadnieniem byłoby możliwe uzależnienie od korzystania z narzędzia, które może nie oferować potrzebnej czy odpowiedniej pomocy.

Znaczenie precyzyjnej definicji psychoterapii i określenie wykształcenia psychoterapeuty, z wykluczeniem możliwości świadczenia usługi określanej „psychoterapią” przez modele językowe stanie się obecnie wyzwaniem dla ustawodawców. Opisane zagadnienia wydają się być istotne w pracy nad ustawą o zawodzie psychoterapeuty, definicji psychoterapii, kwalifikacjach i wykształceniu psychoterapeuty itp. Wątpliwości budzić może fakt, że w dobie intensywnie rozwijającej tzw. sztucznej inteligencji i planów by wykorzystywać ją w pracy terapeutycznej, brakuje rekomendacji dotyczących „czynnika ludzkiego”, tzn. określenia – czy wyłącznie człowiek może świadczyć psychoterapię?

Do tej pory, „czynnik ludzki”, po obu stronach procesu psychoterapii, czyli pacjenta i psychoterapeuty, łącznie z czynnikami swoistymi i nieswoistymi psychoterapii, zawsze był, jest i należy mieć nadzieję, że pozostanie – zastrzeżony dla psychoterapii.

 

Bibliografia

  1. Wielki słownik języka polskiego https://wsjp.pl/haslo/podglad/88842/psychoterapia (pobrano 11.08.2025)
  2. Czabała JC. Czynniki leczące w psychoterapii. Warszawa: Wydawnictwo Naukowe PWN; 2006
  3. Aleksandrowicz J. Psychoter. 2004;129(2): s.17-29.
  4. de Barbaro (2018). https://www.facebook.com/story.php?story_fbid=2138794726391675&id=2081167368821078&_rdr (pobrano 1.07.2025)
  5. Talarczyk M. Trzy światy. Z perspektywy psychoterapeuty. Poznań: Wydawnictwo Naukowe Silva Rerum; 2021
  6. Bomba J. Integracja leczenia – próba syntezy. W: Namysłowska I (red.) Psychiatria dzieci i młodzieży. Warszawa: Wydawnictwo Lekarskie PZWL; 2012.
  7. Sass- Stańczak K, Czabała JC. Relacja terapeutyczna – co na nią wpływa i jak ona wpływa na proces psychoterapii? Psychoter. 2015;172(1): s. 5-17.
  8. Duszczyk M. AI może doprowadzić do groźnej choroby. Eksperci ostrzegają. Rzeczpospolita. 10.08.2025 https://cyfrowa.rp.pl/technologie/art42835751-ai-moze-doprowadzic-do-groznej-choroby-eksperci-ostrzegaja?sfnsn=mo&fbclid=IwY2xjawMMLfVleHRuA2FlbQIxMQABHh8NBbDeRPc4DXuWNULu7Fl6JYXyvZFKqerA7JwF9AHVv-xCm9t_v8DK61dz_aem_RC6fJlfABouDZalXTsFFWA (pobrano 08.2025)
  9. Durka P. Nie wierzmy w baśnie o sztucznej inteligencji. Radio Naukowe https://www.youtube.com/watch?v=kgl5UiIK0sc (pobrano 23.09.2025)
  10. Michalska J. Podcast Jestem kobietą https://www.facebook.com/reel/1500003738083271 (pobrano 3.09.2025)
  11. Rządeczka M. Sztuczna inteligencja w psychoterapii – komentarz eksperta. Centrum Prasowe UMCS: Luty 2025. (pobrano 10.08.2025)
  12. Polskie Towarzystwo Psychologiczne. Oświadczenie w sprawie nazewnictwa w obszarze pierwszej pomocy psychologicznej. https://psych.org.pl/fileadmin/user-files/Dla_psychologow/Oswiadczenie_w_sprawie_nazewnictwa_w_obszarze_pierwszej_pomocy_psychospolecznej.pdf (pobrano 6.08.2025)
  13. Słownik Języka Polskiego PWN https://sjp.pwn.pl/slowniki/wykszta%C5%82cenie.html (pobrano 3.08.2025)
  14. Wikipedia https://pl.wikipedia.org/wiki/Wykszta%C5%82cenie (pobrano 10.08.2025)
  15. Polskie Towarzystwo Psychiatryczne. Kodeks etyczny psychoterapeuty. Psychoter. https://sekcjanaukowapsychoterapii.org/kodeks-etyczny-psychoterapeuty (pobrano 18.08.2025)
  16. Polskie Towarzystwo Psychologiczne. Kodeks etyczny psychoterapeuty. https://www.sekcjapsychoterapii.pl/zasady-etyczne/kodeks-etyczny (pobrano 3.08.2025)
  17. Sterna W. Czy korzysta tylko pacjent? Potencjalny wpływ pracy z osobami z traumą – na terapeutę. Psychoter. 2024;2011(4): s. 53-66.
  18. Rymkiewicz A. Uwaga na „sztuczną bliskość. Relacje z AI mogą mieć poważne konsekwencje. Forsal, 14 kwietnia 2025. https://forsal.pl/lifestyle/technologie/artykuly/9777346,uwaga-na-sztuczna-bliskosc-relacje-z-ai-moga-miec-powazne-konsekwen.html (pobrano 1.08.2025)

 

www.system-terapia.pl