Czy ChatGPT zastąpi psychoterapeutę? Eksperci: chatbot nie wyłapie, jeśli pacjent mija się z prawdą

Opublikowane 10 października 2024
Czy ChatGPT zastąpi psychoterapeutę? Eksperci: chatbot nie wyłapie, jeśli pacjent mija się z prawdą
Sztuczna inteligencja coraz śmielej wkracza na pole zdrowia psychicznego. Chatboty terapeutyczne mogą pomóc w terapii poznawczo-behawioralnej czy nauce medytacji. Niektórzy użytkownicy traktują je już niemal jak ludzkich terapeutów. Eksperci ostrzegają, że takie narzędzia mają wciąż liczne ograniczenia i w wielu sytuacjach mogą zaszkodzić. Jakie są szanse i zagrożenia terapii z użyciem AI? Czy rzeczywiście możemy mówić o rewolucji w trosce o zdrowie psychiczne?
W erze cyfrowej narzędzia wspomagane przez sztuczną inteligencję zyskują na popularności – także wtedy, gdy chcemy zadbać o swoje zdrowie psychiczne. Wyspecjalizowane chatboty takie jak Wysa, Youper, Woebot Health, kontrowersyjna Replika, a nawet ChatGPT obiecują szybką pomoc dla osób borykających się z lękiem, depresją czy stresem, szczególnie wtedy, gdy dostęp do psychoterapeutów jest utrudniony. Choć z pozoru rozwiązania te wydają się atrakcyjne, specjaliści podkreślają, że AI nie jest w stanie zastąpić pełnowartościowej terapii prowadzonej przez człowieka.

Ryzyko antropomorfizacji i autodiagnozy
Dr Marcin Rządeczka, członek zespołu badawczego „Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR, ostrzega przed zbytnim zaufaniem do chatbotów. – Dobry terapeuta wyczuje, kiedy pacjent kłamie, a kłamstwo, czy nawet niemówienie całej prawdy albo samooszukiwanie się jest często strategią, którą przejawiają osoby w kryzysie psychicznym. Dobry terapeuta powinien to wyłapać. Chatbot tego nie wyłapie – mówi ekspert, zwracając także uwagę na to, że AI wymaga wytrenowania na odpowiednio przygotowanych treściach, by mogła być skuteczna we wsparciu osób w spektrum autyzmu lub schizofrenii.

Dr Agnieszka Karlińska, badaczka z NASK, dodaje, że chatboty mogą mieć różne "osobowości", co z jednej strony zachęca do ich używania, ale z drugiej strony niesie ryzyko, że osoby z poważniejszymi problemami psychicznymi zrezygnują z kontaktu z profesjonalistami. –  – Często możemy wybrać typ terapeuty czy rozmówcy: czy ma to być bardziej coach, czy może kumpel. Istnieje ryzyko, że poprzestaniemy na interakcjach z tak spersonalizowanym chatbotem i nie pójdziemy już do terapeuty – podkreśla.

Ograniczone badania i skuteczność na krótką metę
Choć niektóre aplikacje terapeutyczne mogą wydawać się skuteczne, badania potwierdzające ich długotrwałą efektywność są rzadkie. – Nie ma długoterminowych, rzetelnych badań potwierdzających, że aplikacje rzeczywiście skutecznie leczą zaburzenia depresyjne – zaznacza dr Karlińska. Wspomina, że choć firmy oferujące takie rozwiązania chwalą się redukcją objawów depresji, to dane te najczęściej opierają się na krótkich okresach ewaluacji.

Na czym polega skuteczność?
Dr Marcin Rządeczka zwraca uwagę, że choć chatboty terapeutyczne mogą okazać się pomocne w monitorowaniu stanu psychicznego pacjentów, ich rola powinna być ściśle określona. W przypadku poważnych zaburzeń, jak schizofrenia czy mania prześladowcza, chatboty mogą wręcz pogarszać stan pacjenta. – ChatGPT może się wydawać bardziej ludzki, bardziej empatyczny, zwłaszcza młodszym użytkownikom, przez swoją płynność konwersacyjną. Możemy pomyśleć, że tzw. terapeutic alliance [kontrakt terapeutyczny], czyli relacja między pacjentem a chatbotem-terapeutą jest silniejsza. I mimo informacji o tym, że nie jest to narzędzie terapeutyczne, może powstać silne zaangażowanie związane właśnie z taką relacją – podkreśla badacz IDEAS NCBR.

Plusy AI: monitorowanie i dostępność
Mimo słabości, chatboty terapeutyczne mają też swoje zalety. Przede wszystkim mogą ułatwić dostęp do pomocy psychologicznej w sytuacjach, gdy  pacjent musiałby długo czekać na wizytę u psychoterapeuty. – Chatboty mogą wspierać sesje terapeutyczne, pomagając pacjentom w monitorowaniu postępów, zwłaszcza w ramach terapii poznawczo-behawioralnej – mówi dr Karlińska. Narzędzia te mogą również pomóc w śledzeniu na bieżąco postępów w terapii, co pozwoli pacjentom lepiej dbać o swój dobrostan psychiczny.

Przyszłość AI w terapii
Eksperci zgodnie twierdzą, że sztuczna inteligencja może być wykorzystywana w terapii, ale nigdy nie zastąpi kontaktu z drugim człowiekiem. Z perspektywy relacji terapeutycznej kluczowe jest zaufanie i głęboka empatia, której AI nie jest w stanie zapewnić. – Sztuczna inteligencja może być narzędziem, ale terapeuta, który ją stosuje, musi zrozumieć jej ograniczenia. Chatboty mogą wspierać, ale ostateczna decyzja o przebiegu terapii zawsze należy do człowieka. Podejście human in the loop jest tutaj niezbędne. Terapeuta ze sztuczną inteligencją może być lepszym terapeutą niż terapeuta bez sztucznej inteligencji, ale na pewno nie chodzi o to, żeby AI ich zastąpiła – podsumowuje dr Rządeczka.
 
 
dr Agnieszka Karlińska – badaczka, p.o. kierownika Zakładu Inżynierii Lingwistycznej i Analizy Tekstu NASK PIB. W NASK PIB kieruje projektem PLLuM (Polish Large Language Model), którego celem jest stworzenie otwartego polskiego dużego modelu językowego, oraz współtworzy narzędzia do wykrywania treści szkodliwych i obraźliwych, takich jako mowa nienawiści.
 
dr Marcin Rządeczka – kierownik Laboratorium Badań nad Multimodalnością MultiLab oraz zastępca dyrektora Instytutu Filozofii UMCS w Lublinie, członek zespołu badawczego „Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR. Bada rolę sztucznej inteligencji w kontekście zdrowia psychicznego, w tym autyzmu, schizofrenii czy choroby afektywnej dwubiegunowej oraz modele obliczeniowe w psychiatrii.


źródło: Ro Team