
W najnowszym odcinku podcastu “Historie Jutra” Kasia i Przemek rozmawiają o zmianach, jakie dokonały się w zakresie wykorzystania sztucznej inteligencji od zeszłego roku. Jak się okazuje, coraz więcej użytkowników sięga po AI w celach terapeutycznych. Czy to bezpieczny kierunek?
Terapia z AI? Alarmujące trendy
Podążając za artykułem, opublikowanym w kwietniu na łamach brytyjskiego “The Times”, młodzi Brytyjczycy, zamiast do psychiatrów i psychoterapeutów, udają się po pomoc do sztucznej inteligencji. Powodów takiego stanu rzeczy nie brakuje – niewydolność publicznej służby zdrowia i wysokie koszty prywatnych świadczeń to te, wysuwające się na pierwszy plan. Brzmi znajomo? Z pewnością alarmująco i z tego też powodu przyglądamy się tematowi bliżej.
Słyszymy o tym trendzie, młodzi ludzie traktują chata GPT jako ekwiwalent drugiego człowieka, przyjaciela, a nawet terapeutę. Nie mają do kogo się zwrócić ze swoimi problemami w swoim środowisku, wiek dojrzewania jest taki, że nie biegnie się z tym do rodziców. Młodzi ludzie szukają rozwiązań tu i teraz, a chat GTP przekazuje im informacje bardzo wzmacniające. Jednak z tym się wiążą pewne zagrożenia, bo sztuczna inteligencja nie skonfrontuje młodego człowieka z jego realnym problemem zdrowotnym
– wskazuje lek. Aleksandra Olawska-Szymańska, specjalistka psychiatrii oraz psychiatrii dzieci i młodzieży ze Świętokrzyskiego Centrum Psychiatrii.
ChatGPT vs. lekarz rodzinny
Z drugiej strony, umiejętnie wykorzystany ChatGPT może zdziałać wiele dobrego w kontekście zdrowia psychicznego. Najlepszym tego przykładem jest analiza naukowa, opisana na łamach British Medical Journal, zestawiająca rekomendacje ChatGPT-3.5, ChatGPT-4 oraz prawdziwych lekarzy pierwszego kontaktu dla różnych profili osób cierpiących na depresję.
Jak możemy w niej przeczytać:
Tylko nieco ponad 4% lekarzy rodzinnych zaleciło wyłącznie skierowanie na psychoterapię w łagodnych przypadkach, zgodnie z wytycznymi klinicznymi, podczas gdy w badaniach ChatGPT-3.5 i ChatGPT-4 ta opcja była wybierana odpowiednio w 95% i 97,5% sytuacji [...]. W ciężkich przypadkach większość lekarzy zalecała psychoterapię plus przepisane leki (44,5%). ChatGPT proponował to częściej niż lekarze (72% ChatGPT 3,5; 100% ChatGPT 4 zgodnie z wytycznymi klinicznymi). Czterech na dziesięciu lekarzy proponowało wyłącznie przepisane leki, czego żadna wersja ChatGPT nie zalecała.
Choć badacze wskazują, że sztuczna inteligencja nie powinna nigdy zastępować ludzkiej oceny klinicznej w diagnozie lub leczeniu depresji, badanie sugeruje, że ChatGPT ma potencjał usprawnienia podejmowania decyzji w podstawowej opiece zdrowotnej.
Sztuczna inteligencja w psychoterapii – zagrożeń nie brakuje
Jak zgodnie twierdzą eksperci, sztuczna inteligencja może znaleźć zastosowanie w terapii, lecz w żadnym wypadku nie zastąpi kontaktu z profesjonalistą.
Terapeuta ze sztuczną inteligencją może być lepszym terapeutą niż terapeuta bez sztucznej inteligencji, ale na pewno nie chodzi o to, żeby AI ich zastąpiła
– wskazuje dr Marcin Rządeczka, członek zespołu badawczego “Psychiatria i fenomenologia obliczeniowa” w IDEAS NCBR.
Podczas terapii kluczowe znaczenie mają elementy, takie jak fizyczna obecność drugiego człowieka, jego inteligencja emocjonalna oraz zdolność do wyłapania ewentualnych kłamstw czy autooszukiwania. Sprawczość pozostaje w każdym wypadku po stronie pacjenta, który może liczyć jedynie na pomocną dłoń i przewodnictwo swojego terapeuty. Nie zawsze jest to łatwe.
Korzystając z AI, otrzymujemy zaś narzędzie wygodne, dostępne na wyciągnięcie ręki i podsuwające pod nos gotowe wzorce postępowania. Chatbot nie jest nastawiony na konfrontację. Wręcz przeciwnie, jego rola ogranicza się do troski o możliwie największy komfort użytkownika, który może go dowolnie personalizować aż do granic, skądinąd ryzykownej, antropomorfizacji.
Skutek? Zwiększone ryzyko wystąpienia placebo – złudnego wrażenia poprawy samopoczucia – i rezygnacji z sięgnięcia po profesjonalną pomoc.
Często możemy wybrać typ terapeuty czy rozmówcy: czy ma to być bardziej coach, czy może kumpel. Istnieje ryzyko, że poprzestaniemy na interakcjach z tak spersonalizowanym chatbotem i nie pójdziemy już do terapeuty
– przestrzega dr Agnieszka Karlińska, badaczka z NASK.
Chatbot chatbotowi nierówny
Abstrahując od rozbieżnych celów terapii oraz sztucznej inteligencji, zasadnicze znaczenie ma baza danych, którą karmiony jest dany algorytm. W tym właśnie miejscu rozwinięcia doczeka się “wart miliony dolarów” pomysł Kasi i Przemka odnośnie do aplikacji, bazującej na najlepszej wiedzy psychologicznej. Niestety albo stety… ktoś wpadł na niego już wcześniej.
Mowa o tzw. chatbotach terapeutycznych, skierowanych do konkretnej grupy odbiorców (np. osób z zaburzeniami lękowymi lub depresją), odpowiednio zabezpieczonych, opartych na sprawdzonych technikach oraz trenowanych na specjalistycznych danych (notatki terapeutów, dokumentacja medyczna, zapisy rozmów, podręczniki, narzędzia diagnostyczne itp.). Jako przykład tego typu rozwiązań wskazać można aplikacje Wysa, Youper czy Woebot Health.
Choć nie zastąpią one terapeuty, stanowią cenne narzędzie do pracy własnej (poprzez konkretne ćwiczenia, wskazówki, zadania do rozwiązania) oraz wsparcie w monitoringu zdrowia, a w razie potrzeby – przekierowują użytkownika do specjalisty.
Chatboty terapeutyczne wciąż nie dorównują najpopularniejszym modelom pod względem reprezentatywności, płynności konwersacji czy korygowania błędów poznawczych, co jest bezpośrednią konsekwencją ograniczonej bazy danych, na której pracują. Ich przyspieszony rozwój wydaje się jednak kwestią czasu.
Źródło:
- Podcast “Szerszy kontekst AI”, IDEAS NCBR
- The Times UK
- PAP
- Family Medicine and Community Health, The British Medical Journal
Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!