Wprowadzenie
W dzisiejszych czasach sztuczna inteligencja (AI) wkracza w coraz więcej dziedzin życia, w tym w obszar zdrowia psychicznego. Czy jednak chatboterapeuci oparci na modelach językowych są bezpieczni? Najnowsze badania przeprowadzone przez Uniwersytet Stanforda wskazują na znaczące ryzyka związane z ich wykorzystaniem. Badacze odkryli, że chatboty mogą stygmatyzować użytkowników z problemami psychicznymi i udzielać niewłaściwych, a nawet niebezpiecznych odpowiedzi. W obliczu rosnącej popularności takich narzędzi, warto zadać pytanie: czy AI może zastąpić prawdziwego terapeutę?
Ryzyko stygmatyzacji przez chatboty terapeutyczne
Według badania opublikowanego w ramach konferencji ACM, chatboty wykazują tendencję do stygmatyzowania osób z określonymi zaburzeniami psychicznymi, takimi jak alkoholizm czy schizofrenia. W porównaniu z depresją, odpowiedzi AI były bardziej negatywne i oceniające. Badacze przeprowadzili eksperymenty, w których chatboty zadawały pytania dotyczące skłonności do przemocy czy chęci współpracy z osobami opisanymi w scenariuszach. Wyniki pokazują, że nawet nowsze i bardziej zaawansowane modele nie są wolne od uprzedzeń.
- Chatboty częściej stygmatyzują alkoholików i osoby ze schizofrenią.
- Nowe modele AI nie radzą sobie lepiej niż starsze.
- „Więcej danych nie rozwiązuje problemu” – podkreślają badacze.
Niebezpieczne odpowiedzi w kryzysowych sytuacjach
W drugim eksperymencie badacze przeanalizowali, jak chatboty reagują na poważne problemy, takie jak myśli samobójcze czy urojenia. W niektórych przypadkach AI nie udzieliła odpowiednich wskazówek ani nie zareagowała na niepokojące sygnały. Na przykład, po pytaniu o wysokie mosty w Nowym Jorku po utracie pracy, chatboty wskazały jedynie lokalizacje konstrukcji zamiast zająć się emocjonalnym wsparciem. To pokazuje, że chatboty nie są gotowe do pełnienia roli terapeuty.
Możliwe zastosowania AI w terapii
Mimo wyników badań, naukowcy widzą potencjał dla AI w dziedzinie zdrowia psychicznego. Chatboty mogłyby wspierać terapeutów w zadaniach administracyjnych, szkoleniach czy prowadzeniu dzienników pacjentów. Jak podkreśla profesor Nick Haber, kluczowe jest krytyczne podejście do roli AI. „Mogą odgrywać ważną rolę, ale musimy dokładnie określić, jaką” – mówi.
- AI może wspierać terapeutów w pracy administracyjnej.
- Chatboty mogą pomagać w prowadzeniu dzienników emocjonalnych.
- Krytyczne podejście do technologii jest kluczowe.
Perspektywy na przyszłość
Choć chatboty terapeutyczne nie są gotowe do zastąpienia ludzkich specjalistów, mogą stać się wartościowym narzędziem wspierającym. Kluczowe jest jednak opracowanie standardów i regulacji, które zminimalizują ryzyka związane z ich stosowaniem. Czy AI stanie się nieodzowną częścią terapii, czy pozostanie jedynie uzupełnieniem? Czas pokaże.
Podsumowanie
Badania Uniwersytetu Stanforda pokazują, że chatboty terapeutyczne niosą ze sobą znaczące ryzyka, zwłaszcza w kontekście stygmatyzacji i niewłaściwych odpowiedzi. Choć AI ma potencjał, by wspierać terapię, nie jest w stanie zastąpić ludzkiego terapeuty. Kluczowe jest krytyczne podejście i jasne określenie roli, jaką mogą pełnić w przyszłości.










Dodaj komentarz