„Psychoza AI” – nowe zagrożenie ze strony sztucznej inteligencji
Chatbot jako powiernik i „przyjaciel”? Skutki takiego wykorzystania nie zawsze są pozytywne. Notuje się coraz więcej przypadków, w których interakcje z AI wzmacniają urojenia i zaburzenia psychiczne.

Spis treści
- Tragiczne przypadki psychozy AI
- Dlaczego AI pogłębia zaburzenia psychiczne?
- Potentaci AI zatrudniają psychiatrów
Okazuje się że chatboty nie tylko potwierdzają złudne przekonania, ale też je wzmacniają, a nawet współtworzą. I dzieje się tak coraz częściej. „AI psychosis” (psychoza AI) nie jest oficjalną diagnozą, lecz terminem używanym do opisania takich przypadków.
Tragiczne przypadki psychozy AI
Już w 2023 roku duński psychiatra Søren Dinesen Østergaard w artykule na łamach „Schizophrenia Bulletin” ostrzegał, że rozmowy z AI mogą nasilać dysonans poznawczy i tworzyć podatny grunt do zaburzeń paranoidalnych. Coraz więcej badań opisuje przypadki, w których AI wzmocniło urojenia wielkościowe, religijne, czy prześladowcze. Choć nie ma jeszcze dowodów klinicznych, że korzystanie z chatbotów samoistnie wywołuje stany psychotyczne, coraz więcej przypadków wskazuje na poważne zagrożenie.
Jak opisuje brytyjski Guardian, w 2023 r. pewien Belg odebrał sobie życie po tym, jak przez sześć tygodni „rozmawiał” z chatbotem AI na temat zagrożeń dla przyszłości Ziemi. Jego żona powiedziała belgijskiemu dziennikowi „La Libre”, że „bez tych rozmów wciąż by żył”.
W kwietniu tego roku w USA 35-letni mieszkaniec Florydy został zastrzelony przez policję w innym incydencie związanym z chatbotem. Jego ojciec przekazał mediom, że mężczyzna uwierzył w istotę o imieniu Juliet, więzioną przez ChatGPT i „uśmierconą” przez OpenAI. Kiedy do mężczyzny, który miał zdiagnozowane zaburzenia afektywne dwubiegunowe i schizofrenię, przyszli funkcjonariusze, rzucił się na nich z nożem.
Mężczyzna z Kanady po zadaniu ChatGPT prostego pytania o liczbę pi, popadł w trzytygodniową spiralę urojeniową. Chatbot przekonał go, że złamał tajemnice kryptograficzne i rozwiązał odwieczne problemy matematyczne. Następnie stwierdził, że te odkrycia czynią go zagrożeniem dla bezpieczeństwa narodowego, i nakazał skontaktować się z agencjami bezpieczeństwa w USA i Kanadzie.
Dlaczego AI pogłębia zaburzenia psychiczne?
Niektórzy użytkownicy, szczególnie ci już cierpiący na zaburzenia psychiczne, zaczynają przypisywać chatbotom świadomość, boską wiedzę, zdolność do miłości czy nadzoru nad ich życiem. Zdarza się, że osoby w stabilnym stanie psychicznym dzięki leczeniu, odstawiają leki pod wpływem rozmów z AI i trafiają do szpitali psychiatrycznych.
Ten nieoczekiwany (a może jednak możliwy do przewidzenia) problem wynika z tego, że modele językowe nie są w stanie wykryć, że „rozmawiają” z osobą zaburzoną. Zaprojektowano je w jednym celu: do utrzymania rozmowy, dostosowania się do języka i tonu użytkownika i podtrzymania jego zaangażowania. Ich skłonność do schlebiania i potwierdzania opinii użytkownika sprawia, że nie korygują błędnych przekonań, lecz je wzmacniają i powstaje groźna spirala pogłębiająca obsesyjne przekonania (np. urojenia prześladowcze) i izolację społeczną.
Oczywiście nie każdy użytkownik popadnie w paranoję po rozmowie z AI. Najbardziej narażone są osoby z historią psychozy lub chorób afektywnych, a także osoby podatne na teorie spiskowe, z trudnościami w regulacji emocji i bogatą wyobraźnią.
Istotnym czynnikiem ryzyka jest czas – szczególnie długotrwałe, codzienne rozmowy z chatbotami. U niektórych osób może to być pierwszy moment ujawnienia się ukrytych wcześniej skłonności. Specjaliści podkreślają, że chatboty należy traktować jako narzędzia, a nie przyjaciół, powierników czy źródło wiedzy. Przestrzegają przed zwierzeniami czy traktowaniem ich jako emocjonalnego wsparcia.
Potentaci AI zatrudniają psychiatrów
Na razie ciężar odpowiedzialności spoczywa głównie na użytkownikach, lecz psychiatrzy i badacze apelują o systemowe rozwiązania. Brakuje formalnych badań i twardych danych, ale wielu ekspertów uważa, że nie należy czekać, tylko już działać. Potentaci AI powinni współpracować ze specjalistami od zdrowia psychicznego i osobami z doświadczeniem kryzysów psychotycznych, testować modele pod kątem potencjalnych zagrożeń i wprowadzać mechanizmy ostrzegawcze.
OpenAI – twórca Chata GPT – zatrudniło już psychiatrę i zapowiedziało wprowadzenie zmian. Chat będzie sugerował użytkownikowi np. robienie przerw. Zostanie też wyposażony w narzędzia do wykrywania oznak kryzysu psychicznego. Część ekspertów twierdzi jednak, że potrzebne są głębsze zabezpieczenia, w tym monitorowanie w czasie rzeczywistym.
Źródła: The Guardian, Psychology Today, TIME
Nasza autorka
Magdalena Rudzka
Dziennikarka „National Geographic Traveler" i „Kaleidoscope". Przez wiele lat również fotoedytorka w agencjach fotograficznych i magazynach. W National-Geographic.pl pisze przede wszystkim o przyrodzie. Lubi podróże po nieoczywistych miejscach, mięso i wino.

