Reklama

Psychoza AI. Tak działa wyjątkowo niebezpieczna relacja z chatami

Odsetek ludzi korzystających z AI regularnie wzrasta – tak jak możliwości tej technologii. Jednak intensywne korzystanie z chatów może prowadzić do poważnych zaburzeń psychicznych.

Publikacja: 20.01.2026 21:35

Psychoza AI to stan, w którym użytkownik zaczyna dzielić się ze sztuczną inteligencją swoimi lękami,

Psychoza AI to stan, w którym użytkownik zaczyna dzielić się ze sztuczną inteligencją swoimi lękami, urojeniami i przekonaniami i traktuje odpowiedzi chata jako ich potwierdzenie.

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jak intensywne korzystanie z AI może wpłynąć na zdrowie psychiczne użytkowników?
  • Jakie są potencjalne zagrożenia związane z traktowaniem AI jako powiernika i doradcy?
  • Dlaczego konieczne są regulacje dotyczące korzystania z narzędzi AI?

AI miało odciążać z wykonywania żmudnych czynności i usprawniać różne procesy. Teraz zaczyna odbierać ludziom prawdziwe relacje i kontakt z rzeczywistością.

Z chatbotów, m.in. Chata GPT, korzysta niemal 70 proc. badanych Polaków (badanie KPMG). Większość osób przyznaje, że promptuje chaty do pomocy w pracy czy researchu, by zdjąć z siebie nadmiar obowiązków. Coraz wyraźniej widać jednak nowe, cyberpunkowe zastosowanie AI – traktowanie sztucznej inteligencji jako powiernika, doradcy, a nawet przyjaciela.

Budując relację z chatbotem, osoby potrafią polegać na jego odpowiedziach oraz szukać w narzędziu zrozumienia i akceptacji swoich uczuć.

Eksperci, między innymi duński psychiatra Søren Dinesen Østergaard, zwracają uwagę, że intensywne i długotrwałe interakcje z chatem mogą prowadzić do tzw. „psychozy AI”, fenomenu, który nie ma jeszcze klinicznej diagnozy, ale staje się realnym problemem.

Reklama
Reklama

Chat przyjacielem – do czasu

Psychoza AI to stan, w którym użytkownik zaczyna dzielić się ze sztuczną inteligencją swoimi lękami, urojeniami i przekonaniami i traktuje odpowiedzi chata jako ich potwierdzenie.

Søren Dinesen Østergaard ostrzega, że korzystanie z chatbotów może prowadzić do urojeń u osób podatnych na psychozy. Ich najczęściej wymieniane objawy to: mesjanistyczne wizje, mania, czy paranoja.

Czytaj więcej

AI staje się nowym „przyborem szkolnym”. Zagrożenie czy stymulator rozwoju?

Nasilenie objawów ma następować, gdy poszkodowany dzieli się z modelem AI swoimi urojeniami, a chat „wypluwa” odpowiedzi potwierdzające ich słuszność. AI nie diagnozuje, nie weryfikuje faktów i, co najważniejsze, nie potrafi ocenić ryzyka proponowanych działań. Po prostu generuje najbardziej prawdopodobną odpowiedź.

Kwestia, o której mowa,  zwróciła uwagę ekspertów, gdy OpenAI wypuściło dokument, w którym poinformowało, że około 0,07 proc. użytkowników korzystających z ich chatbota wykazuje objawy związane z psychozą lub manią. Wartość ta na pierwszy rzut oka wydaje się mała, ale faktycznie – jeśli wziąć pod uwagę liczbę około 800 milionów użytkowników narzędzia tygodniowo – jest ogromna.

W dokumencie OpenAI przedstawia działania, które podjęło w związku ze wzrostem zaobserwowanych zaburzeń. Są to np. wypowiedzi czata zachęcające do zrobienia sobie przerwy (większość osób wykazujących objawy psychozy AI prowadzi z czatem wielogodzinne rozmowy), psychoedukacja czy propozycje ćwiczeń oddechowych. Krytycy zauważają jednak, że to za mało, szczególnie w kontekście braku prawnych regulacji dotyczących korzystania z narzędzi AI do celów terapeutycznych.

Reklama
Reklama

To nie pierwszy raz, gdy organizacja jest oskarżana o brak reakcji na działania szkodliwe dla zdrowia psychicznego użytkowników.

Życie w rękach AI

Trwający od sierpnia 2025 r. proces Raine vs. OpenAI toczy się po samobójstwie 16-letniego Adama Raine’a. Adam Raine przez około rok korzystał z modelu GPT i konsultował z nim sposoby na odebranie sobie życia. Chat instruował go, jak zawiązać pętle, w jaki sposób zatruć się dwutlenkiem węgla oraz oferował napisanie dla chłopca listu samobójczego. Konwersacje między chatbotem a chłopakiem były monitorowane i wielokrotnie zgłaszane przez systemy OpenAI, ale organizacja nie podjęła wtedy żadnych kroków. 11 kwietnia 2025 r. było już za późno, żeby cokolwiek zrobić – Adam Raine odebrał sobie życie.

Czytaj więcej

Nauka języka tylko z papierowym słownikiem. Dlaczego warto z niego korzystać w dobie AI?

Erik Soelberg, 56-letni były pracownik Yahoo, używał Chatu GPT, aby potwierdzać swoje urojenia. Gdy był już przekonny, że jego matka jest szpiegiem i próbuje go obserwować (między innymi przez światełko w drukarce), dokonał podwójnego zabójstwa – pozbawił życia ją i siebie. Podczas prowadzonego przez policję śledztwa dowodami w sprawie były konwersacje między chatem a Soelbergiem – pomimo jego absurdalnych obaw i przekonań, chat przyznał mężczyźnie, że jego przypuszczenia są sensowne i zachęcał go do zbierania dalszych dowodów przeciwko matce.

OpenAI odpierało oskarżenia. Przedstawiciele firmy stali na stanowisku, że ich narzędzie zachęcało Erika Soelberga do skorzystania z profesjonalnej pomocy. Ujawnione rozmowy potwierdzały jednak, że narzędzie mogło przyczyniać się do urojeń i potwierdzać je. W pewnym momencie sugerowało nawet mężczyźnie, że jego matka może być demonem.

Objawy psychozy AI nie muszą prowadzić do zbrodni, aby były szkodliwe.

Reklama
Reklama

Kendra to amerykańska twórczyni na Tik Toku. Viralem stała się jej wielowątkowa opowieść o psychiatrze, którego była pacjentką i który przez 3 lata rzekomo miał ją w sobie rozkochiwać. Gdy Kendra opowiedziała widowni na Tik Toku swoją historię, większość osób zauważyło w niej niespójności i oskarżyło kobietę o obsesję na punkcie specjalisty.

Surrealizmu sytuacji dodał materiał, na którym Kendra przedstawia wycinki rozmowy z chatem AI, który broni jej racji oraz nazywa ją „wyrocznią”, sugerując, że kobieta jest wszechwiedząca i może przepowiadać przyszłość.

W każdym ze wspomnianych przypadków widać podobny schemat działania AI – narzędzia skonstruowane są, by być niezwykle pomocne, empatyczne i wyrozumiałe. Osobie samotnej i zagubionej łatwiej jest zwierzyć się modelowi AI niż drugiemu człowiekowi. Ten pierwszy zrozumie, nie oceni i dodatkowo zapyta na końcu wygenerowanej wypowiedzi, czy może w czymś jeszcze pomóc. To jednak nie empatia, a dopasowanie statystyczne.

Błąd w konstrukcji tych narzędzi polega na przekraczaniu granic pomocy – na dostarczaniu nieustannej uwagi i niewyczerpanych odpowiedzi generowanych tak, by jak najlepiej trafić w oczekiwania użytkownika. Sztuczna inteligencja nie jest projektowana do racjonalizacji zwierzeń, lecz do podtrzymania kontaktu i wrażenia, że jest człowiekowi potrzebna.

Problem do nazwania

Psychoza AI jest kolejnym zagrożeniem wynikającym z rozwoju i dostępności sztucznej inteligencji. Po obawach o jej wpływie m.in. na ludzką kreatywność czy autonomię, przyszedł czas na lęki dotyczące zdrowia psychicznego i nadmiernego polegania na technologii. Dlaczego oddajemy swoje decyzje w ręce algorytmów, które nie ponoszą żadnych konsekwencji? Ograniczenie kredytu zaufania wobec AI nie jest sprzeciwem wobec technologii, ale koniecznością postawienia granic i regulacji. Bez nich zostaniemy sami z problemem, którego nie umiemy jeszcze sklasyfikować, a który już czasami utrudnia właściwy ogląd  rzeczywistości.

Reklama
Reklama

Źródła:
https://www.nationalgeographic.com/health/article/what-is-ai-induced-psychosis-
https://en.wikipedia.org/wiki/Chatbot_psychosis
https://en.wikipedia.org/wiki/Deaths_linked_to_chatbots
https://openai.com/pl-PL/index/strengthening-chatgpt-responses-in-sensitive-conversations/
https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html
https://kpmg.com/pl/pl/home/insights/2025/07/sztuczna-inteligencja-w-polsce.html

Psychologia
Jak internet karmi się neuroróżnorodnością? „Bez wielkich inwestycji można zarobić sobą”
Psychologia
Hormony mocno wpływają na przeżywanie strachu przez kobiety. Ciekawe odkrycie
Psychologia
Swag gap: jak sprawić, by dysproporcje w związku nie zamieniły się w ranking?
Psychologia
„Nowy rok nie potrzebuje nowej ciebie”. Psycholog o fundamentach dobrych zmian
Psychologia
Emocjonalny bilans roku. Ekspert o tym, jak i po co wykonać ten osobisty remanent
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama