Z tego artykułu dowiesz się:
- Jak intensywne korzystanie z AI może wpłynąć na zdrowie psychiczne użytkowników?
- Jakie są potencjalne zagrożenia związane z traktowaniem AI jako powiernika i doradcy?
- Dlaczego konieczne są regulacje dotyczące korzystania z narzędzi AI?
AI miało odciążać z wykonywania żmudnych czynności i usprawniać różne procesy. Teraz zaczyna odbierać ludziom prawdziwe relacje i kontakt z rzeczywistością.
Z chatbotów, m.in. Chata GPT, korzysta niemal 70 proc. badanych Polaków (badanie KPMG). Większość osób przyznaje, że promptuje chaty do pomocy w pracy czy researchu, by zdjąć z siebie nadmiar obowiązków. Coraz wyraźniej widać jednak nowe, cyberpunkowe zastosowanie AI – traktowanie sztucznej inteligencji jako powiernika, doradcy, a nawet przyjaciela.
Budując relację z chatbotem, osoby potrafią polegać na jego odpowiedziach oraz szukać w narzędziu zrozumienia i akceptacji swoich uczuć.
Eksperci, między innymi duński psychiatra Søren Dinesen Østergaard, zwracają uwagę, że intensywne i długotrwałe interakcje z chatem mogą prowadzić do tzw. „psychozy AI”, fenomenu, który nie ma jeszcze klinicznej diagnozy, ale staje się realnym problemem.