AI pomaga diagnozować problemy psychiczne i radzić sobie z nimi. Co potrafi?

W kryzysie psychicznym pomocna bywa rozmowa. Gdy jednak terapeuta jest nieosiągalny, a u boku brak bliskiej osoby, warto rozważyć aplikacje oparte na sztucznej inteligencji. Jak działają w diagnozowaniu schorzeń związanych ze zdrowiem psychicznym?

Publikacja: 25.10.2024 10:48

Aplikacje bazujące na sztucznej inteligencji mają za zadanie nie tylko wesprzeć pacjenta w sytuacji,

Aplikacje bazujące na sztucznej inteligencji mają za zadanie nie tylko wesprzeć pacjenta w sytuacji, gdy ma problem z dostępem do specjalisty.

Foto: Adobe Stock

Bazujące na sztucznej inteligencji narzędzia używane w medycynie mogą skutecznie wesprzeć pracę lekarzy, analizując mnóstwo danych w czasie rzeczywistym, czy też w precyzyjny sposób oznaczając zmiany nowotworowe na etapie diagnostyki obrazowej. Czy stan psychiczny pacjenta można poddać podobnej analizie? W jaki sposób nowoczesne technologie oparte na sztucznej inteligencji mogą okazać się skuteczne w diagnozowaniu zaburzeń psychicznych? Komentarza na ten temat udziela dr Roland Zarzycki, doktor nauk matematycznych oraz doktor nauk humanistycznych, wicedyrektor Instytutu Myśli Politycznej im. Gabriela Narutowicza, adiunkt w Katedrze Socjologii Collegium Civitas.

Czytaj więcej

Polscy naukowcy sprawdzają, czy AI zastąpi lekarza. Kobiety odgrywają ważną rolę w projekcie

Narzędzia AI skuteczne w rozpoznaniu subtelnych zmian w głosie pacjenta

Choć trudno wyobrazić sobie, aby nawet najbardziej zaawansowana technologicznie aplikacja mogła pomóc pacjentowi w przezwyciężeniu kryzysu psychicznego w jakim się znalazł w wyniku doświadczanych latami traum czy zaskakujących przeżyć takich jak utrata najbliższej osoby, to jednak nie zawsze istnieje możliwość skorzystania ze wsparcia terapeuty lub zwrócenia się do przyjaciela gotowego wysłuchać i otoczyć opieką osobę borykającą się z trudnościami. Opór przed zwróceniem się do specjalisty, wyzwania związane z organizacją wizyty w czasie, gdy pomoc potrzebna jest najbardziej, a także oczekiwanie na umówione z dużym wyprzedzeniem spotkanie mogą sprawić, że we wskazanym momencie pacjent pozostaje ze swoimi rozterkami sam na sam.

Aplikacje bazujące na sztucznej inteligencji mają za zadanie nie tylko wesprzeć pacjenta w sytuacji, gdy napotka na powyższe ograniczenia, ale i wspomóc pracę terapeuty, który w natłoku zobowiązań zawodowych może zostać odciążony we wstępnych etapach diagnozowania schorzeń u danej osoby. Na podstawie tonu, rytmu i natężenia głosu pacjenta narzędzia AI mogą wskazać na szereg zaburzeń, takich jak stany lękowe czy depresja, ze skutecznością przewyższającą konwencjonalne metody diagnostyczne. Tak działa między innymi model AI opracowany przez badaczy z South-Central Minzu University w Chinach. Zwraca on uwagę na subtelne zmiany w głosie pacjenta, które mogą okazać się trudne do wychwycenia dla ludzkiego ucha.

Czytaj więcej

Prezenterki stworzone przez AI w meksykańskiej telewizji. "Świetnie sobie radzą"

AI w diagnostyce psychiatrycznej: ryzyko przemocy komunikacyjnej wobec pacjenta

Choć zasilany ogromną ilością danych model ma możliwość wychwycenia niuansów głosu w sposób bardziej precyzyjny, niż mógłby to zrobić specjalista, to jednak takie działania wiążą się z istotnymi ograniczeniami. – Prosta odpowiedź na pytanie, czy to możliwe, by narzędzia AI mogły wesprzeć pacjenta w kwestiach związanych z jego zdrowiem psychicznym, brzmi: tak, to możliwe. Jeśli jednak przyjrzeć się temu zagadnieniu bliżej, okazuje się, że jest ono złożone, a odpowiedź znacznie mniej oczywista. Przede wszystkim zwrócić należy uwagę na kwestię kontekstu i tego, w jak szerokim horyzoncie analizuje się temat. Jak wiadomo, współcześnie tworzone modele AI mają wciąż problemy z uchwytywaniem właściwego kontekstu, zwłaszcza w odniesieniu do sytuacji rzadkich i nietypowych. Choć są one świetne w wyłapywaniu wszelkich, nawet najdrobniejszych wzorców pojawiających się w zachowaniu człowieka, jednocześnie nie radzą sobie najlepiej w sytuacjach, w których zachowanie człowieka przyjęte wzorce przekracza lub kwestionuje. W takich wypadkach ich diagnoza może okazać się zbyt mało subtelna, a nawet doprowadzić do wyniknięcia swego rodzaju przemocy komunikacyjnej wobec pacjenta. Mimo niesamowitych osiągnięć sztucznych inteligencji nasze zaufanie do nich, zwłaszcza w kontekście zdrowotnym, powinno pozostawać ograniczone. Tym bardziej biorąc pod uwagę, że mechanizm ich działania ma charakter czarnych skrzynek – zauważa dr Roland Zarzycki.

Czytaj więcej

Nowe technologie w biznesie okiem kobiet: chęci są większe niż zyski. Badanie

AI: brak odpowiedzi na pytania o sens życia

Przy doraźnym wsparciu w sytuacji, gdy pacjent nie ma możliwości konsultacji ze specjalistą, bazujące na sztucznej inteligencji narzędzia mogą okazać się skuteczne. Jednak nawet bezbłędnie przeprowadzona analiza nie może równać się z potęgą relacji z drugim człowiekiem, reagującym z empatią na otrzymywane na bieżąco informacje od pacjenta. – Jeśli oczekujemy doraźnego wsparcia czy zapewnienia samego kontaktu z drugą, w jakimś sensie empatyczną i rozumiejącą istotą, to obecnie dostępne sztuczne inteligencje tego typu pomoc umieją zapewnić. Dość dobrze potrafią symulować zachowanie drugiego człowieka. Należy jednak pamiętać, że nie zastąpią one głębi rozumienia i empatii ludzkiej, tym bardziej zaś kontaktu bezpośredniego. Nawet jeśli w pewnych wymiarach tego człowieka przewyższają – zauważa dr Zarzycki.

Jak podkreśla ekspert, szereg pytań, z jakimi mierzą się pacjenci korzystający ze wsparcia terapeutycznego, pozostaje poza zasięgiem nawet najbardziej wyrafinowanych narzędzi technologicznych. – Co również niezwykle istotne, sztuczne inteligencje nie znają odpowiedzi na problemy egzystencjalne, odpowiedzi na pytania o sens istnienia czy o doznania stanów przekraczających codzienne konteksty i emocje. Nie znają ich choćby dlatego, że nie istnieją zbiory danych, które mogłyby ich w tym zakresie skutecznie wytrenować. Ludzkość sama odpowiedzi na wiele tego rodzaju pytań nie znalazła. Granica zaś między zdrowiem psychicznym a chorobą ma często wiele wspólnego z tego typu refleksjami – podkreśla.

Czytaj więcej

AI partycypuje w tworzeniu powieści. Autorka nagrodzona

Narzędzia AI: wsparcie w diagnostyce, jednak bez możliwości zastąpienia człowieka

O ile przeprowadzone przez AI analizy mogą w istotny sposób wesprzeć terapeutę na wczesnym etapie współpracy z danym pacjentem, to należy wziąć pod uwagę skutki uboczne wynikające z zastosowania takich metod. – Warto wreszcie wspomnieć także kwestię skutków ubocznych, które w tym momencie pozostają w dużej mierze niezbadane i są nieprzewidywalne. Zastępowanie kontaktu z drugim człowiekiem kontaktem z maszyną, choć być może pomocne w zakresie diagnostyki kondycji psychicznej, może nieść za sobą szereg niekorzystnych efektów na innych polach. Podsumowując, warto podkreślić, że diagnozowanie z wykorzystaniem sztucznej inteligencji z pewnością uwzględniane powinno być jako wartościowe narzędzie wspierające pracę psychologa czy psychiatry. Jak bowiem pokazują badania, ten rodzaj wglądów dostarczyć może danych i obserwacji niedostępnych człowiekowi. Jednocześnie dobrze wiemy, że wciąż istnieje szerokie spektrum obserwacji niedostępnych sztucznym inteligencjom. W takich wypadkach człowiek pozostaje niezastępowalny, a tym samym zastępowany być nie powinien – zastrzega dr Zarzycki.

Choć zdiagnozowanie objawów zaburzeń, z jakimi mierzy się dany pacjent, stanowi istotny element procesu terapeutycznego, warto mieć na uwadze, że jest to zaledwie pierwszy krok w leczeniu, które może okazać się długotrwałe i znacznie bardziej złożone niż zakładają to nawet najbardziej technologicznie zaawansowane algorytmy. Podejmując dalsze kroki w procesie powrotu do zdrowia, należy uzyskać wsparcie, które nie będzie miało jedynie doraźnego charakteru.

Źródło:
https://www.economist.com/

Informacje o ekspercie

Dr Roland Zarzycki

Doktor nauk matematycznych oraz doktor nauk humanistycznych, wicedyrektor Instytutu Myśli Politycznej im. Gabriela Narutowicza, adiunkt w Katedrze Socjologii Collegium Civitas. Nauczyciel akademicki, badacz, autor publikacji naukowych i referent na międzynarodowych konferencjach. W roku 2021 wydał monografię "Etyka codzienności – czy można być dobrym po prostu?". Współpracuje międzynarodowo jako ekspert polityczno-ekonomiczny, zwłaszcza w obszarze odpowiedzialności globalnej, ekonomii społecznej, rozwoju sztucznej inteligencji oraz implementacji Celów Zrównoważonego Rozwoju. Współtwórca i koordynator kilkudziesięciu projektów naukowo-badawczych, społecznych, edukacyjnych, kulturalnych, obywatelskich i biznesowych. Członek Rady Sektorowej ds. Kompetencji Sektora Komunikacji Marketingowej. Naukowo zainteresowany przede wszystkim krytyczną analizą fantazji i ideologii w wymiarze społeczno-politycznym oraz w życiu codziennym. 

Bazujące na sztucznej inteligencji narzędzia używane w medycynie mogą skutecznie wesprzeć pracę lekarzy, analizując mnóstwo danych w czasie rzeczywistym, czy też w precyzyjny sposób oznaczając zmiany nowotworowe na etapie diagnostyki obrazowej. Czy stan psychiczny pacjenta można poddać podobnej analizie? W jaki sposób nowoczesne technologie oparte na sztucznej inteligencji mogą okazać się skuteczne w diagnozowaniu zaburzeń psychicznych? Komentarza na ten temat udziela dr Roland Zarzycki, doktor nauk matematycznych oraz doktor nauk humanistycznych, wicedyrektor Instytutu Myśli Politycznej im. Gabriela Narutowicza, adiunkt w Katedrze Socjologii Collegium Civitas.

Pozostało 94% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Zdrowie
Popularne napoje groźne dla zdrowia mózgu. Wyniki badania
Materiał Promocyjny
Telewizor w inteligentnym, bezpiecznym domu
Zdrowie
Kobiety częściej od mężczyzn zapadają na chorobę Alzheimera. Dlaczego tak jest?
Zdrowie
Zmiana czasu zakłóca funkcjonowanie zegara biologicznego. Co to konkretnie oznacza?
Zdrowie
W porównaniu do Europejek Polki rzadziej chorują, ale częściej umierają na raka piersi. Dlaczego?
Zdrowie
Najważniejsze dla efektywności treningu są pierwsze minuty. Nowe ustalenia badaczy