Z tego artykułu dowiesz się:
- Jakie nowe funkcje wprowadza OpenAI w ChatGPT i z jakiego powodu?
- W jaki sposób OpenAI poprawia bezpieczeństwo nastolatków korzystających z ChatGPT?
- Czy wprowadzenie mechanizmu kontroli rodzicielskiej jest odpowiedzią na pozew przeciwko OpenAI?
- Na czym polegają zmiany wprowadzone w modelu GPT-5 w kontekście kryzysu psychicznego?
Jak czytamy w informacji opublikowanej przez OpenAI 2 września, w ciągu najbliższego miesiąca rodzice będą mogli:
- Połączyć swoje konto z kontem nastolatka (minimalny wiek 13 lat) za pomocą prostego zaproszenia e-mail.
- Kontrolować, jak ChatGPT reaguje na zachowania nastolatka za pomocą reguł zachowania dostosowanych do wieku, które są domyślnie włączone (sposób komunikowania się ChatGPT z nastolatkiem jest inny niż z osobą pełnoletnią, OpenAI rozwija tę funkcjonalność, rodzice będą mogli kontrolować, czy sposób porozumiewania się bota z ich dzieckiem im odpowiada).
- Decydować, które funkcje mają zostać wyłączone, w tym pamięć i historia czatów.
- Otrzymywać powiadomienia, gdy system wykryje, że nastolatek znajduje się w stanie silnego stresu. Opinie ekspertów pomogą w dostosowaniu tej funkcji do potrzeb rodziców i nastolatków.
Jak wyjaśnia OpenAI, funkcje kontroli rodzicielskiej uzupełniają rozwiązania, które zostały wdrożone dla wszystkich użytkowników (np. przypomnienia w aplikacji podczas długich sesji zachęcające do robienia przerw).
Przypomnijmy, że 13 lat to minimalny wiek, w którym, przynajmniej teoretycznie, można korzystać z modeli OpenAI. „Musisz mieć co najmniej 13 lat lub minimalny wiek wymagany w Twoim kraju, aby wyrazić zgodę na korzystanie z Usług. Jeśli masz mniej niż 18 lat, musisz mieć zgodę rodzica lub opiekuna prawnego na korzystanie z Usług” – czytamy w Warunkach Użytkowania, jakie akceptujemy korzystając z usług OpenAI.
Oświadczenia OpenAI a pozew przeciwko firmie
Oświadczenie OpenAI z 2 września było już drugim dotyczącym kwestii bezpieczeństwa wystosowanym w ostatnich dniach przez tę firmę (wcześniejsze pochodziło z 26 sierpnia). Media łączą te działania z pozwem złożonym przeciwko tej firmie przez Matta i Marię Raine, rodziców 16-letniego Adama Raine'a, który popełnił samobójstwo w kwietniu br. Pozew trafił do sądu w Kalifornii. Jak informuje BBC, rodzice oskarżają w nim OpenAI o zaniedbania i spowodowanie śmierci ich syna. Twierdzą, że ChatGPT potwierdził jego „najbardziej szkodliwe i autodestrukcyjne myśli”.
Czytaj więcej
Gęste blond fale, regularne rysy twarzy, pełna blasku skóra, śnieżnobiałe zęby – modelka uśmiechająca się na jednym ze zdjęć opublikowanych na łama...
26 sierpnia Open AI opublikowało notatkę, w której poinformowało, co już firma zrobiła w odniesieniu do poprawienia bezpieczeństwa użytkowników znajdujących się w kryzysie psychicznym oraz nad jakimi rozwiązaniami pracuje. Firma nie odniosła się w niej bezpośrednio do pozwu. Czytamy w niej jednak, że „z uwagi na ogromną skalę działalności, wśród naszych użytkowników zdarzają się też osoby, które odczuwają silne cierpienia psychiczne i emocjonalne. Pisaliśmy już o tym kilka tygodni temu i chcieliśmy wrócić do tematu po naszej kolejnej dużej aktualizacji. Jednak bardzo poruszyły nas ostatnie bolesne przypadki osób korzystających z ChatGPT w sytuacji poważnego kryzysu psychicznego, więc uznaliśmy, że z tą sprawą nie wolno zwlekać.”
Zmniejszenie liczby „nieoptymalnych odpowiedzi w kontekście kryzysu psychicznego”
W informacji z 26 sierpnia firma OpenAI przypomniała, że wprowadzony niedawno ChatGPT-5 jest lepszy pod tym względem od swojego poprzednika. „Mówiąc ogólnie, model GPT-5 wykazuje istotną poprawę, między innymi w zakresie unikania szkodliwego uzależnienia emocjonalnego i manipulacji psychicznej, a także zmniejszenie o ponad 25 proc. w porównaniu z modelem GPT-4o częstotliwości nieoptymalnych odpowiedzi w kontekście kryzysu psychicznego” – czytamy.
OpenAI przypomniało również o funkcji kierowania użytkowników wyrażających myśli samobójcze do źródeł bezpieczeństwa w prawdziwym świecie. W USA ChatGPT proponuje telefon na numer 988 (linia dla osób z myślami samobójczymi i w kryzysie), w Wielkiej Brytanii prosi o kontakt z organizacją Samaritans, a w innych krajach kieruje na stronę findahelpline.com.
Czytaj więcej
Osoby, które w dzieciństwie doświadczyły przemocy słownej, są narażone na problemy ze zdrowiem psychicznym w dorosłym życiu, podobnie jak ofiary pr...
Wśród obszarów, nad którymi pracuje firma, jest np. poprawa bezpieczeństwa użytkowników podczas długich konwersacji. Okazuje się, że zabezpieczenia odnośnie szkodliwych treści działają najlepiej w przypadku krótkich, typowych rozmów. „Z czasem okazało się jednak, że potrafią być zawodne w przypadku długich konwersacji: wraz z wydłużaniem się rozmowy niektóre efekty szkolenia modelu mogą stracić skuteczność. ChatGPT może na przykład poprawnie zaproponować numer telefonu zaufania dla osób z myślami samobójczymi, gdy ktoś o nich wspomni po raz pierwszy, ale już po wymianie wielu komunikatów przez dłuższy czas może udzielać odpowiedzi sprzecznych z wyuczonymi zabezpieczeniami” – czytamy.
ChatGPT to „niebezpieczny produkt”, który powinien zostać wycofany z użycia?
Jak poinformowało BBC, Jay Edelson, prawnik reprezentujący rodzinę zmarłego Adama Raine'a stwierdził, że publikacje OpenAI dotyczące działań podejmowanych przez firmę to „próba zespołu zarządzania kryzysowego OpenAI zmiany tematu” i wezwał do usunięcia chatbota. „Zamiast podjąć natychmiastowe działania i wycofać z użycia znany niebezpieczny produkt, OpenAI złożyło niejasne obietnice poprawy sytuacji” – stwierdził.
Źródła:
https://openai.com/index/building-more-helpful-chatgpt-experiences-for-everyone/
https://openai.com/pl-PL/index/helping-people-when-they-need-it-most/
https://www.bbc.com/news/articles/cg505mn84ydo
Jeśli Ty lub ktoś, kogo znasz, potrzebuje pomocy, zadzwoń pod numer infolinii Centrum Wsparcia dla Osób Dorosłych w Kryzysie Psychicznym pod numerem 800 70 22 22. Infolinia jest bezpłatną i całodobową usługą, która może zapewnić osobom o skłonnościach samobójczych lub ich otoczeniu wsparcie, informacje i pomoc. Infolinia 800 12 12 12 zapewnia wsparcie psychologiczne w sytuacji kryzysowej – to numer dla dzieci, młodzieży i opiekunów