W dobie prężnie rozwijających się narzędzi sztucznej inteligencji istnieje pokusa sprawdzenia, jak Chat GPT radzi sobie w czynnościach od lat wykonywanych przez ludzi. Dziennikarze The Washington Post postanowili przetestować możliwości AI w zakresie stworzenia eseju akademickiego, który następnie został poddany dogłębnej analizie przez doświadczonego doradcę do spraw rekrutacji na uczelnie z grupy Ivy League (m.in. Harvard czy Princeton). Redakcja serwisu Kobieta.rp.pl, idąc za tym przykładem, stworzyła przy użyciu podstawowego chatbota esej pt. „Jak literatura wpływa na nasze życie?" Rezultat został skonsultowany z dr. Rolandem Zarzyckim z Collegium Civitas. Do jakich wniosków doszli naukowcy i czy Chat GPT byłby w stanie zdać egzamin akademicki?
Stworzone za pomocą sztucznej inteligencji teksty mają zdaniem recenzentów kilka cech wspólnych, a wśród nich przewidywalność, schematyczność, liczne powtórzenia czy, co ciekawe, brak błędów. – Twórcy sztucznej inteligencji są zapewne z tego dumni, ponieważ o to im chodziło – zauważa dr Roland Zarzycki – natomiast człowiek bezbłędny nie jest. Maszyny oczywiście mogą się także i tego nauczyć, kiedy zostaną wytrenowane tak, aby od czasu do czasu jakiś błąd popełnić, czyniąc przy tym tekst bardziej ludzkim. To znajduje się w zasięgu technologii, natomiast wyzwaniem jest to, żeby narzędzia popełniały błędy w naturalny, zbliżony do człowieka, sposób – doprecyzowuje ekspert.
Ciekawy początek
Esej na temat zadany przez dziennikarzy The Washington Post miał, zdaniem recenzenta Adama Nguyen’a, całkiem interesujący wstęp. Pierwsze zdanie przykuwało uwagę, sprawiając, że czytelnik z zaciekawieniem kontynuował lekturę. Wynika to według eksperta z faktu, że narzędzia AI potrafią do pewnego stopnia symulować styl pisania człowieka. Analiza kolejnych fragmentów tekstu nie prowadziła jednak do tak optymistycznych spostrzeżeń. Recenzent zauważył, że przedłożony materiał zawiera liczne powtórzenia oraz szereg banalnych, pozbawionych głębszej analizy, sformułowań. Co więcej, odnotował sporo przypadkowo zamieszczonych w tekście fragmentów, które nie miały logicznego powiązania z następującymi przed i po nich zdaniami. Wśród uwag w odniesieniu do eseju znalazła się i taka, że chatbot przeskakuje z jednego ważnego tematu do innego, nie pogłębiając analizy. W użytym przez maszynę stylu brakuje oryginalnych sformułowań. Kolokacje są powtarzalne, utarte i przez to nie wnoszą w prezentowany materiał żadnej nowej wartości.
Na szereg powtórzeń w stworzonym przez redakcję serwisu Kobieta.rp.pl tekście zwraca też uwagę dr Zarzycki – Nawet gołym okiem dostrzeżemy w tym materiale co najmniej kilka elementów, które powinny wzbudzić nasze podejrzenia co do pochodzenia tekstu. Przede wszystkim powtórzenia, w szczególności te, w których w tekście mowa o „pomaganiu w zrozumieniu rzeczywistości” oraz „radzeniu sobie z trudnymi emocjami” – zauważa ekspert – narzędzia AI co do zasady odtwarzają umiejętnie dobrane, statystycznie najczęstsze konstelacje słów. Mają jednocześnie trudność w tworzeniu sformułowań nietypowych, a jednocześnie niebrzmiących błędnie. Przeciwnie, człowiek ma tendencję do odbiegania od utartego schematu, nawet nieintencjonalnie – dodaje.
Poprawność polityczna
Recenzenci są też zgodni co do tego, że stworzone przy pomocy AI teksty cechuje schematyczność i poprawność polityczna – Z perspektywy dyskursywnej teksty tworzone przez inteligentne generatory charakteryzują się bezkrytycznością, polityczną poprawnością, ale i banalnością obserwacji i konstatacji, które wpisują się w normę w sposób... zbyt dobry – zauważa dr Zarzycki – Jak mówi znana ilustracja prawd statystycznych, to, że pies i jego pan mają średnio trzy nogi, nie oznacza ani, że pan ma trzy nogi, ani że ma je pies. Podobnie, w przypadku tekstów, które są uśrednieniem tego, co inteligentny generator wyczytał z lektury ludzkich tekstów – ich nietypowość i „nieludzkość” polega na ich niespotykanej w ludzkiej codzienności typowości – doprecyzowuje ekspert – Te teksty są jałowe i miałkie. Oczywiście istnieją triki, pozwalające to obejść. Można uruchomić taki tryb, w którym narzędzia zrzucają trochę okowy poprawności politycznej i zaczynają się komunikować bardziej swobodnie, ale to i tak, przynajmniej na razie, nie jest ludzki poziom komunikacji i zawsze możemy złapać je na tym, że są zbyt poprawne politycznie i zbyt miałkie czy ostrożne w swoich poglądach – dodaje dr Zarzycki.