Co jest dla pani największą inspiracją w pracy z AI i technologiami cyfrowymi?
Pamela Krzypkowska: AI jest ciekawe, bo łączy dwie pozornie odległe dziedziny: z jednej strony technologię, a z drugiej strony element ludzki, ponieważ celem AI jest stworzenie inteligencji, czegoś, co potencjalnie może być świadome lub przynajmniej podobne do nas. To połączenie sprawia też, że wykracza ono poza stereotypowy podział na nauki ścisłe i humanistyczne. Mnie zawsze interesowały oba te obszary, a sztuczna inteligencja doskonale je łączy.
Który mit na temat sztucznej inteligencji, utrwalony w społeczeństwie, chciałaby pani najbardziej obalić?
Po pierwsze, warto obalić powszechne przekonanie, że sztuczna inteligencja to wyłącznie duże modele językowe. Brakuje szerszego spojrzenia i zrozumienia, że AI to również technologie wspierające diagnostykę medyczną czy prostsze rozwiązania automatyzacyjne wykorzystywane w administracji publicznej. To uproszczenie jest szkodliwe dla całej dziedziny, bo sprowadza dyskusję o AI do rozmowy o jednym wielkim modelu, którego działania są trudne do wyjaśnienia, nawet z naukowego punktu widzenia. Dlatego warto pokazywać, że istnieje inny świat sztucznej inteligencji, może mniej interaktywny niż modele językowe, ale za to czasem bardziej użyteczny i dobrze przetestowany.
Myślę, że jednym z najbardziej szkodliwych mitów dotyczących sztucznej inteligencji jest przekonanie, że AI jest „jak my”, to znaczy działa jak człowiek, myśli jak człowiek, a więc można jej w pełni ufać. W efekcie wielu użytkowników korzysta z AI, nie weryfikując informacji. Na drugim końcu spektrum mamy osoby, które całkowicie odrzucają AI, bo obawiają się tej technologii. To tworzy pewnego rodzaju społeczny rozdźwięk: z jednej strony mamy entuzjastów, którzy idealizują AI, a z drugiej ludzi zupełnie wyłączonych z tej rozmowy. Warto szukać tu złotego środka – docenić potencjał i wartość AI, ale jednocześnie korzystać z tej technologii świadomie, weryfikując informacje i zachowując krytyczne myślenie.
Co mogłaby pani powiedzieć właśnie tym osobom, które obawiają się nowych technologii i nie chcą z nich korzystać?
Myślę, że najważniejsze jest pamiętanie o tym, że to jest tylko technologia. Strach przed korzystaniem z niej często wynika z braku wiedzy i niezrozumienia. Rozumiem te obawy, bo nie każdy może lub chce być ekspertem i znać szczegóły działania tych modeli. Warto jednak poznać podstawy. Zrozumieć, że model to algorytm, który uczy się na danych. Dzięki temu łatwiej jest pojąć, do czego można go wykorzystać.
Ta technologia może w wielu obszarach naprawdę pomóc, ale musimy równocześnie rozwijać w sobie umiejętność myślenia krytycznego. Co więcej, systemy oparte na AI powinny być projektowane tak, by wręcz wymuszały taką postawę. Ludzki mózg jest z natury „leniwy” -chcemy optymalizować swoją pracę i często, gdy coś na pierwszy rzut oka wydaje się poprawne, nie mamy skłonności, by to dokładniej sprawdzać. Dobrym przykładem jest praktyka stosowana w firmach, czyli testy phishingowe. Pracodawca wysyła pracownikom fałszywego maila phishingowego, by sprawdzić, ile osób się na niego złapie. Ci, którzy klikną, muszą przejść szkolenie. To świetny sposób, by przeciwdziałać zbyt dużemu zaufaniu do systemów i uniknąć sytuacji, w której „zasypiamy za kierownicą” i przestajemy kwestionować to, co dostajemy.