Reklama

Wysoka cena bezpiecznych mediów społecznościowych. Moderatorka treści o swojej pracy

Moderatorzy treści mierzą się z najdrastyczniejszymi materiałami w mediach społecznościowych, narażając własne zdrowie psychiczne i pracując za niskie wynagrodzenie. Czy AI kiedyś ich zastąpi? Część z nich ma na to nadzieję.

Publikacja: 08.01.2026 12:47

Moderatorzy treści w sieci nie mogą całkowicie zrezygnować z oglądania drastycznych materiałów, ale

Moderatorzy treści w sieci nie mogą całkowicie zrezygnować z oglądania drastycznych materiałów, ale mają możliwość pominięcia niektórych z nich.

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie wyzwania stoją przed moderatorami treści w ich codziennej pracy?
  • W jaki sposób praca moderatorów treści wpływa na ich zdrowie psychiczne?
  • Dlaczego moderatorzy treści walczą o lepsze warunki pracy i jak to wygląda w praktyce?
  • Czy rozwój sztucznej inteligencji może zmienić rolę moderatorów treści w przyszłości?

Każdego dnia z platform społecznościowych znikają miliony postów, zanim użytkownicy zdążą je zobaczyć. Decyzje o tym, co pojawi się na ekranach naszych smartfonów, podejmują nie algorytmy, a ludzie. Moderatorzy treści przeglądają zdjęcia, filmy i komentarze, a każdy materiał niezgodny z zasadami platformy zostaje przez nich usunięty. To oni stykają się z brutalną rzeczywistością internetu, aby reszta użytkowników nigdy nie musiała.

Kto pilnuje cyfrowej rzeczywistości?

– Moderatorzy często oglądają jedne z najbardziej wstrząsających treści, w tym brutalne przestępstwa seksualne wobec dzieci oraz rasistowską mowę nienawiści – mówi Tom Hegarty, szef działu komunikacji w brytyjskiej organizacji non-profit Foxglove, która wspiera moderatorów w walce o lepsze warunki pracy i procesach przeciwko platformom.

Firdaous Fadili cztery miesiące pracowała w Maroku jako moderatorka w jednym z najpopularniejszych portali społecznościowych. W tym czasie natknęła się na brutalne materiały, pokazujące molestowanie seksualne, zabójstwa, przemoc, a także reklamujące substancje zakazane

– Wcześniej byłam trochę naiwna, jeśli chodzi o to, jak wygląda świat. Teraz mam znacznie pełniejszy obraz rzeczywistości. Nie postrzegam rzeczywistości w negatywny sposób, ale rozumiem, że istnieje jej ciemna strona. Widziałam wielu ludzi, którzy w imię obrony swoich przekonań potrafili wyrządzać innym krzywdę – mówi była moderatorka treści.

Reklama
Reklama

Czytaj więcej

To „tylko” internet? Prawdziwe oblicze przemocy wobec kobiet w sieci

Cena bezpiecznych mediów społecznościowych

Badanie opublikowane w kwietniu 2025 r. na Uniwersytecie Middlesex wykazało, że ponad jedna czwarta osób zajmujących się weryfikacją treści codziennie natrafia na materiały, które uznaje za stresujące, a ponad jedna piąta styka się z nimi co tydzień. Praca ta wiąże się z ogromnym obciążeniem psychicznym, wśród moderatorów odnotowuje się zaburzenia lękowe, depresję, problemy ze snem, wypalenie zawodowe i inne schorzenia.  – Pod koniec ubiegłego roku 144 byłych moderatorów Facebooka w Kenii przeszło badania i u wszystkich zdiagnozowano PTSD –  mówi Tom Hegarty.

Moderatorzy nie mogą całkowicie zrezygnować z oglądania drastycznych treści, ale mają możliwość pominięcia niektórych materiałów. Każda taka decyzja obniża jednak ich wskaźnik dokładności i w konsekwencji wpływa na wysokość premii.

Informacje o złym samopoczuciu pracowników nie są nowością dla właścicieli platform. W nagraniu z 2019 r., które wyciekło do serwisu The Verge, Marka Zuckerberga poinformowano, że wielu moderatorów treści cierpi na PTSD. Odpowiedział on wówczas „[…] Niektóre z tych raportów, moim zdaniem, są nieco przesadzone.”

Jak wygląda wsparcie psychologiczne dla moderatorów treści?

Firdaous Fadili wspomina, że w procesie rekrutacji kandydaci spotykali się z coachem i psychologiem, by ocenić ich stabilność emocjonalną. Dodaje, że w firmie, w której pracowała, osoby odpowiedzialne za treści miały stały dostęp do wsparcia psychologicznego zapewnianego przez zespół od czterech do sześciu psychologów.  – Co tydzień w grafiku był przewidziany czas na spotkanie z psychologiem, ale udział w nim był całkowicie dobrowolny. W każdej chwili można też było poprosić o dodatkową konsultację, jeśli ktoś czuł taką potrzebę – mówi.

Większość osób moderujących treści na największych platformach jest jednak zatrudniana przez firmy świadczące usługi outsourcingowe, często zlokalizowane w krajach rozwijających się. Tom Hegarty podkreśla, że ci pracownicy zazwyczaj nie otrzymują żadnego wsparcia psychologicznego.  – Zamiast tego mieli tzw. wellness coachów, którzy mówili im np. „To brzmi naprawdę ciężko. Czy próbowałeś pójść na spacer lub zająć się robótką na drutach?” – mówi Hegarty.

Reklama
Reklama

W niektórych aktualnych ofertach pracy na stanowisku moderatora treści TikToka jednym z wymagań jest „odporność psychiczna i proaktywne podejście do dbania o siebie, ze względu na emocjonalnie wymagający charakter pracy”. Doświadczenie zawodowe i wykształcenie wyższe nie są obowiązkowe, traktowane są jedynie jako dodatkowy atut. Znacznie ważniejsza jest znajomość zasad platformy i biegłość w językach.

Praca pod presją czasu i z niską wypłatą

Psychiczne obciążenie to jednak nie jedyna trudność tej pracy. Firdaous Fadili zwraca uwagę również na ścisłą organizację czasu pracy.  – Za każdym razem, gdy chciałam zrobić przerwę, musiałam uruchomić licznik czasu. Mieliśmy godzinę przerwy na lunch oraz dwie krótsze, po 10–15 minut. Każdą przerwę trzeba było zaznaczyć w systemie i wylogować się. Przekroczenie czasu przerwy wpływało na wysokość premii – mówi.

Równocześnie wynagrodzenie nie rekompensuje w pełni ani stresu, ani presji związanej z pracą. „The Guardian” podaje, że podstawowa pensja moderatorów w Ghanie wynosi około 1 300 cedi miesięcznie (około 412 zł). Z premiami mogą zarobić do 4 900 cedi (około 1 554 zł), co wciąż nie pokrywa kosztów życia w stolicy kraju.

Czytaj więcej

Dlaczego kobiety udają mężczyzn na LinkedIn? Ich eksperymenty dają do myślenia

Walka moderatorów o sprawiedliwość

Część pracowników, nie godząc się na takie warunki, postanowiła dochodzić swoich praw przed sądem. Jednym z nich jest Daniel Motaung, który w 2019 r. przeprowadził się z Republiki Południowej Afryki do Nairobi, aby rozpocząć nową pracę. Nie zdawał sobie jednak sprawy z jej prawdziwego charakteru.  – Dopiero po podpisaniu umowy o poufności zorientował się, jak naprawdę wygląda rola moderatora treści – tłumaczy Tom Hegarty. Daniel twierdzi, że zarabiał 2,2 dol. za godzinę, przeglądając treści, które doprowadziły u niego do rozwoju objawów zespołu stresu pourazowego.  –  Pierwszym filmem, który moderował, była transmisja na żywo dekapitacji” – mówi Hegarty. Moderator próbował stworzyć związek zawodowy, by walczyć o lepsze warunki pracy. Zaledwie kilka tygodni później został zawieszony, a następnie zwolniony. W odpowiedzi Daniel zdecydował się pozwać zarówno swojego pracodawcę – firmę outsourcingową Sama, jak i Metę. Amerykańska firma twierdziła, że to Sama była pracodawcą Daniela i że Meta nie podlega kenijskiemu prawu, ponieważ nie była zarejestrowana, ani nie prowadziła działalności w tym kraju. Sąd Apelacyjny uznał jednak, że sprawa może być prowadzona w Kenii.

Nie jest to odosobniony przypadek. W 2020 r. Facebook zgodził się zapłacić 52 miliony dolarów w ramach ugody z moderatorami z USA, u których w trakcie pracy rozwinęły się objawy PTSD. Podobny pozew złożyła Candie Frazier, zatrudnona przez firmę Telus International i pracująca przy moderacji treści na TikToku. Twierdzi, że ona i inni moderatorzy spędzali nawet 12 godzin dziennie na oglądaniu drastycznych materiałów, co doprowadziło do powstania u niej poważnych problemów psychicznych, w tym depresji i zespołu stresu pourazowego.

Reklama
Reklama

Czy AI zastąpi moderatorów?

Dla wielu nadzieją na rozwiązanie trudnej sytuacji moderatorów wydaje się rozwój sztucznej inteligencji. Firdaous Fadili, która podkreśla, że nie zamierza już wracać do tej pracy, stwierdza: „Być może dobrze byłoby, gdyby AI zajmowało się tą pracą, bo nie ma uczuć”.

AI jest już wykorzystywana do wstępnego oznaczania treści. Moderatorzy weryfikują materiały zgłoszone przez użytkowników oraz te, które systemy oznaczyły jako potencjalnie szkodliwe. Dodatkowo uczą algorytmy, które stają się coraz skuteczniejsze. Fadili dodaje jednak: „Algorytmy wykrywają szkodliwe treści, ale nie zawsze są dokładne. Ludzie moderują materiały, których systemy same nie potrafią wychwycić”. To ograniczenie wynika z natury AI, która działa głównie w języku angielskim i nie potrafi zrozumieć niuansów znaczeniowych ani kontekstu społecznego tak jak człowiek. Obecnie istnieje więc ryzyko, że sztuczna inteligencja może na przykład nadmiernie cenzurować słowa w językach mniejszościowych lub błędnie usuwać posty zawierające ironię, żarty czy przemoc pokazywaną w celach edukacyjnych.

Wielu entuzjastów AI twierdzi, że poprawa tych niedociągnięć to kwestia czasu, jednak Tom Hegarty jest sceptyczny.  – Pomysł, że AI zastąpi moderatorów treści i pozwoli zmniejszyć ich liczbę, jest albo myśleniem życzeniowym, albo kłamstwem. W rzeczywistości firmy zredukują te stanowiska w dobrze płatnych krajach Europy i przeniosą je do miejsc, gdzie płaci się mniej i traktuje gorzej  – mówi. –  Lubimy myśleć, że media społecznościowe działają dzięki magicznym algorytmom. Tak naprawdę zawdzięczamy to ludziom wykonującym niezwykle trudną pracę w ciężkich warunkach. Bez ich wysiłku bezpieczeństwo online nie istniałoby – dodaje.

Źródła:
https://pubmed.ncbi.nlm.nih.gov/40282107/
https://www.theverge.com/2019/10/1/20756701/mark-zuckerberg-facebook-leak-audio-ftc-antitrust-elizabeth-warren-tiktok-comments
https://www.theguardian.com/technology/2025/apr/27/meta-faces-ghana-lawsuits-over-impact-of-extreme-content-on-moderators

Styl życia
Brak dzieci wydłuża życie kobiet? Zaskakujące wnioski naukowców
Styl życia
Dlaczego kobiety udają mężczyzn na LinkedIn? Ich eksperymenty dają do myślenia
Styl życia
40 proc. rodziców w Polsce robi poważny błąd w zarządzaniu kontaktami dzieci z technologią
Styl życia
Sneakeriny i home care. Najważniejsze świąteczno-karnawałowe trendy 2025
Styl życia
Dziennikarze policzyli, ile musiałaby zarabiać Emily w Paryżu
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama