Świetny ciąg dalszy (z fokusem na polskie podwórko) filmu dokumentalnego z 2018 roku „Czyściciele internetu” o moderatorach Facebooka.

Tamtem film skupiał się na pracownikach z Filipin, którzy moderują treści wrzucane przez użytkowników Facebooka. Codziennie stykają się z pornografią, przemocą, mową nienawiści czy też satyrą i nie rozumiejąc kontekstu kulturowego poszczególnych krajów – treści z polskiego Facebooka moderował ktoś z Filipin.
Po premierze „Czyścicieli internetu” (i zeznaniach Marka Zuckerberga przed Kongresem USA) rozpoczęła się dyskusja i naciski na Facebooka na zwiększenie liczby moderatorów treści.
Tekst Piotra Szostaka i Katarzyny Chojeckiej opisuje doświadczenia polskich moderatorów.
W sumie tekst o algorytmach i sztucznej inteligencji, ale nawet tutaj co najmniej raz zmienił się tytuł reportażu 🙂
Najpierw wyświetlił mi się:
„Egzekucje, kamienowanie, tłuczenie psa łopatą. Co oglądają moderatorzy Facebooka w Polsce?”
Potem
„Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”
Za paywallem: „Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”

Fragmenty:
Byłem świadkiem rodzenia się algorytmu
Do czerwca 2020 r. Facebook na całym świecie zatrudniał bezpośrednio lub pośrednio ok. 15 tys. moderatorów treści. Oglądają oni dziennie ok. 3 mln postów, zdjęć i filmów zgłoszonych przez użytkowników lub sztuczną inteligencję.
[…[Algorytmy Facebooka mogą kiedyś „wyzwolić” moderatorów od ich najbardziej niebezpiecznych zadań, na razie jednak ta traumatyczna praca służy jako poligon szkoleniowy do trenowania sztucznej inteligencji.
[…]– Powiemy tylko raz, dla kogo będziesz pracować. Dla… Facebooka – usłyszała Pilar.
Dowiedziała się wtedy, na czym będzie polegać jej praca. Została wybrana, będzie czyścić internet. Pomagać społeczeństwu i robić „coś dobrego”. Przedstawiciele firmy opowiadali o pracy moderatorów w taki sposób, że poczuła się wyjątkowa, dumna, jak tajny agent CIA. – Myślałam: po prostu muszę to robić – tłumaczy.
Kierownictwo przychodziło czasem i mówiło, że „budujemy bardziej bezpiecznego Facebooka”, ale była to tak żenująca korpomowa, że nikt nie przywiązywał do niej wagi.
W I kwartale 2021 r. moderatorzy Facebooka zareagowali na:
- 31,8 mln materiałów zawierających nagość i aktywność seksualną (wzrost z 28,1 mln treści w IV kwartale ub.r.);
- 8,8 mln materiałów zawierających nękanie i zastraszanie (wzrost z 6,3 mln w IV kwartale ub.r.);
- 9,8 mln treści terrorystycznych (w porównaniu z 6,4 mln w IV kwartale 2020 r.);
- 25,2 mln treści z mową nienawiści (w porównaniu z 26,9 mln w IV kwartale 2020 r.).
Więcej w samym tekście „Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”