Czyściciele internetu po polsku

Świetny ciąg dalszy (z fokusem na polskie podwórko) filmu dokumentalnego z 2018 roku „Czyściciele internetu” o moderatorach Facebooka.

Tamtem film skupiał się na pracownikach z Filipin, którzy moderują treści wrzucane przez użytkowników Facebooka. Codziennie stykają się z pornografią, przemocą, mową nienawiści czy też satyrą i nie rozumiejąc kontekstu kulturowego poszczególnych krajów – treści z polskiego Facebooka moderował ktoś z Filipin.

Po premierze „Czyścicieli internetu” (i zeznaniach Marka Zuckerberga przed Kongresem USA) rozpoczęła się dyskusja i naciski na Facebooka na zwiększenie liczby moderatorów treści.

Tekst Piotra Szostaka i Katarzyny Chojeckiej opisuje doświadczenia polskich moderatorów.

W sumie tekst o algorytmach i sztucznej inteligencji, ale nawet tutaj co najmniej raz zmienił się tytuł reportażu 🙂

Najpierw wyświetlił mi się:

„Egzekucje, kamienowanie, tłuczenie psa łopatą. Co oglądają moderatorzy Facebooka w Polsce?”

Potem 

„Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”

Za paywallem: „Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”

Fragmenty:

Byłem świadkiem rodzenia się algorytmu

Do czerwca 2020 r. Facebook na całym świecie zatrudniał bezpośrednio lub pośrednio ok. 15 tys. moderatorów treści. Oglądają oni dziennie ok. 3 mln postów, zdjęć i filmów zgłoszonych przez użytkowników lub sztuczną inteligencję.

[…[

Algorytmy Facebooka mogą kiedyś „wyzwolić” moderatorów od ich najbardziej niebezpiecznych zadań, na razie jednak ta traumatyczna praca służy jako poligon szkoleniowy do trenowania sztucznej inteligencji.

[…]

– Powiemy tylko raz, dla kogo będziesz pracować. Dla… Facebooka – usłyszała Pilar. 

Dowiedziała się wtedy, na czym będzie polegać jej praca. Została wybrana, będzie czyścić internet. Pomagać społeczeństwu i robić „coś dobrego”. Przedstawiciele firmy opowiadali o pracy moderatorów w taki sposób, że poczuła się wyjątkowa, dumna, jak tajny agent CIA. – Myślałam: po prostu muszę to robić – tłumaczy.

Kierownictwo przychodziło czasem i mówiło, że „budujemy bardziej bezpiecznego Facebooka”, ale była to tak żenująca korpomowa, że nikt nie przywiązywał do niej wagi.

W I kwartale 2021 r. moderatorzy Facebooka zareagowali na:

  • 31,8 mln materiałów zawierających nagość i aktywność seksualną (wzrost z 28,1 mln treści w IV kwartale ub.r.);
  • 8,8 mln materiałów zawierających nękanie i zastraszanie (wzrost z 6,3 mln w IV kwartale ub.r.);
  • 9,8 mln treści terrorystycznych (w porównaniu z 6,4 mln w IV kwartale 2020 r.);
  • 25,2 mln treści z mową nienawiści (w porównaniu z 26,9 mln w IV kwartale 2020 r.).

Więcej w samym tekście „Trauma na warszawskiej Woli. Moderatorzy Facebooka szczerze o swojej pracy”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *