A fi moderator Facebook sună simplu, dar nu este și în plus apare și un risc în ceea ce privește sănătatea. Peste 140 de moderatori de conținut Facebook au fost diagnosticați cu tulburare de stres post-traumatic severă.
Cauza? Expunerea la conținut grafic din rețelele sociale, inclusiv crime, sinucideri, abuz sexual asupra copiilor și terorism, după cum arată The Guardian.
Martha Dark, fondator și co-director executiv al Foxglove, o organizație non-profit din Marea Britanie care a susținut un proces în instanță pe acestă temă a declarat: „Dovezile sunt incontestabile: moderarea Facebook este o muncă periculoasă care provoacă PTSD pe toată durata vieții aproape tuturor celor care moderează.
„În Kenya, a traumatizat 100% dintre sutele de foști moderatori testați pentru PTSD… În orice altă industrie, dacă am descoperi că 100% dintre lucrătorii din domeniul securității sunt diagnosticați cu o boală cauzată de munca lor, persoanele responsabile ar fi forțate să demisioneze și s-ar confrunta cu consecințele juridice ale încălcărilor în masă ale drepturilor oamenilor. De aceea, Foxglove îi sprijină pe acești lucrători curajoși să caute dreptate de la tribunale”.
Moderator Facebook cu anxietate intensă
Potrivit dosarelor din cazul Nairobi, Kanyanya arată cauza principală a stărilor de sănătate mintală în rândul celor 144 de persoane a fost munca lor ca moderatori ai conținutului Facebook, deoarece „au întâlnit zilnic conținut extrem de grafic, care includea videoclipuri cu crime înfiorătoare, autovătămare, sinucideri, tentative de sinucidere, violență sexuală, conținut sexual explicit, abuz fizic și sexual asupra copiilor, acțiuni violente îngrozitoare, acestea fiind doar o parte din materialele la care au fost expuși”.
Patru dintre moderatori au devenit bolnavi de tripofobie, o aversiune sau frică de modele repetitive, de mici găuri sau denivelări care pot provoca anxietate intensă. Pentru unii, afecțiunea s-a dezvoltat după ce au văzut orificii pe corpuri aflate în descompunere în timp ce lucrau la conținutul Facebook.
Facebook și alte companii mari de socializare și inteligență artificială se bazează pe armate de moderatori de conținut pentru a elimina postările care încalcă standardele comunității lor și pentru a instrui sistemele AI să facă același lucru.
De la sănătate, la probleme de familie
Moderatorii din Kenya și din alte țări africane au fost însărcinați între 2019 și 2023 să verifice postările provenind din Africa și care erau scrise în propriile limbi, dar au fost plătiți de opt ori mai puțin decât omologii lor din SUA, potrivit documentelor de revendicare.
Aproape 190 de moderatori duc acuzațiile pe mai multe niveluri, incluzând acuzații de vătămare psihică intenționată, practici neloiale de angajare, trafic de persoane și sclavie modernă și concediere ilegală. Toți cei 144 examinați de Kanyanya s-au dovedit a avea PTSD, GAD și MDD cu simptome severe sau extrem de severe de PTSD în 81% din cazuri, mai ales la cel puțin un an după ce au plecat din locurile lor de muncă.
Unii au raportat destrămarea mariajelor și dispariția dorinței de intimitate sexuală și pierderea conexiunii cu familiile lor. Unii a căror sarcină era să elimine videoclipurile încărcate de grupuri teroriste și rebele se temeau că sunt urmăriți și vizați și că, dacă se întorc acasă, vor fi vânați și uciși.