L’amaro compito dei moderatori di content digitali.

11 Gennaio 2024
11 Gennaio 2024 Sottosopra Comunicazione

L’amaro compito dei moderatori di content digitali.

 Una figura sempre più rara, nell’anno con più elezioni della storia.

Il 2024 sarà l’anno delle elezioni.

A livello globale, il numero storicamente più alto di elettori (il 49% degli aventi diritto) si recherà alle urne. Si vota in 64 paesi più l’Unione Europea.

Tra queste elezioni, molte sono da tenere d’occhio:

In USA si prospetta il secondo scontro tra Biden e Trump, con il primo che sostiene che la democrazia è ancora in pericolo e gli statunitensi che sembravano non volerlo rieleggere (secondo l’ultimo sondaggio ora gli schieramenti sono dati per pari).

In Russia Vladimir Putin si appresta a vincere a tavolino le prossime elezioni di marzo, mentre in Ucraina non è chiaro se si riusciranno a tenere le politiche previste per quest’anno, essendo il Paese in guerra e sotto legge marziale.

Il primo ministro del traballante governo britannico, Rishi Sunak, ha affermato di voler indire delle elezioni politiche nel 2024.

A livello internazionale sono state sollevate preoccupazioni su cosa significherebbe per l’India un terzo mandato del nazionalista Narendra Modi, in un contesto di crescente tensione indù-musulmana.

In Pakistan, il popolare ex primo ministro Imran Khan è in prigione, il suo partito è stato chiuso e i suoi sostenitori arrestati.

Si vota anche in Indonesia, che con 259 milioni di abitanti è il Paese musulmano più grande del mondo.

In Iran, il primo ministro deve decidere come gestire il rischio di bassa affluenza alle urne, l’eventuale successione, le strategie politiche riformiste e la legittimità del regime sulla scia delle proteste di massa. Nel 2021 aveva risolto facendo squalificare la maggior parte dei suoi oppositori tramite una decisione del Guardian Council, appuntato del Leader Supremo religioso, l’Ayatollah Khamenei.

A Taiwan, il prossimo presidente determinerà l’approccio nei confronti di Pechino, che ha ripetutamente minacciato il Paese di invasione.

Si vota anche per le Elezioni Europee, in Messico, in Sud Africa, in Corea del Sud, in Venezuela, in Siria, in Tunisia, Belgio, Repubblica Ceca, Slovacchia, Finlandia, Islanda, Portogallo, Austria, Bielorussia e persino a San Marino e nella prima isola che verrà sommersa dall’innalzamento del livello del mare: Tuvalu.

In questi e in altri paesi, il livello democratico delle elezioni è, per usare un eufemismo, variabile.

Il ruolo dei moderatori social

I moderatori social sono quelle figure silenziose e quasi invisibili che, insieme agli algoritmi, decidono in pochi secondi se un post vada rimosso perché offensivo o contenente fake news. Sono uno degli esempi del nuovo proletariato digitale al servizio delle grande piattaforme (e dei loro algoritmi).

Ricoprono tuttavia un ruolo importantissimo nella nostra epoca liquida e fatta di informazione social, dove il contesto ha perso di valore e i fatti sono sempre più indistinguibili dalle opinioni e dalle bugie.

I moderatori fanno parte dei tasker, quei lavoratori che svolgono compiti che i computer non riescono a completare. Un mestiere che va svolto 24 ore al giorno, sette giorni su sette. Si tratta di una forma di lavoro svolto a richiesta, sotto al grande ombrello della Gig Economy (da noi se ne parla a proposito dei rider di Deliveroo e Just Eat), caratterizzata da pratiche lavorative opache.

I datori di lavoro sono le piattaforme digitali: Alphabeth (Google), Meta (Facebook e Instagram), Byte Dance (Tik Tok),  X (Twitter), Amazon, YouTube, Microsoft, Apple (si pensi alle app dello store) ma anche Tinder, Uber, Tripadvisor e Match.com.

In “Ghost work. How to stop Silicon Valley from building a new global underclass i ricercatori Gary e Suri illustrano un mercato in cui le dinamiche del lavoro temporaneo cambiano costantemente, ridefinendo le relazioni tra uomo e macchina. La Gig Economy è caratterizzata da accordi di lavoro freelance contingentati, senza uno status giuridico, dove i lavoratori si assumono tutti i rischi professionali, incluso quello di non essere pagati o di vedersi sospendere l’account per ragioni poco chiare.

Il libro porta l’esempio di Ayesha, in India, che per una specifica task richiesta da Uber deve controllare che il selfie giornaliero dei driver corrisponda alla foto sul documento d’identità.

Se non raggiunge il numero di task concordato a priori, non verrà pagata per i suoi sforzi, né avrà l’opportunità di presentare reclamo. Scambi impercettibili come questo determinano uno su 100 passaggi Uber negli Stati Uniti, ovvero circa 13.000 al giorno.

“Assomiglia al lavoro a cottimo che donne e bambini facevano nelle fattorie nel XIX secolo, assemblando scatole di fiammiferi per pochi centesimi. Una dinamica che si sovrappone in modo ovvio all’esternalizzazione delle trascrizioni mediche e del lavoro dei call center nel Sud del mondo, che ha avuto un boom con l’espansione di Internet alla fine degli anni ’90. Il mercato lo chiama, senza ironia, capitale umano.”

Il cospicuo taglio dei moderatori social negli ultimi mesi

Già un anno fa scrivevamo di come le grandi piattaforme social stessero effettuando ingenti tagli al personale a seguito delle numerose assunzioni in periodo pandemico e dei consecutivi esuberi quando le persone hanno effettivamente ricominciato ad uscire di casa.

Oggi, all’alba dell’anno con più elezioni della storia, la situazione è critica. Secondo i dati recentemente pubblicati da Repubblica, i moderatori social che parlano italiano (senza per forza essere italiani o residenti in Italia) per Facebook, Instagram, Tik Tok, Twitter, sono 724, per moderare i contenuti postati su 6 siti che mensilmente contano circa 110 milioni di account attivi.

Nel dettaglio, sono 430 i moderatori social per l’italiano su TikTok, 179 per le due piattaforme di Meta, 91 per YouTube, 13 per LinkedIn e appena 2 per X (Twitter) a seguito del taglio netto del comparto sicurezza e moderazione a seguito del subentro di Musk.

L’unione Europea, con il Digital Services Act, ha sollevato preoccupazioni a riguardo.

Digital service act
L’european Digital Services Act

Il Digital Services Act regola i servizi digitali, operando secondo tre principi:

  • ciò che è illegale offline dovrebbe esserlo anche online
  • la tutela dei diritti fondamentali degli utenti
  • le imprese devono operare condizioni di parità

L’obiettivo è quello di instaurare una cultura della prevenzione dei rischi sistemici: dalla disinformazione ai contenuti illegali. Il DSA prevede in questo senso obblighi proporzionati alla dimensione della piattaforma.

Vengono regolamentati i servizi digitali offerti da:

  • mercati online
  • social network
  • piattaforme di condivisione dei contenuti
  • piattaforme di viaggio online e di alloggio
  • app store
  • servizi di intermediazione (es. provider Internet e register di domini);
  • servizi di cloud e hosting web
  • piattaforme di economia collaborativa

Dal punto di vista della moderazione dei contenuti, l’obiettivo è eliminare i contenuti dannosi e a prevenire l’uso delle piattaforme social per la diffusione di fake news e discorsi d’odio. Per l’appunto, un amaro compito sempre meno in mano ai moderatori social e sempre più agli algortimi.

Tra i vari obblighi che il DSA impone alle piattaforme, quelli che ci interessano in termini di elezioni e fake news sono:

  • condividere i propri dati chiave e dei propri algoritmi con le autorità e con i ricercatori autorizzati per comprendere l’evoluzione dei rischi online;
  • prevenire i rischi sistemici come la diffusione di contenuti illegali o con effetto negativo su diritti fondamentali, processi elettorali, violenza di genere, salute mentale.

Le sanzioni per le violazioni del DSA possono arrivare al 6% del fatturato annuo totale.

I primi rapporti dell’Unione Europea sulla trasparenza della moderazione dei contenuti, denotano come il basso numero di moderatori sia un problema comune. Sono pochissime infatti le piattaforme che hanno moderatori che coprano tutte le 24 lingue dell’Unione e, in generale, quelle che ne hanno in numero sufficiente ai milioni di contenuti che devono controllare.

Oltretutto, il Digital Services Act non prevede un numero minimo di moderatori in base al numero di utenti, né l’obbligo per i moderatori di risiedere fisicamente nel Paese a cui sono assegnati. Questo implica che i moderatori che hanno effettivamente competenze socioculturali rispetto al Paese di riferimento siano molto pochi. Una situazione rischiosa in periodo di elezioni.

Infine, nonostante i dati che le piattaforme sono obbligate a fornire all’Unione Europea, mancano statistiche relative al numero medio di contenuti revisionati in un giorno dal singolo operatore, gli errori commessi sul totale dei contenuti revisionati e sulla visibilità raggiunta dai contenuti segnalati prima della loro rimozione.

Una lacuna che diventò evidente con le ingerenze russe durante le elezioni americane del 2016 e che in questi mesi si nota rispetto alla copertura del conflitto israelo palestinese.

Moderatori content digitali, elezioni 2024
Cosa aspettarsi dalla copertura digital delle elezioni 2024

L’ecosistema mediatico digitale è tuttora essenzialmente anarchico. Le battaglie elettorali che si giocheranno sui social media saranno probabilmente ad armi impari, con i candidati più potenti e antidemocratici che possono servirsi di troll farms che producono fake news sempre più verosimili grazie all’utilizzo di intelligenze artificiali.

L’Europa ha fatto un primo passo, che tuttavia rischia di essere troppo limitato e già in ritardo. Per il futuro, servono policy più efficaci e un lavoro d’educazione al digitale capillare, dalla scuola alla formazione sul lavoro. I vecchi mass media non vantano più l’autorevolezza di un tempo e per interpretare un mondo sempre più complesso e multivocale le persone si affidano all’immediatezza parziale dei social media.

Il minimo che le piattaforme possano fare è far verificare i propri contenuti il più possibile da moderatori umani, pagati e tutelati correttamente per l’importante lavoro che svolgono. L’unione Europea sarà all’altezza della sfida? Speriamo di sì.