Meta, la società madre di Facebook, Instagram e Threads, ha annunciato un’importante revisione delle sue politiche di moderazione dei contenuti, con cambiamenti che partiranno inizialmente negli Stati Uniti. Questo aggiornamento, comunicato dal CEO Mark Zuckerberg circa una settimana fa, promette di trasformare radicalmente il modo in cui i contenuti, come post e video, vengono moderati sulle piattaforme del gruppo, influenzando ciò che gli utenti vedranno nei loro feed.
“Troppi contenuti innocui vengono bloccati, e molte persone finiscono ingiustamente nella cosiddetta ‘prigione di Facebook’. Inoltre, spesso siamo troppo lenti nel correggere questi errori,” ha dichiarato Zuckerberg in un video pubblicato sul suo canale ufficiale. Il CEO ha evidenziato come i sistemi automatizzati, utilizzati per individuare violazioni delle politiche, siano spesso imprecisi:
“Vogliamo affrontare questo problema e riaffermare il nostro impegno per la libertà di espressione,” ha proseguito Zuckerberg, annunciando l’introduzione di un nuovo approccio ispirato alle Community Notes di X (precedentemente Twitter). Questo sistema, basato sul crowdsourcing, prevede che gli utenti volontari partecipino attivamente alla moderazione dei contenuti, attraverso l’inserimento e la valutazione di note sotto i post pubblicati.
Finora, Meta si è affidata principalmente a un fact-checker indipendente per verificare l’accuratezza delle informazioni. Questi professionisti si occupavano di controllare le fonti, analizzare dati pubblici e verificare contenuti multimediali come immagini e video. Tuttavia, il nuovo modello punta ad un maggiore coinvolgimento diretto degli utenti nella gestione delle informazioni.
Tutto ciò, si spera, potrà portare fuori dalla zona vietata dei social network, la cannabis, fino ad oggi fortemente censurata. Attualmente, sui social, rischia di essere censurato qualsiasi argomento sia legato alla parola “cannabis”, anche solo l’hashtag, l’informazione e le attività legali, creando difficoltà lavorative a moltissime aziende.