Svelati i criteri di Facebook sulle violazioni

Il Guardian pubblica le istruzioni ai team che gestiscono le segnalazioni: i criteri su sesso, violenza, propaganda, sono inevitabilmente arbitrari.
Svelati i criteri di Facebook sulle violazioni
Il Guardian pubblica le istruzioni ai team che gestiscono le segnalazioni: i criteri su sesso, violenza, propaganda, sono inevitabilmente arbitrari.

Alcuni documenti che istruiscono i fact checker e tutto lo staff umano di Facebook per valutare le segnalazioni sono stati pubblicati dal Guardian. La testata britannica ha dato grande rilievo a questi contenuti, mai letti prima, ma definirlo scoop sarebbe generoso: è infatti fin troppo banale scoprire che i complessi criteri dotati dall’azienda per questi suoi dipendenti sono arbitrari. Come potrebbero non esserlo?

Non c’è nessuno scandalo, insomma, nelle linee guida pubblicate dal Guardian, se non il fatto che non sia stato prima Facebook stesso a renderle note. Un problema di trasparenza, più che di regole, ma la curiosità sui tanti e complessi criteri ha preso il sopravvento e così tutti parlano di “regole che fanno acqua”, di “difficoltà” del social. Come fosse uno scandalo, come fosse qualcosa che non ci si poteva aspettare. Questo modo di vedere il problema è però completamente sbagliato, e va ribadito: che Facebook adotti criteri prepotentemente umani, quindi opinabili e fallibili, per valutare ciò che merita di essere cancellato per sempre dalla vista pubblica è un meccanismo di salvaguardia.

Da una visione di questa documentazione, infatti, emerge quanto si sapeva già delle politiche di moderazione del social network: le istruzioni sono soggette a norme sociali e culturali molto diverse fra loro, e su certi argomenti scivolosi, delicati, come le molestie su persone ed animali, oppure il bullismo, il social network sembra propendere per una cauta liberalità, andando a censurare soltanto gli intenti più aggressivi e celebrativi. In alcuni frangenti, si leggono principi che fanno sorridere, per l’evidente incapacità di decidere velocemente: sul revenge porn Facebook raccomanda di “contare fino a dieci”, metodo obiettivamente poco scientifico. Eppure c’è da essere d’accordo con chi, senza farsi prendere dal’entusiasmo, riconosce in queste dettagliatissime istruzioni la dimostrazione che l’azienda che controlla potenzialmente la discussione pubblica di due miliardi di persone non intende lasciar fare agli algoritmi: il fact check umano è ancora al cuore del sito, anche se questo significa maggiore lentezza, difetto immancabilmente ripreso dai media e dai politici.

[embed_fb]https://www.facebook.com/antonino.caffo/posts/10155336501758351[/embed_fb]

Quella lentezza e arbitrarietà, invece, è preziosa: il social va criticato per non essere trasparente sui suoi metodi – probabilmente per evitare una discussione globale infinita sui criteri, che avrebbe come unico esito possibile delle linee guida ancora più lunghe e inapplicabili, la loro enciplopedizzazione – ma va sempre ricordato un principio che Webnews spiega ad ogni piè sospinto: è molto meglio questo modello di quello, irresponsabile, che pretenderebbe da Facebook la gestione etica delle cose del mondo, della loro rappresentazione, magari calando dall’alto delle linee guida di Stato, come vorrebbe Laura Boldrini.

dida su L'Espresso

Il perfetto commento su L’Espresso di Fabio Chiusi a proposito della dicotomia algoritmi /forza manuale che finisce spesso per convincere una parte dell’opinione pubblica che l’operazione di valutazione delle violazioni sul social andrebbe ottimizzata algoritmicamente secondo i parametri di prevenzione e velocità: sarebbe un autentico culturicidio.

Facebook ha di recente assunto tremila persone in più per lavorare proprio in questo ambito, che riguarda i concetti troppo labili di vero/falso, giusto/scorretto, violento/espressivo, abuso/non abuso. Al momento non esiste (e forse non esisterà mai) una Intelligenza Artificiale in grado di apprendere così velocemente le sensibilità culturali umane da riprodurle a enormi velocità, e in caso esistesse l’umanità avrebbe a quel punto problemi ben più gravi dell’hate speech da risolvere, a partire dalla sua possibile estinzione. Dunque, se è vero che leggere questi file significa leggere la fragilità delle valutazioni del social, per niente efficienti, è vero che lì dentro dovremmo tutti specchiarci perché si tratta della nostra fragilità.

Ti consigliamo anche

Link copiato negli appunti