Facebook, test sui sentimenti: un dio crudele

Alcuni ricercatori di Facebook hanno testato la possibilità di indurre emozioni a tavolino. Ma il contagio emotivo solleva problemi etici.
Facebook, test sui sentimenti: un dio crudele
Alcuni ricercatori di Facebook hanno testato la possibilità di indurre emozioni a tavolino. Ma il contagio emotivo solleva problemi etici.

Si possono influenzare gli stati emotivi delle persone su un social network? Uno studio promosso da Facebook sta sollevando molte polemiche: la scala dell’esperimento (oltre 600 mila persone) e scarsa informazione e valutazione delle possibile conseguenze hanno messo all’indice il test, il suo metodo, le finalità. I ricercatori si difendono ma ammettono che forse hanno sottovalutato il contesto.

Dello studio di Facebook in collaborazione con la University of California e della Cornell si sta discutendo da giorni perché, come capita spesso con il Re dei social network, si arriva a conclusioni certificate di concetti verificabili nella vita di tutti i giorni, ma il tutto sempre con un certo fondo inquietante. Chi può negare che lo stato emotivo altrui influenza anche il proprio? Quando però dei ricercatori non si limitano ad analizzare il flusso delle interazioni sociali, ma intervengono per manipolarlo, allora la questione si fa molto più delicata.

Un esperimento legale, ma forse non legittimo

Per una settimana, tra l’11 e il 18 gennaio di due anni fa, Adam Kramer e il suo team hanno manipolato i post riducendo artificialmente quelli negativi e poi quelli positivi, analizzando quanto questi cambiamenti contagiavano il “mood” generale del campione osservato. Il secondo test, quello sulla manipolazione negativa, ha in particolare dato risultati minimamente significativi: deprimendo linguisticamente i post, si sono depressi anche gli utenti. L’esposizione a parole negative ha negativizzato il sentimento di migliaia di persone. E allora? – qualcuno potrebbe chiedersi – è normale farsi suggestionare, ma tra un sentimento espresso sul social e la vita vera ce ne passa. Forse. O forse no. Fatto sta che alterare il News Feed di 689 mila persone basandosi sull’ok implicito alla policy sul Data use al momento dell’iscrizione al social, è parso troppo poco e anche se perfettamente legale moralmente discutibile.

La risposta di Facebook

Lo ammettono a denti stretti gli stessi ricercatori del Data Team di Facebook, che hanno replicato alle critiche in un post pubblicato poche ore fa, pur precisando una nota metodologica:

La nostra ricerca ha cercato di indagare una piccola percentuale di contenuti nella News Feed (basata sul fatto che ci fosse una parola emozionale nel post) per un gruppo di persone (circa lo 0,04% degli utenti) per un breve periodo. Nessun messaggio è stato “nascosto”, in alcuni casi non sono stati caricati. Questi post sono sempre stati visibili sulla timeline degli amici e visualizzati sui successivi upload del News Feed.
Alla fine dell’esperimento, l’impatto effettivo sulle persone era nella misura minima per essere rilevato statisticamente; il risultato è stato che le persone hanno prodotto una media di una parola emotiva in meno o in più per mille parole nel corso della settimana seguente.
Dopo aver scritto e disegnato questo esperimento io stesso posso dirvi che il nostro obiettivo non è mai stato scontentare nessuno. Posso capire perché alcune persone si sono preoccupate, i miei coautori e io siamo molto dispiaciuti per il modo in cui l’informazione ha descritto la ricerca e l’ansia che ha causato. Col senno di poi, i benefici della ricerca potrebbero non aver giustificato tutta questa ansia.

Nel grafico, le piccole varianti al mood degli utenti misurate nel test del 2012. I ricercatori hanno smentito  una delle convinzioni più assodate, che portava a pensare che l'esposizione a parole positive deprimesse gli utenti per una sorta di frustrazione. In realtà il rapporto tra sentimento negativo/positivo e sua propagazione è simbiotico.

Nel grafico, le piccole varianti al mood degli utenti misurate nel test del 2012. I ricercatori hanno smentito una delle convinzioni più assodate, che portava a pensare che l’esposizione a parole positive deprimesse gli utenti per una sorta di frustrazione. In realtà il rapporto tra sentimento negativo/positivo e sua propagazione è simbiotico.

Pochi effetti, molti difetti

È praticamente impossibile riassumere in un solo articolo il sofisticato dibattito d’oltreoceano. Al post di spiegazione dei ricercatori si stanno susseguendo i commenti di Mashable, TechCrunch, The Verge, che con stili diversi assumono in sostanza il punto di vista del social: questi tipi di test si fanno in continuazione, inoltre potrebbe non essere così rilevante la misura del contagio emozionale se si considera l’abitudine a costruire una propria dimensione social seguendo una tendenza, invece che esprimendo un sentimento autentico. Un punto di vista molto “americano”, sulla questione: i Test A/B sono adoperati quotidianamente per il business, nel marketing, e non si vede perché dovrebbero essere condannati per uno scopo scientifico no-profit.

È bene sapere che al giorno d'oggi ogni prodotto, marca, partito politico, progetto di beneficenza, e movimento di pensiero cercando di manipolare le emozioni ad un certo livello di profondità. Sul web si stanno eseguendo da anni test A/B per comprendere desideri, aspirazioni, pensieri, propensioni e così intercettare chi proverà un sentimento di felicità nelll'acquistare un prodotto, votare un politico, firmare una petizione. Le emozioni sono un veicolo molto studiato, esattamente come ha fatto, in modo de-contestualizzato, l'esperimento di Facebook.

È bene sapere che al giorno d’oggi ogni prodotto, marca, partito politico, progetto di beneficenza e movimento di pensiero cercano di manipolare le emozioni ad un discreto livello di profondità. Sul web si stanno eseguendo da anni test A/B per comprendere desideri, aspirazioni, pensieri, propensioni, e così intercettare chi proverà un sentimento di felicità nell’acquistare un prodotto, votare un politico, firmare una petizione. Le emozioni sono un veicolo molto studiato, esattamente come ha fatto, in modo de-contestualizzato, l’esperimento di Facebook.

Il punto di vista critico si basa su valori diversi, è legato al senso di smarrimento che si prova pensando che Facebook abbia intenzionalmente manipolato delle persone nelle loro emozioni, nella loro intimità. Insomma l’esperimento è interessante, ma ha dimenticato il contesto. Le persone sanno benissimo che il News Feed appare diverso a seconda di quel che si visita, si condivide, apprezza, e accettano la pubblicità mirata; evidentemente l’idea che Facebook possa modificare il suo contenuto per osservare se può farci sentire felici o tristi viene vissuto come il capriccio di un dio crudele.


Un articolo sul blog Tumbling Conduct, da leggere assolutamente anche se è parecchio esteso, spiega bene che l’esperimento è criticabile in molti aspetti tecnici. Due sopra tutti:

  • Poche informazioni agli utenti. Non si può dire che il test sia stato somministrato ad un alto livello di informativa. Il Data use non contempla con precisione il calcolo del campione minimo per il numero minimo di soggetti, né lo studio esplica l’attenzione alla possibilità di rinunciare al test, di non ledere il benessere degli utenti. Il consenso informato è stato più che altro formale, mai concretizzato.
  • I rischi per i soggetti. Un altro punto dolente, anche se più accademico che altro – stando ai risultati – è che nessuno ha pensato ai disturbi dell’umore, di cui soffre il 9,5% degli americani. Per quanto statisticamente basso, si è corso il rischio si somministrare a un numero considerevole di persone vulnerabili uno stress emotivo senza che fosse possibile rifiutarsi. Un conto è un effetto “trascurabile” statisticamente, un altro è il concetto di precauzione.

Ti consigliamo anche

Link copiato negli appunti