Come Facebook e Google finanziano la disinformazione globale

I giganti della tecnologia stanno pagando milioni di dollari agli operatori di pagine clickbait, finanziando il deterioramento degli ecosistemi informatici in tutto il mondo.





luci e ombre sul pavimento

Getty

20 novembre 2021

Birmania, marzo 2021.

Un mese dopo la caduta del governo democratico.



Il tuo browser non supporta il tag video. Il tuo browser non supporta il tag video.

Un video in diretta su Facebook mostrava centinaia di persone che protestavano contro il colpo di stato militare per le strade del Myanmar.

Aveva quasi 50.000 condivisioni e oltre 1,5 milioni di visualizzazioni, in un paese con poco più di 54 milioni di persone.

Gli osservatori, incapaci di vedere gli eventi sul campo, hanno utilizzato il filmato, insieme a centinaia di altri feed dal vivo, per tracciare e documentare l'evolversi della situazione. (MIT Technology Review ha offuscato i nomi e le immagini dei poster per evitare di mettere a repentaglio la loro sicurezza.)



Ma meno di un giorno dopo, lo stesso video sarebbe stato trasmesso di nuovo più volte, ognuna delle quali affermava ancora di essere in diretta.

Nel mezzo di una massiccia crisi politica, non c'era più un modo per discernere cosa fosse reale e cosa non lo fosse.

Secondo i dati di CrowdTangle, uno strumento gestito da Facebook, nel 2015, sei dei 10 siti Web in Myanmar che hanno ottenuto il maggior coinvolgimento su Facebook provenivano da media legittimi. Un anno dopo, Facebook (che di recente è stato rinominato Meta) ha offerto l'accesso globale agli articoli istantanei, un programma che gli editori potrebbero utilizzare per monetizzare i propri contenuti.



Un anno dopo quel lancio, gli editori legittimi rappresentavano solo due dei primi 10 editori su Facebook in Myanmar. Nel 2018 rappresentavano zero. Tutto il coinvolgimento era invece andato a siti di fake news e clickbait. In un paese in cui Facebook è sinonimo di Internet, i contenuti di bassa qualità hanno sopraffatto altre fonti di informazione.

È stato durante questo rapido degrado dell'ambiente digitale del Myanmar che un gruppo militante di Rohingya, una minoranza etnica prevalentemente musulmana, ha attaccato e ucciso una dozzina di membri delle forze di sicurezza, nell'agosto del 2017. Quando la polizia e l'esercito hanno iniziato a reprimere i Rohingya e respingere la propaganda anti-musulmana, gli articoli di fake news che capitalizzavano il sentimento sono diventati virali. Hanno affermato che i musulmani erano armati, che si stavano radunando in una folla di 1.000 persone, che erano dietro l'angolo per ucciderti.

Ancora oggi non è chiaro se le fake news provenissero principalmente da attori politici o da soggetti finanziariamente motivati. Ma in entrambi i casi, l'enorme volume di fake news e clickbait ha agito come combustibile sulle fiamme di tensioni etniche e religiose già pericolosamente alte. Ha spostato l'opinione pubblica e intensificato il conflitto, che alla fine ha portato alla morte di 10.000 Rohingya, secondo stime prudenti, e allo sfollamento di altri 700.000.



Nel 2018, un'indagine delle Nazioni Unite ha stabilito che la violenza contro i Rohingya costituiva un genocidio e che Facebook aveva svolto un ruolo determinante nelle atrocità. Mesi dopo, Facebook ha ammesso di non aver fatto abbastanza per impedire che la nostra piattaforma venisse utilizzata per fomentare divisioni e incitare alla violenza offline.

Nelle ultime settimane, le rivelazioni dei Facebook Papers, una raccolta di documenti interni forniti al Congresso e a un consorzio di testate giornalistiche dall'informatrice Frances Haugen, hanno riaffermato ciò che i gruppi della società civile affermano da anni: l'amplificazione algoritmica dei contenuti incendiari da parte di Facebook , insieme alla sua incapacità di dare priorità alla moderazione dei contenuti al di fuori degli Stati Uniti e dell'Europa, ha alimentato la diffusione dell'incitamento all'odio e della disinformazione, destabilizzando pericolosamente i paesi in tutto il mondo.

Ma nella storia manca un pezzo cruciale. Facebook non sta solo amplificando la disinformazione.

La società lo finanzia anche.

Una revisione della tecnologia del MIT un'indagine, basata su interviste di esperti, analisi di dati e documenti che non sono stati inclusi nei Facebook Papers, ha scoperto che Facebook e Google stanno pagando milioni di dollari pubblicitari per finanziare gli attori dei clickbait, alimentando il deterioramento degli ecosistemi informativi in ​​tutto il mondo.

L'anatomia di un allevamento di clickbait

Facebook ha lanciato il suo programma Instant Articles nel 2015 con una manciata di editori statunitensi ed europei. L'azienda ha fatturato il programma come un modo per migliorare i tempi di caricamento degli articoli e creare un'esperienza utente più fluida.

Come Facebook è diventato dipendente dalla diffusione di disinformazione

Gli algoritmi di intelligenza artificiale dell'azienda le hanno dato un'abitudine insaziabile di bugie e incitamento all'odio. Ora l'uomo che li ha costruiti non può risolvere il problema.

Quella era la vendita pubblica. Ma la mossa ha anche catturato convenientemente dollari pubblicitari da Google. Prima di Instant Articles, gli articoli pubblicati su Facebook venivano reindirizzati a un browser, dove si aprivano sul sito Web dell'editore. Il fornitore di annunci, di solito Google, incassa quindi qualsiasi visualizzazione o clic sugli annunci. Con il nuovo schema, gli articoli si aprirebbero direttamente all'interno dell'app di Facebook e Facebook sarebbe il proprietario dello spazio pubblicitario. Se anche un editore partecipante avesse deciso di monetizzare con la rete pubblicitaria di Facebook, chiamata Audience Network, Facebook potrebbe inserire annunci nelle storie dell'editore e prendere una riduzione del 30% delle entrate.

Instant Articles è caduto rapidamente in disgrazia con la sua coorte originale di grandi editori mainstream. Per loro, i pagamenti non erano abbastanza alti rispetto ad altre forme di monetizzazione disponibili. Ma questo non era vero per gli editori del Sud del mondo, cosa che ha iniziato Facebook accettazione nel programma nel 2016 . Nel 2018, la società ha dichiarato di aver pagato 1,5 miliardi di dollari a editori e sviluppatori di app (che possono anche partecipare a Audience Network). Entro il 2019, quella cifra aveva raggiunto più miliardi .

All'inizio, Facebook ha eseguito uno scarso controllo di qualità sui tipi di editori che hanno aderito al programma. Inoltre, il design della piattaforma non ha sufficientemente penalizzato gli utenti per la pubblicazione di contenuti identici sulle pagine di Facebook, anzi, ha premiato il comportamento. Pubblicare lo stesso articolo su più pagine potrebbe raddoppiare il numero di utenti che hanno cliccato su di esso e generato entrate pubblicitarie.

Gli allevamenti Clickbait di tutto il mondo hanno colto questo difetto come strategia, che usano ancora oggi.

Una fattoria creerà un sito Web o più siti Web...

...per la pubblicazione di contenuti prevalentemente plagiati.

Li registra con Articoli istantanei e Rete del pubblico ,

che inserisce annunci nei propri articoli.

Quindi pubblica quegli articoli su un gruppo di decine di pagine Facebook alla volta.

Gli attori di Clickbait sono spuntati in Myanmar durante la notte. Con la ricetta giusta per produrre contenuti accattivanti ed evocativi, potrebbero generare migliaia di dollari USA al mese di entrate pubblicitarie, o 10 volte lo stipendio mensile medio, pagato loro direttamente da Facebook.

Un documento aziendale interno, in primo luogo riportato da MIT Technology Review in ottobre , mostra che Facebook era a conoscenza del problema già nel 2019. L'autore, l'ex data scientist di Facebook Jeff Allen, ha scoperto che queste tattiche esatte avevano consentito agli allevamenti di clickbait in Macedonia e Kosovo di raggiungere quasi mezzo milione di americani un anno prima delle elezioni del 2020 . Le fattorie si erano anche fatte strada in Instant Articles e Ad Breaks, un programma di monetizzazione simile per l'inserimento di annunci nei video di Facebook. A un certo punto, fino al 60% dei domini registrati in Instant Articles utilizzava le tattiche di scrittura di spam impiegate dalle clickbait farm, afferma il rapporto. Allen, vincolato da un accordo di riservatezza con Facebook, non ha commentato il rapporto.

Nonostante le pressioni dei ricercatori interni ed esterni, Facebook ha lottato per arginare l'abuso. Nel frattempo, la società stava lanciando più programmi di monetizzazione per aprire nuovi flussi di entrate. Oltre alle interruzioni pubblicitarie per i video, c'era la monetizzazione IGTV per Instagram e gli annunci in-stream per i video live. Quella spinta sconsiderata alla crescita degli utenti che abbiamo visto, ora stiamo assistendo a una spinta sconsiderata alla crescita degli editori, afferma Victoire Rio, una ricercatrice sui diritti digitali che combatte i danni causati dalle piattaforme in Myanmar e in altri paesi del Sud del mondo.

Il MIT Technology Review ha scoperto che il problema si sta verificando su scala globale. Migliaia di operazioni di clickbait sono nate, principalmente nei paesi in cui i pagamenti di Facebook forniscono una fonte di reddito più ampia e stabile rispetto ad altre forme di lavoro disponibili. Alcuni sono team di persone mentre altri sono individui, favoriti da strumenti automatizzati economici che li aiutano a creare e distribuire articoli su larga scala. Non si limitano più alla pubblicazione di articoli. Pubblicano video in diretta e gestiscono account Instagram, che monetizzano direttamente o utilizzano per indirizzare più traffico ai loro siti.

Anche Google è colpevole. Il suo programma AdSense ha alimentato le fattorie con sede in Macedonia e Kosovo che hanno preso di mira il pubblico americano in vista delle elezioni presidenziali del 2016. Ed è AdSense che sta incentivando i nuovi attori clickbait su YouTube a pubblicare contenuti scandalosi e disinformazione virale.

Molte aziende di clickbait oggi monetizzano sia con Instant Articles che con AdSense, ricevendo pagamenti da entrambe le società. E perché gli algoritmi di Facebook e YouTube potenzia tutto ciò che interessa agli utenti , hanno creato un ecosistema informativo in cui i contenuti che diventano virali su una piattaforma vengono spesso riciclati sull'altra per massimizzare la distribuzione e le entrate.

Questi attori non esisterebbero se non fosse per le piattaforme, dice Rio.

Gli allevamenti di troll hanno raggiunto 140 milioni di americani al mese su Facebook prima delle elezioni del 2020, secondo i rapporti interni

Questo non è normale. Questo non è salutare.

In risposta alle prove dettagliate che abbiamo fornito a ciascuna azienda di questo comportamento, il portavoce di Meta Joe Osborne ha contestato i nostri risultati principali, dicendo che avevamo frainteso la questione. Indipendentemente da ciò, per molti anni abbiamo investito nella creazione di nuove soluzioni scalabili e guidate da esperti per questi problemi complessi e continueremo a farlo, ha affermato.

Google ha confermato che il comportamento ha violato le sue politiche e ha chiuso tutti i canali YouTube che il MIT Technology Review ha identificato come diffusione di disinformazione. Lavoriamo duramente per proteggere gli spettatori da clickbait o contenuti fuorvianti sulle nostre piattaforme e abbiamo investito molto in sistemi progettati per elevare le informazioni autorevoli, ha affermato il portavoce di YouTube Ivy Choi.

Gli allevamenti Clickbait non prendono di mira solo i loro paesi d'origine. Seguendo l'esempio di attori provenienti da Macedonia e Kosovo, i nuovi operatori si sono resi conto che non hanno bisogno di comprendere né il contesto locale di un paese né la sua lingua per trasformare l'indignazione politica in reddito.

MIT Technology Review ha collaborato con Allen, che ora guida un'organizzazione no profit chiamata the Istituto di integrità che conduce ricerche sull'abuso della piattaforma, per identificare possibili attori di clickbait su Facebook. Ci siamo concentrati sulle pagine esaurite di Cambogia e Vietnam, due dei paesi in cui le operazioni clickbait stanno ora incassando la situazione in Myanmar.

Abbiamo ottenuto i dati da CrowdTangle, il cui team di sviluppo la società si è sciolta all'inizio di quest'anno , e da Elenchi di editori di Facebook , che registra quali editori sono registrati nei programmi di monetizzazione. Allen ha scritto un algoritmo di clustering personalizzato per trovare le pagine che pubblicano contenuti in modo altamente coordinato e si rivolgono a parlanti di lingue utilizzate principalmente al di fuori dei paesi in cui hanno sede le operazioni. Abbiamo quindi analizzato quali cluster avevano almeno una pagina registrata in un programma di monetizzazione o stavano promuovendo pesantemente il contenuto di una pagina registrata con un programma.

Abbiamo trovato oltre 2.000 pagine in entrambi i paesi coinvolti in questo comportamento simile a un clickbait. (Potrebbe essere un conteggio insufficiente, perché non tutte le pagine Facebook sono monitorate da CrowdTangle.) Molti hanno milioni di follower e probabilmente raggiungono ancora più utenti. Nel suo rapporto del 2019, Allen lo ha scoperto 75% degli utenti che sono stati esposti a contenuti clickbait da allevamenti gestiti in Macedonia e Kosovo non avevano mai seguito nessuna delle pagine. Il sistema di raccomandazione dei contenuti di Facebook lo aveva invece inserito nei loro feed di notizie.

Quando il MIT Technology Review ha inviato a Facebook un elenco di queste pagine e una spiegazione dettagliata della nostra metodologia, Osborne ha definito l'analisi imperfetta. Mentre alcune pagine qui potrebbero essere state nei nostri elenchi di editori, molte di esse non hanno effettivamente monetizzato su Facebook, ha affermato.

In effetti, questi numeri non indicano che tutte queste pagine abbiano generato entrate pubblicitarie. Si tratta invece di una stima, basata sui dati che Facebook ha reso pubblicamente disponibile, del numero di pagine associate agli attori clickbait in Cambogia e Vietnam che Facebook ha reso idonee a monetizzare sulla piattaforma.

Osborne ha anche confermato che più pagine simili a clickbait gestite dalla Cambogia che abbiamo trovato si erano registrate direttamente con uno dei programmi di monetizzazione di Facebook di quanto credessimo in precedenza. Nella nostra analisi, abbiamo riscontrato che il 35% delle pagine dei nostri cluster lo aveva fatto negli ultimi due anni. L'altro 65% l'avrebbe fatto indirettamente generato entrate pubblicitarie promuovendo pesantemente i contenuti dalla pagina registrata a un pubblico più ampio. Osborne ha detto che in effetti circa metà delle pagine che abbiamo trovato, o circa altre 150 pagine, si erano registrate direttamente a un certo punto con un programma di monetizzazione, principalmente Instant Articles.

Poco dopo aver contattato Facebook, gli operatori di pagine clickbait in Myanmar hanno iniziato a lamentarsi nei forum online che le loro pagine erano state eliminate da Instant Articles. Osborne ha rifiutato di rispondere alle nostre domande sulle ultime azioni di contrasto che l'azienda ha intrapreso.

Facebook ha continuamente cercato di eliminare questi attori dai suoi programmi. Ad esempio, solo 30 delle pagine gestite dalla Cambogia stanno ancora monetizzando, ha detto Osborne. Ma i nostri dati dagli elenchi di editori di Facebook mostrano che l'applicazione è spesso ritardata e incompleta: le pagine clickbait possono rimanere all'interno dei programmi di monetizzazione per centinaia di giorni prima di essere rimosse. Gli stessi attori creeranno anche nuove pagine una volta che le loro vecchie saranno demonetizzate.

Allen lo è adesso open-sourcing del codice incoraggiavamo altri ricercatori indipendenti a perfezionare e sviluppare il nostro lavoro.

Per supportare il giornalismo di MIT Technology Review, considera di diventare un abbonato.

Utilizzando la stessa metodologia, abbiamo anche trovato più di 400 pagine gestite dall'estero rivolte principalmente al pubblico statunitense in cluster che sono apparsi negli elenchi degli editori di Facebook negli ultimi due anni. (Non abbiamo incluso pagine di paesi la cui lingua principale è l'inglese.) Il set include un cluster di monetizzazione gestito in parte dalla Macedonia rivolto alle donne e alla comunità LGBTQ. Ha otto pagine Facebook, di cui due verificate con oltre 1,7 milioni e 1,5 milioni di follower rispettivamente, e pubblica contenuti da cinque siti Web, ciascuno registrato con Google AdSense e Audience Network. Ha anche tre account Instagram, che monetizzano attraverso negozi di articoli da regalo e collaborazioni e indirizzando gli utenti agli stessi siti Web in gran parte plagiati. Gli amministratori delle pagine Facebook e degli account Instagram non hanno risposto alle nostre richieste di commento.

Le pagine LGBT News e Women's Rights News su Facebook pubblicano contenuti identici da cinque dei suoi siti affiliati che monetizzano con Instant Articles e Google AdSense, nonché da altri organi di stampa con cui sembra aver collaborato a pagamento.

Osborne ha detto che Facebook sta ora indagando sugli account dopo che li abbiamo portati all'attenzione dell'azienda. Choi ha affermato che Google ha rimosso gli annunci AdSense da centinaia di pagine su questi siti in passato a causa di violazioni delle norme, ma che i siti stessi sono ancora autorizzati a monetizzare in base alle recensioni regolari dell'azienda.

Sebbene sia possibile che i macedoni che gestiscono le pagine si preoccupino davvero della politica statunitense e dei diritti delle donne e LGBTQ, il contenuto sta innegabilmente generando entrate. Ciò significa che ciò che promuovono è molto probabilmente guidato da ciò che vince e perde con l'algoritmo del feed di notizie di Facebook.

L'attività di una singola pagina o di un gruppo di pagine potrebbe non sembrare significativa, afferma Camille François, ricercatrice della Columbia University che studia le campagne di disinformazione organizzata sui social media. Ma quando centinaia o migliaia di attori stanno facendo la stessa cosa, amplificando lo stesso contenuto e raggiungendo milioni di membri del pubblico, possono influenzare la conversazione pubblica. Ciò che la gente vede come una conversazione domestica su un argomento può in realtà essere qualcosa di completamente diverso, dice François. È un gruppo di persone pagate che fingono di non avere alcuna relazione tra loro, ottimizzando cosa pubblicare.

Osborne ha affermato che negli ultimi due anni Facebook ha creato diverse nuove politiche e protocolli di applicazione per affrontare questo problema, inclusa la penalizzazione delle pagine che escono da un paese che si comportano come se fossero locali rispetto a un altro, nonché le pagine che creano un pubblico sul base di un argomento e poi passare a un altro. Ma sia Allen che Rio affermano che le azioni dell'azienda non sono riuscite a colmare le lacune fondamentali nelle politiche e nei progetti della piattaforma, vulnerabilità che stanno alimentando una crisi informatica globale.

Sta colpendo prima di tutto i paesi al di fuori degli Stati Uniti, ma rappresenta un enorme rischio anche per gli Stati Uniti a lungo termine, afferma Rio. Influirà praticamente ovunque nel mondo quando ci saranno eventi intensi come le elezioni.

Disinformazione a noleggio

In risposta al rapporto iniziale del MIT Technology Review sul rapporto interno 2019 di Allen, che noi pubblicato integralmente , David Agranovich, direttore dell'interruzione delle minacce globali di Facebook, twittato , Le pagine a cui si fa riferimento qui, sulla base della nostra ricerca del 2019, sono spammer motivati ​​finanziariamente, non operazioni di influenza palese. Entrambe queste sono sfide serie, ma sono diverse. Confonderli non aiuta nessuno. Osborne ha ripetuto che stavamo fondendo i due gruppi in risposta ai nostri risultati.

Ma gli esperti di disinformazione affermano che è fuorviante tracciare una linea dura tra spammer motivati ​​finanziariamente e operazioni di influenza politica.

C'è una distinzione nell'intento: gli spammer motivati ​​finanziariamente sono agnostici riguardo al contenuto che pubblicano. Vanno ovunque si trovino i clic e il denaro, lasciando che l'algoritmo del feed di notizie di Facebook determini quali argomenti tratteranno in seguito. Le operazioni politiche sono invece mirate a promuovere un'agenda specifica.

Ma in pratica non importa : nella loro tattica e impatto, spesso sembrano uguali. In un giorno medio, un sito clickbait motivato finanziariamente potrebbe essere popolato con notizie su celebrità, simpatici animali o storie altamente emotive, tutti fattori di traffico affidabili. Poi, quando le turbolenze politiche colpiscono, si spostano verso notizie iperpartitiche, disinformazione e esche per indignazione perché ottengono più coinvolgimento.

Il cluster di pagine macedone è un ottimo esempio. Il più delle volte il contenuto promuove i diritti delle donne e LGTBQ. Ma nel periodo di eventi come le elezioni del 2020, l'insurrezione del 6 gennaio e l'approvazione del disegno di legge antiaborto del Texas, il cluster ha amplificato contenuti politici particolarmente incisivi. Molti dei suoi articoli sono stati ampiamente diffusi da pagine legittime con un seguito enorme, inclusi quelli gestiti da Occupy Democrats, Union of Concerned Scientists e Women's March Global.

Un esempio di articolo altamente politico che alla fine è stato cancellato da uno dei cinque siti affiliati al cluster. I siti Clickbait spesso rimuovono vecchi articoli dalle loro pagine.

Le operazioni di influenza politica, nel frattempo, potrebbero pubblicare contenuti di celebrità e animali per creare pagine Facebook con un ampio seguito. Quindi si orientano anche verso la politica durante eventi politici delicati, sfruttando il vasto pubblico già a loro disposizione.

Gli agenti politici a volte pagheranno anche spammer motivati ​​finanziariamente per trasmettere propaganda sulle loro pagine Facebook o acquistare pagine per riutilizzarle per campagne di influenza. Rio ha già visto prove di un mercato nero in cui gli attori clickbait possono vendere il loro vasto pubblico di Facebook.

In altre parole, le pagine sembrano innocue finché non lo fanno. Abbiamo autorizzato attori non autentici ad accumulare enormi seguaci per scopi in gran parte sconosciuti, ha scritto Allen nel rapporto.

Questo cambiamento è avvenuto molte volte in Myanmar dall'ascesa degli allevamenti di clickbait, in particolare durante la crisi dei Rohingya e di nuovo prima e dopo il colpo di stato militare di quest'anno. (Quest'ultimo è stato accelerato da eventi molto simili a quelli che hanno portato all'insurrezione degli Stati Uniti il ​​6 gennaio, tra cui false affermazioni diffuse di un'elezione rubata .)

Nell'ottobre 2020, Facebook ha rimosso una serie di pagine e gruppi impegnati in comportamenti di clickbait coordinati in Myanmar. In un'analisi di queste risorse, Graphika, una società di ricerca che studia la diffusione delle informazioni online, ha scoperto che le pagine si concentravano principalmente su notizie e gossip sulle celebrità, ma spingevano fuori propaganda politica, pericolosa retorica anti-musulmana e disinformazione covid-19 durante i momenti chiave di crisi . Decine di pagine hanno avuto più di 1 milione di follower ciascuna, con la più grande che ha raggiunto oltre 5 milioni.

Lo stesso fenomeno si è verificato nelle Filippine in vista delle elezioni del 2016 del presidente Rodrigo Duterte. Duterte è stato paragonato a Donald Trump per la sua politica populista, la retorica roboante e le tendenze autoritarie. Durante la sua campagna, una clickbait farm, registrata formalmente come società Twinmark Media, è passata dalla copertura di celebrità e intrattenimento alla promozione di lui e della sua ideologia.

A quel tempo, era opinione diffusa che i politici avessero assunto Twinmark per condurre una campagna di influenza. Ma nelle interviste con giornalisti e ricercatori , gli ex dipendenti di Twinmark hanno ammesso che stavano semplicemente inseguendo il profitto. Attraverso la sperimentazione, i dipendenti hanno scoperto che i contenuti pro-Duterte eccellevano durante un'accesa elezione. Hanno persino pagato altre celebrità e influencer per condividere i loro articoli per ottenere più clic e generare più entrate pubblicitarie, secondo la ricerca dagli studiosi di media e comunicazione Jonathan Ong e Jason Vincent A. Cabañes.

Negli ultimi mesi della campagna, Duterte ha dominato il discorso politico sui social media. Facebook stesso lo ha chiamato il re indiscusso delle conversazioni su Facebook quando ha scoperto che era oggetto di 68% di tutte le discussioni relative alle elezioni , rispetto al 46% del suo prossimo rivale più vicino.

A tre mesi dalle elezioni, Maria Ressa, CEO della società di media Rappler, che quest'anno ha vinto il Premio Nobel per la Pace per il suo lavoro di lotta alla disinformazione, ha pubblicato un pezzo descrivendo come un concerto di clickbait e propaganda coordinati su Facebook abbia spostato l'opinione pubblica su questioni chiave.

È una strategia di 'morte con mille tagli': un taglio ai fatti, usando mezze verità che fabbricano una realtà alternativa unendo il potere di robot e account falsi sui social media per manipolare persone reali, ha scritto.

In 2019, Facebook finalmente abbattuto 220 pagine Facebook, 73 account Facebook e 29 account Instagram collegati a Twinmark Media. A quel punto, Facebook e Google avevano già pagato alla fattoria fino a $ 8 milioni ( 400 milioni di pesos filippini ).

Né Facebook né Google hanno confermato tale importo. Osborne di Meta ha contestato la caratterizzazione secondo cui Facebook aveva influenzato le elezioni.

Una minaccia in evoluzione

Secondo il rapporto interno di Allen, Facebook ha compiuto un grande sforzo per eliminare gli allevamenti di clickbait dagli articoli istantanei e dalle interruzioni pubblicitarie nella prima metà del 2019. In particolare, ha iniziato a controllare gli editori per l'originalità dei contenuti e a demonetizzare coloro che hanno pubblicato contenuti in gran parte non originali.

Ma questi controlli automatizzati sono limitati. Si concentrano principalmente sulla valutazione dell'originalità dei video e non, ad esempio, sul plagio di un articolo. Anche se lo facessero, tali sistemi sarebbero validi solo quanto le capacità di intelligenza artificiale dell'azienda in una determinata lingua. I paesi con lingue non prioritarie dalla comunità di ricerca sull'IA ricevono molta meno attenzione, se non del tutto. Nel caso dell'Etiopia ci sono 100 milioni di persone e sei lingue. Facebook supporta solo due di queste lingue per i sistemi di integrità, ha detto Haugen durante la sua testimonianza al Congresso.

Rio dice che ci sono anche scappatoie nell'applicazione. I trasgressori vengono rimossi dal programma ma non dalla piattaforma e possono presentare ricorso per essere reintegrati. Gli appelli vengono elaborati da un team separato da quello che esegue l'esecuzione ed esegue solo controlli topici di base prima di reintegrare l'attore. (Facebook non ha risposto alle domande su cosa cercano effettivamente questi controlli.) Di conseguenza, possono essere necessarie poche ore prima che un operatore di clickbait si unisca nuovamente ancora e ancora dopo la rimozione. In qualche modo tutte le squadre non si parlano, dice.

È così che Rio si è trovata in uno stato di panico nel marzo di quest'anno. Un mese dopo che i militari avevano arrestato l'ex leader democratico Aung San Suu Kyi e preso il controllo del governo, i manifestanti si stavano ancora scontrando violentemente con il nuovo regime. I militari stavano sporadicamente interrompendo l'accesso a Internet e alle reti di trasmissione e Rio era terrorizzata dalla sicurezza dei suoi amici nel paese.

Ha iniziato a cercarli nei video di Facebook Live. Le persone stavano guardando attivamente questi video perché è così che tieni traccia dei tuoi cari, dice. Non era preoccupata di vedere che i video provenivano da pagine con problemi di credibilità; credeva che gli streamer stessero usando pagine false per proteggere il loro anonimato.

Poi è successo l'impossibile: ha visto due volte lo stesso video dal vivo. Se lo ricordava perché era orribile: centinaia di bambini, che sembravano appena 10 anni, in fila con le mani sulla testa, venivano caricati su camion militari.

Quando ha approfondito, ha scoperto che i video non erano affatto dal vivo. I video in diretta hanno lo scopo di indicare una trasmissione in tempo reale e includono importanti metadati sull'ora e sul luogo dell'attività. Questi video sono stati scaricati da altrove e ritrasmessi su Facebook utilizzando strumenti di terze parti per farli sembrare dei live streaming.

Ha rischiato tutto per smascherare Facebook. Ora sta raccontando la sua storia.

Sophie Zhang, ex scienziata di dati di Facebook, ha rivelato che consente la manipolazione politica globale e ha fatto ben poco per fermarla.

Ce n'erano centinaia, accumulando decine di migliaia di impegni e centinaia di migliaia di visualizzazioni. All'inizio di novembre, il MIT Technology Review ha rilevato dozzine di falsi video Live duplicati da questo periodo di tempo ancora. Una doppia coppia con oltre 200.000 e 160.000 visualizzazioni, rispettivamente, proclamata in birmano, sono l'unico che trasmette in diretta da tutto il paese in tempo reale. Facebook ne ha cancellati molti dopo che li abbiamo portati alla sua attenzione, ma ne rimangono ancora dozzine, così come le pagine che li hanno pubblicati. Osborne ha affermato che la società è a conoscenza del problema e ha ridotto significativamente queste vite false e la loro distribuzione nell'ultimo anno.

Ironia della sorte, crede Rio, i video sono stati probabilmente strappati da filmati della crisi caricati su YouTube come prova dei diritti umani. Le scene, in altre parole, provengono effettivamente dal Myanmar, ma erano tutte inviate dal Vietnam e dalla Cambogia.

Nell'ultimo semestre, Rio ha rintracciato e identificato diversi gruppi di pagine fuori dal Vietnam e dalla Cambogia. Molti hanno utilizzato falsi video in diretta per aumentare rapidamente il numero di follower e spingere gli spettatori a unirsi a gruppi di Facebook travestiti da comunità pro-democrazia. Rio ora teme che l'ultimo lancio di annunci in-stream di Facebook nei video live incentivi ulteriormente gli attori dei clickbait a falsificarli. Un cluster cambogiano con 18 pagine ha iniziato a pubblicare disinformazione politica altamente dannosa, raggiungendo un totale di 16 milioni di impegni e un pubblico di 1,6 milioni in quattro mesi. Facebook ha rimosso tutte le 18 pagine a marzo, ma i nuovi cluster continuano a crescere mentre altri rimangono.

Per quanto ne sa Rio, questi attori vietnamiti e cambogiani non parlano birmano. Probabilmente non capiscono la cultura birmana o la politica del paese. La linea di fondo è che non ne hanno bisogno. Non quando stanno rubando i loro contenuti.

Da allora Rio ha trovato molti dei gruppi privati ​​di Facebook e Telegram dei cambogiani (uno con più di 3.000 persone), dove scambiano strumenti e suggerimenti sulle migliori strategie per fare soldi. Il MIT Technology Review ha esaminato i documenti, le immagini e i video che ha raccolto e ha assunto un traduttore Khmer per interpretare un video tutorial che guida gli spettatori passo dopo passo attraverso un flusso di lavoro clickbait.

I materiali mostrano come gli operatori cambogiani raccolgono ricerche sui contenuti più performanti in ogni Paese e li plagiano per i loro siti clickbait. Una cartella di Google Drive condivisa all'interno della community contiene due dozzine di fogli di calcolo di collegamenti ai gruppi Facebook più popolari in 20 paesi, inclusi Stati Uniti, Regno Unito, Australia, India, Francia, Germania, Messico e Brasile.

Il video tutorial mostra anche come trovano i video YouTube più virali in diverse lingue e utilizzano uno strumento automatizzato per convertirli in un articolo per il loro sito. Abbiamo trovato 29 canali YouTube che diffondevano disinformazione politica sull'attuale situazione politica in Myanmar, ad esempio, che venivano convertiti in articoli clickbait e ridistribuiti a un nuovo pubblico su Facebook.

Uno dei canali YouTube che diffonde disinformazione politica in Myanmar. Google alla fine lo ha eliminato.

Dopo aver portato alla sua attenzione i canali, YouTube li ha chiusi tutti per aver violato le sue linee guida della community, compresi sette che ha stabilito facessero parte di operazioni di influenza coordinate legate al Myanmar. Choi ha notato che YouTube in precedenza aveva anche smesso di pubblicare annunci su quasi 2.000 video su questi canali. Continuiamo a monitorare attivamente le nostre piattaforme per evitare che i malintenzionati cerchino di abusare della nostra rete a scopo di lucro, ha affermato.

Poi ci sono altri strumenti, incluso uno che consente ai video preregistrati di apparire come falsi video di Facebook Live. Un altro genera in modo casuale dettagli del profilo per uomini statunitensi , inclusi immagine, nome, compleanno, numero di previdenza sociale, numero di telefono e indirizzo, quindi un altro strumento può produrre in serie account Facebook falsi utilizzando alcune di queste informazioni.

Ora è così facile da fare che molti attori cambogiani operano da soli. Rio li chiama microimprenditori. Nello scenario più estremo, ha visto persone gestire da sole fino a 11.000 account Facebook.

I microimprenditori di successo stanno anche addestrando altri a svolgere questo lavoro nella loro comunità. Andrà peggio, dice. 'Qualsiasi Joe nel mondo potrebbe influenzare il tuo ambiente informativo senza che tu te ne accorga.

Guadagnare sulla sicurezza

Durante la sua testimonianza al Senato nell'ottobre di quest'anno, Haugen ha evidenziato i difetti fondamentali dell'approccio basato sui contenuti di Facebook all'abuso della piattaforma. L'attuale strategia, incentrata su ciò che può e non può apparire sulla piattaforma, può solo essere reattiva e mai completa, ha affermato. Non solo richiede a Facebook di enumerare ogni possibile forma di abuso, ma richiede anche che l'azienda sia abile nella moderazione in ogni lingua. Facebook ha fallito su entrambi i fronti e le persone più vulnerabili del mondo hanno pagato il prezzo più alto, ha affermato.

Il principale colpevole, ha affermato Haugen, è il desiderio di Facebook di massimizzare il coinvolgimento, che ha trasformato il suo algoritmo e il design della piattaforma in un gigantesco megafono per incitamento all'odio e disinformazione. Un Indagine sulla revisione della tecnologia del MIT dall'inizio di quest'anno, sulla base di dozzine di interviste con dirigenti di Facebook, dipendenti attuali ed ex, colleghi del settore ed esperti esterni, conferma questa caratterizzazione.

La sua testimonianza ha anche fatto eco a ciò che Allen ha scritto nel suo rapporto e a ciò che Rio e altri esperti di disinformazione hanno visto ripetutamente attraverso le loro ricerche. Per le clickbait farm, entrare nei programmi di monetizzazione è il primo passo, ma quanto incassano dipende da quanto i sistemi di raccomandazione dei contenuti di Facebook aumentano i loro articoli. Non prospererebbero, né plagerebbero contenuti così dannosi, se le loro losche tattiche non funzionassero così bene sulla piattaforma.

Di conseguenza, eliminare le fattorie stesse non è la soluzione: attori altamente motivati ​​saranno sempre in grado di creare nuovi siti Web e nuove pagine per ottenere più soldi. Invece, sono gli algoritmi e i meccanismi di ricompensa dei contenuti che devono essere affrontati.

Nella sua relazione, Allen ha proposto un modo possibile Facebook potrebbe farlo: utilizzando ciò che è noto come una misura di autorità basata su grafici per classificare i contenuti. Ciò amplificherebbe le pagine di qualità superiore come notizie e media e diminuirebbe le pagine di qualità inferiore come clickbait, invertendo la tendenza attuale.

Haugen ha sottolineato che il fallimento di Facebook nel riparare la sua piattaforma non è dovuto alla mancanza di soluzioni, strumenti o capacità. Facebook può cambiare, ma chiaramente non lo farà da solo, ha affermato. La mia paura è che senza azione, i comportamenti divisivi ed estremisti che vediamo oggi siano solo l'inizio. Quello che abbiamo visto in Myanmar e che stiamo vedendo ora in Etiopia sono solo i capitoli iniziali di una storia così terrificante che nessuno vuole leggerne la fine.

(Osborne ha affermato che Facebook ha un approccio fondamentalmente diverso al Myanmar oggi con una maggiore esperienza nelle questioni relative ai diritti umani del paese e un team dedicato e una tecnologia per rilevare i contenuti che violano, come l'incitamento all'odio, in birmano.)

A ottobre, l'inviato speciale delle Nazioni Unite in uscita per il Myanmar ha affermato che il Paese lo aveva fatto degenerato in guerra civile . Da allora migliaia di persone sono fuggite ai paesi vicini come Thailandia e India. A metà novembre, gli attori di clickbait continuavano a pubblicare notizie false ogni ora. In un post, la leader democratica, Mother Suu, era stata assassinata. In un altro, era stata finalmente liberata.

Un ringraziamento speciale al nostro team. Design e sviluppo di Rachel Stein e Andre Vitorio. Direzione artistica e produzione di Emily Luong e Stephanie Arnett. Montaggio di Niall Firth e Mat Honan. Verifica dei fatti di Matt Mahoney. Modifica della copia di Linda Lowenthal.

Correzione: Una versione precedente dell'articolo affermava erroneamente che dopo aver contattato Facebook, gli attori di clickbait in Cambogia hanno iniziato a lamentarsi nei forum online di essere stati espulsi da Instant Articles. Gli attori erano effettivamente in Myanmar.