Gli allevamenti di troll hanno raggiunto 140 milioni di americani al mese su Facebook prima delle elezioni del 2020, secondo i rapporti interni

Revisione della tecnologia del MIT | Elementi Envato





Aggiornare: Dopo la pubblicazione di questa storia, Facebook ha cancellato due delle cinque pagine di una fattoria di troll che abbiamo identificato.

In vista delle elezioni del 2020, le più contestate nella storia degli Stati Uniti, le pagine più popolari di Facebook per i contenuti cristiani e neri americani erano gestite da allevamenti di troll dell'Europa orientale. Queste pagine facevano parte di una rete più ampia che collettivamente ha raggiunto quasi la metà di tutti gli americani, secondo un rapporto interno dell'azienda, e ha raggiunto tale obiettivo non attraverso la scelta dell'utente, ma principalmente come risultato del design della piattaforma di Facebook e dell'algoritmo affamato di coinvolgimento.

Come Facebook è diventato dipendente dalla diffusione di disinformazione

Gli algoritmi di intelligenza artificiale dell'azienda le hanno dato un'abitudine insaziabile di bugie e incitamento all'odio. Ora l'uomo che li ha costruiti non può risolvere il problema.



Il rapporto, scritto nell'ottobre 2019 e ottenuto dal MIT Technology Review da un ex dipendente di Facebook non coinvolto nella ricerca, ha rilevato che dopo le elezioni del 2016, Facebook non ha dato la priorità ai cambiamenti fondamentali nel modo in cui la sua piattaforma promuove e distribuisce le informazioni. L'azienda ha invece perseguito una strategia stravagante che prevedeva il monitoraggio e l'annullamento dell'attività dei cattivi attori quando si impegnavano in discorsi politici e l'aggiunta di alcuni guardrail che impedivano il peggio del peggio.

Ma questo approccio ha fatto ben poco per arginare il problema di fondo, osserva il rapporto. Le fattorie di troll, gruppi professionali che lavorano in modo coordinato per pubblicare contenuti provocatori, spesso di propaganda, sui social network, stavano ancora creando un pubblico enorme gestendo reti di pagine Facebook. Il loro contenuto raggiungeva 140 milioni di utenti statunitensi al mese, il 75% dei quali non aveva mai seguito nessuna delle pagine. Stavano vedendo il contenuto perché il sistema di raccomandazione dei contenuti di Facebook lo aveva inserito nei loro feed di notizie.

Invece degli utenti che scelgono di ricevere contenuti da questi attori, è la nostra piattaforma che sceglie di dare [a queste fattorie di troll] un'enorme portata, ha scritto l'autore del rapporto, Jeff Allen, un ex scienziato di dati di livello senior di Facebook.



Joe Osborne, un portavoce di Facebook, ha dichiarato in una dichiarazione che la società aveva già indagato su questi argomenti al momento del rapporto di Allen, aggiungendo: Da allora, abbiamo sostenuto i team, sviluppato nuove politiche e collaborato con colleghi del settore per affrontare queste reti. Abbiamo intrapreso azioni di contrasto aggressive contro questo tipo di gruppi non autentici stranieri e nazionali e abbiamo condiviso pubblicamente i risultati su base trimestrale.

Nel processo di verifica di questa storia poco prima della pubblicazione, il MIT Technology Review ha scoperto che cinque delle pagine di troll farm menzionate nel rapporto sono rimaste attive.

Questa è la più grande pagina di troll farm rivolta agli afroamericani nell'ottobre 2019. Rimane ancora attiva su Facebook.



Il rapporto ha rilevato che gli allevamenti di troll stavano raggiungendo gli stessi gruppi demografici individuati dall'Internet Research Agency (IRA) sostenuta dal Cremlino durante le elezioni del 2016, che avevano preso di mira cristiani, neri americani e nativi americani. Un 2018 Indagine su BuzzFeed News ha scoperto che almeno un membro dell'IRA russa, incriminato per presunta interferenza nelle elezioni americane del 2016, aveva anche visitato la Macedonia durante l'emergere dei suoi primi allevamenti di troll, sebbene non avesse trovato prove concrete di una connessione. (Facebook ha affermato che le sue indagini non hanno rivelato nemmeno un collegamento tra l'IRA e gli allevamenti di troll macedoni.)

Questo non è normale. Questo non è salutare, ha scritto Allen. Abbiamo autorizzato attori non autentici ad accumulare enormi seguaci per scopi in gran parte sconosciuti ... Il fatto che attori con possibili legami con l'IRA abbiano accesso a un numero enorme di spettatori negli stessi gruppi demografici presi di mira dall'IRA rappresenta un rischio enorme per le elezioni statunitensi del 2020 .

Finché le fattorie di troll hanno avuto successo nell'usare queste tattiche, anche qualsiasi altro cattivo attore potrebbe farlo, ha continuato: se le fattorie di troll stanno raggiungendo 30 milioni di utenti statunitensi con contenuti mirati agli afroamericani, non dovremmo affatto sorprenderci se scopriamo l'IRA attualmente ha anche un vasto pubblico lì.



Allen ha scritto il rapporto come la quarta e ultima puntata di uno sforzo di un anno e mezzo per comprendere le fattorie di troll. Ha lasciato l'azienda lo stesso mese, in parte a causa della frustrazione per il fatto che la leadership avesse effettivamente ignorato la sua ricerca, secondo l'ex dipendente di Facebook che ha fornito il rapporto. Allen ha rifiutato di commentare.

Il rapporto rivela lo stato allarmante in cui la leadership di Facebook ha lasciato la piattaforma per anni, nonostante le ripetute promesse pubbliche di affrontare in modo aggressivo le interferenze elettorali con sede all'estero. Il MIT Technology Review sta rendendo disponibile il rapporto completo, con i nomi dei dipendenti oscurati, perché è nell'interesse pubblico.

Le sue rivelazioni includono:

  • A ottobre 2019, circa 15.000 pagine Facebook con un pubblico a maggioranza statunitense erano esaurite dal Kosovo e dalla Macedonia, noti cattivi attori durante le elezioni del 2016.
  • Collettivamente, quelle pagine di troll farm, che il rapporto tratta come una singola pagina a scopo di confronto, hanno raggiunto 140 milioni di utenti statunitensi mensilmente e 360 ​​milioni di utenti globali settimanalmente. La pagina di Walmart ha raggiunto il secondo pubblico più grande negli Stati Uniti con 100 milioni.
  • Le pagine della fattoria dei troll si sono anche combinate per formare:
    • la più grande pagina cristiana americana su Facebook, 20 volte più grande della successiva più grande, raggiungendo 75 milioni di utenti statunitensi mensilmente, il 95% dei quali non aveva mai seguito nessuna delle pagine.
    • la più grande pagina afroamericana su Facebook, tre volte più grande della successiva più grande, raggiungendo 30 milioni di utenti statunitensi mensilmente, l'85% dei quali non aveva mai seguito nessuna delle pagine.
    • la seconda più grande pagina dei nativi americani su Facebook, raggiungendo 400.000 utenti mensili, il 90% dei quali non aveva mai seguito nessuna delle pagine.
    • la quinta pagina femminile più grande su Facebook, raggiungendo mensilmente 60 milioni di utenti statunitensi, il 90% dei quali non aveva mai seguito nessuna delle pagine.
  • Gli allevamenti di troll interessano principalmente gli Stati Uniti, ma prendono di mira anche il Regno Unito, l'Australia, l'India e i paesi dell'America centrale e meridionale.
  • Facebook ha condotto diversi studi confermando che i contenuti che hanno maggiori probabilità di ricevere il coinvolgimento degli utenti (Mi piace, commenti e condivisioni) hanno maggiori probabilità di un tipo noto per essere negativo. Tuttavia, la società ha continuato a classificare i contenuti nei feed di notizie degli utenti in base a ciò che riceverà il maggior coinvolgimento.
  • Facebook vieta alle pagine di pubblicare contenuti semplicemente copiati e incollati da altre parti della piattaforma, ma non applica la politica contro noti malintenzionati. Ciò rende facile per gli attori stranieri che non parlano la lingua locale pubblicare contenuti interamente copiati e raggiungere comunque un vasto pubblico. A un certo punto, fino al 40% delle visualizzazioni di pagina sulle pagine statunitensi è andato a quelle che presentavano principalmente contenuti non originali o materiale di limitata originalità.
  • Le fattorie di troll in precedenza si sono fatte strada nei programmi di partnership di Facebook Instant Articles e Ad Breaks, progettati per aiutare le testate giornalistiche e altri editori a monetizzare i loro articoli e video. A un certo punto, a causa della mancanza di controlli di qualità di base, fino al 60% delle letture di articoli istantanei andava a contenuti che erano stati plagiati altrove. Ciò ha reso facile per gli allevamenti di troll mescolarsi inosservati e persino ricevere pagamenti da Facebook.

Come Facebook abilita le fattorie di troll e fa crescere il loro pubblico

Il rapporto esamina in particolare gli allevamenti di troll con sede in Kosovo e Macedonia, che sono gestiti da persone che non capiscono necessariamente la politica americana. Tuttavia, a causa del modo in cui i sistemi di ricompensa dei feed di notizie di Facebook sono progettati, possono comunque avere un impatto significativo sul discorso politico.

Ha rischiato tutto per smascherare Facebook. Ora sta raccontando la sua storia.

Sophie Zhang, ex scienziata di dati di Facebook, ha rivelato che consente la manipolazione politica globale e ha fatto ben poco per fermarla.

Nel rapporto, Allen identifica tre ragioni per cui queste pagine sono in grado di ottenere un pubblico così vasto. Innanzitutto, Facebook non penalizza le pagine per la pubblicazione di contenuti completamente non originali. Se qualcosa è già diventato virale, probabilmente lo diventerà di nuovo quando verrà pubblicato una seconda volta. Questo rende davvero facile per chiunque creare un enorme seguito tra i neri americani, ad esempio. I cattivi attori possono semplicemente copiare il contenuto virale dalle pagine dei neri americani, o anche Reddit e Twitter, e incollarlo sulla propria pagina, o talvolta dozzine di pagine.

In secondo luogo, Facebook invia contenuti accattivanti sulle pagine alle persone che non le seguono. Quando gli amici degli utenti commentano o ricondividono i post su una di queste pagine, anche quegli utenti lo vedranno nei loro feed di notizie. Più il contenuto di una pagina viene commentato o condiviso, più viaggia oltre i suoi follower. Ciò significa che le fattorie di troll, la cui strategia è incentrata sulla ripubblicazione dei contenuti più coinvolgenti, hanno un'enorme capacità di raggiungere un nuovo pubblico.

In terzo luogo, il sistema di ranking di Facebook spinge i contenuti più accattivanti più in alto nei feed di notizie degli utenti. Per la maggior parte, le persone che gestiscono allevamenti di troll hanno motivazioni finanziarie piuttosto che politiche; pubblicano ciò che riceve più coinvolgimento, con poca attenzione al contenuto effettivo. Ma poiché è più probabile che disinformazione, clickbait e contenuti politicamente divisivi ricevano un elevato coinvolgimento (come riconoscono le analisi interne di Facebook), le fattorie di troll gravitano nel pubblicarne di più nel tempo, afferma il rapporto.

Di conseguenza, nell'ottobre 2019, tutte le 15 delle prime pagine destinate ai cristiani americani, 10 delle prime 15 pagine Facebook rivolte ai neri americani e quattro delle prime 12 pagine Facebook rivolte ai nativi americani erano gestite da allevamenti di troll.

La nostra piattaforma ha dato la più grande voce nella comunità cristiana americana a una manciata di cattivi attori che, in base alle loro pratiche di produzione dei media, non sono mai stati in chiesa, ha scritto Allen. La nostra piattaforma ha dato la più grande voce nella comunità afroamericana a una manciata di cattivi attori che, in base alle loro pratiche di produzione dei media, non hanno mai avuto un'interazione con un afroamericano.

Recensione: perché Facebook non può mai aggiustarsi da solo

In An Ugly Truth, le reporter Sheera Frenkel e Cecilia Kang rivelano i difetti fondamentali di Facebook attraverso un resoconto dettagliato degli anni trascorsi tra due elezioni americane.

Mi sembrerà sempre profondamente strano... e genuinamente orribile, ha scritto. Sembra abbastanza chiaro che fino a quando la situazione non sarà risolta, sentiremo sempre forti venti contrari nel tentativo di portare a termine la nostra missione.

La relazione suggeriva anche una possibile soluzione. Non è la prima volta che l'umanità ha combattuto contro i cattivi attori nei nostri ecosistemi mediatici, ha scritto, indicando l'uso da parte di Google di ciò che è noto come misura dell'autorità basata su grafici, che valuta la qualità di una pagina Web in base alla frequenza con cui viene citata e è citato da altre pagine web di qualità, per declassare i cattivi attori nelle sue classifiche di ricerca.

Abbiamo la nostra implementazione di una misura di autorità basata su grafici, ha continuato. Se la piattaforma prendesse più in considerazione questa metrica esistente nelle pagine di ranking, potrebbe aiutare a capovolgere la tendenza inquietante in cui le pagine raggiungono il pubblico più ampio.

Quando le classifiche di Facebook danno la priorità al coinvolgimento, le pagine delle fattorie di troll battono le pagine autentiche, ha scritto Allen. Ma il 90% delle pagine della fattoria dei troll ha esattamente 0 autorità del grafico... [Le pagine autentiche] vincono chiaramente.

Problemi sistemici

Una ricerca in tutte le pagine di troll farm elencate nel rapporto rivela che cinque sono ancora attive quasi due anni dopo:

  • Una pagina chiamata My Baby Daddy Ain't Shit, che era la più grande pagina Facebook rivolta agli afroamericani nell'ottobre 2019.
  • Una pagina chiamata Savage Hood, che prende di mira gli afroamericani.
  • Una pagina chiamata Hood Videos, che prende di mira gli afroamericani.
  • Una pagina chiamata Scopo della vita, rivolta ai cristiani.
  • Una pagina chiamata Eagle Spirit, che prende di mira i nativi americani.

Una pagina di una fattoria di troll rivolta ai cristiani americani.

Il recente controverso di Facebook Rapporto sui contenuti ampiamente visualizzati suggerisce che permangono anche alcune delle principali vulnerabilità sfruttate dai troll farm. Quindici dei 19 post più visti elencati nel rapporto furono plagiati da altri post che in precedenza erano diventati virali su Facebook o su un'altra piattaforma, secondo un'analisi di Casey Newton a The Verge.

Samantha Bradshaw, ricercatrice post-dottorato presso la Stanford University che studia l'intersezione tra disinformazione, social media e democrazia, afferma che il rapporto parla di molti problemi sistemici più profondi con la piattaforma e il loro algoritmo nel modo in cui promuovono determinati tipi di contenuti a determinati utenti, il tutto solo sulla base di questo valore di crescita sottostante. Se questi non vengono corretti, continueranno a creare incentivi economici distorti per i cattivi attori, aggiunge: questo è il problema.

Leggi il rapporto completo qui:

nascondere