211service.com
Come combattere l'odio online
La scienziata dei dati Jennifer Chayes pensa che possiamo utilizzare strumenti computazionali per sradicare i comportamenti scorretti online.
27 ottobre 2021
Christie There Klok
Durante il suo periodo in Microsoft e nel mondo accademico, Jennifer Chayes ha lottato per utilizzare la scienza dei dati e l'informatica per rendere l'intelligenza artificiale più equa e meno parziale.
Dall'abbandono scolastico all'età di 15 anni a diventare il decano della scienza dei dati presso l'Università della California, Berkeley, Chayes ha avuto un bel percorso di carriera. È entrata a far parte dell'UCLA nel 1987 come professore di ruolo di matematica. Dieci anni dopo, Microsoft l'ha attirata a cofondare il suo gruppo interdisciplinare di teoria della ricerca.
Questa storia faceva parte del nostro numero di novembre 2021
- Vedi il resto del problema
- sottoscrivi
È stato nel suo laboratorio Microsoft a New York City che i ricercatori hanno scoperto pregiudizi nel software di riconoscimento facciale dell'azienda, dimostrando che il sistema classificava i volti bianchi in modo più accurato rispetto ai volti marroni e neri. Questa scoperta ha indotto la società a rifiutare un contratto redditizio con un dipartimento di polizia e ha iniziato a lavorare per rimuovere il pregiudizio da tali algoritmi. Il Gruppo FATE (Fairness, Accountability, Transparency and Ethics in AI). è stato creato in laboratorio.
Anil Anantaswamy ha chiesto a Chayes, ora prevosto associato della Divisione di informatica, scienza dei dati e società e preside della School of Information di Berkeley, in che modo la scienza dei dati sta trasformando l'informatica e altri campi.
D: Com'è stato il passaggio dal mondo accademico all'industria?
A: È stato un vero shock. Il vicepresidente della ricerca in Microsoft, Dan Ling, mi ha chiamato per cercare di convincermi a fare un colloquio. Gli ho parlato per circa 40 minuti. E alla fine ho detto, vuoi davvero sapere cosa mi dà fastidio? Microsoft è un gruppo di adolescenti e non voglio passare la vita con un gruppo di adolescenti.
D: Come ha reagito a questo?
A: Ha detto, Oh, no, non lo siamo. Vieni a conoscerci. Ho incontrato alcune donne incredibili lì quando ho visitato e ho incontrato persone straordinariamente aperte che volevano provare le cose per cambiare il mondo.
D: In che modo la scienza dei dati ha cambiato l'informatica?
A: Man mano che abbiamo ottenuto più dati, l'informatica ha iniziato a guardare verso l'esterno. Penso alla scienza dei dati come un matrimonio di informatica, statistica, etica e un'enfasi di dominio o un'enfasi disciplinare, che si tratti di biomedicina e salute, clima e sostenibilità, o benessere umano e giustizia sociale e così via. Sta trasformando l'informatica.
D: C'è una differenza nel modo in cui i data scientist risolvono i problemi?
A: Con l'avvento di tutti questi dati, abbiamo l'opportunità di imparare dai dati senza avere una teoria del perché qualcosa sta accadendo. Soprattutto in questa era di machine learning e deep learning, ci consente di trarre conclusioni e fare previsioni senza una teoria sottostante.
D: Può causare problemi?
A: Alcuni lo considerano un problema nei casi in cui si hanno, [ad esempio] dati biomedici. I dati predicono in modo molto accurato cosa funzionerà e cosa non funzionerà, senza un meccanismo biologico sottostante.
D: Qualche vantaggio?
A: Ciò che i dati ci hanno permesso di fare ora, in molti casi, è eseguire ciò che un economista chiamerebbe un controfattuale, in cui si vedono effettivamente variazioni casuali nei dati che consentono di trarre conclusioni senza fare esperimenti. È incredibilmente utile.
Voglio davvero provare diverse educazioni su popolazioni diverse? O voglio vedere [che] c'è stata una variazione casuale ad un certo punto che mi permetterà di trarre un'inferenza causale davvero buona, e quindi posso basare la politica su di essa?
D: Vedi un problema nel modo in cui i dati vengono utilizzati, specialmente dalle grandi aziende?
R: Ci sono una miriade di problemi. Non viene utilizzato solo dalle società tecnologiche. Viene utilizzato dalle compagnie assicurative. Viene utilizzato da piattaforme governative, piattaforme di salute pubblica e piattaforme educative. Se non capisci in modo esplicito quali pregiudizi possono insinuarsi, sia nei set di dati stessi che negli algoritmi, probabilmente aggraverai il pregiudizio.
Questi pregiudizi si insinuano [quando] non ci sono molti dati. E può anche essere correlato con altri fattori. Personalmente ho lavorato all'interpretazione automatica di bios e CV. Non siamo autorizzati a usare sesso o razza. Anche se non guardo [questi] attributi protetti, ci sono molte cose [nei dati] che sono proxy per sesso o razza. Se sei andato in determinate scuole, se sei cresciuto in certi quartieri, se hai praticato determinati sport e hai svolto determinate attività, queste sono correlate [con genere o razza].
D: Gli algoritmi raccolgono questi proxy?
A: Lo aggravano. Devi capirlo esplicitamente e devi impedirlo esplicitamente scrivendo l'algoritmo.
D: Come possiamo affrontare tali problemi?
A: C'è tutta questa area di FATE: equità, responsabilità, trasparenza ed etica nell'IA, che è la progettazione di questi algoritmi e la comprensione di cosa sono. Ma c'è molto di più che dobbiamo fare.
D: E la scienza dei dati aiuta?
A: Questa è assolutamente scienza dei dati. C'è una parte della rete chiamata manosfera, da cui ha origine molto odio. È un po' difficile da rintracciare. Ma se utilizzi l'elaborazione del linguaggio naturale e altri strumenti, puoi vedere da dove proviene. Puoi anche provare a costruire interfacce che consentano ai gruppi di difesa e ad altri di trovarlo e di aiutarlo a sradicarlo. Questo va oltre il semplice essere onesti. Questo sta ribaltando il modo in cui queste piattaforme sono state usurpate per aumentare il pregiudizio e l'odio e dicendo: Utilizzeremo la potenza dell'informatica e della scienza dei dati per identificare e mitigare l'odio.
