Il Dipartimento della Difesa sta emettendo linee guida etiche dell'IA per gli appaltatori tecnologici

Vista satellitare 3D del drone dell

Signora Tech | Getty





Nel 2018, quando i dipendenti di Google hanno scoperto il coinvolgimento della loro azienda in Progetto Maven , un controverso sforzo militare statunitense per sviluppare l'IA per analizzare i video di sorveglianza, non erano contenti. Migliaia hanno protestato. Crediamo che Google non dovrebbe essere nel business della guerra, hanno scritto in a lettera alla dirigenza aziendale . Una decina di dipendenti ha rassegnato le dimissioni. Google non ha rinnovato il contratto nel 2019.

Project Maven esiste ancora e da allora altre società tecnologiche, tra cui Amazon e Microsoft, hanno preso il posto di Google. Eppure il Dipartimento della Difesa degli Stati Uniti sa di avere un problema di fiducia. È qualcosa che deve affrontare per mantenere l'accesso alla tecnologia più recente, in particolare all'IA, che richiederà la collaborazione con Big Tech e altre organizzazioni non militari.

Le agenzie governative statunitensi prevedono di aumentare l'uso della tecnologia di riconoscimento facciale

Un nuovo sondaggio mostra che i sistemi controversi sono pronti a svolgere un ruolo ancora più importante negli affari federali.



Nel tentativo di promuovere la trasparenza, la Defense Innovation Unit, che assegna contratti DoD alle aziende, ha rilasciato ciò che chiama linee guida di intelligenza artificiale responsabile che richiederà agli sviluppatori di terze parti di utilizzare durante la creazione dell'IA per i militari, indipendentemente dal fatto che l'IA sia per un sistema HR o per il riconoscimento di obiettivi.

Le linee guida forniscono un processo passo dopo passo che le aziende devono seguire durante la pianificazione, lo sviluppo e l'implementazione. Includono procedure per identificare chi potrebbe utilizzare la tecnologia, chi potrebbe esserne danneggiato, quali potrebbero essere questi danni e come potrebbero essere evitati, sia prima che il sistema sia costruito sia una volta che è attivo e funzionante.

Non esistono altre linee guida, né all'interno del Dipartimento della Difesa né, francamente, nel governo degli Stati Uniti, che entrino in questo livello di dettaglio, afferma Bryce Goodman della Defense Innovation Unit, coautore delle linee guida.



Il lavoro potrebbe cambiare il modo in cui l'IA viene sviluppata dal governo degli Stati Uniti, se le linee guida del DoD vengono adottate o adattate da altri dipartimenti. Goodman dice che lui ei suoi colleghi li hanno dati alla NOAA e al Dipartimento dei trasporti e stanno parlando con gruppi di etica all'interno del Dipartimento di giustizia, dell'amministrazione generale dei servizi e dell'IRS.

Lo scopo delle linee guida è assicurarsi che gli appaltatori tecnologici si attengano ai DoD esistenti principi etici per l'IA , dice Goodman. Il DoD ha annunciato questi principi l'anno scorso, a seguito di uno studio biennale commissionato dal Defense Innovation Board, un comitato consultivo di importanti ricercatori tecnologici e uomini d'affari istituito nel 2016 per portare la scintilla della Silicon Valley alle forze armate statunitensi. Il consiglio è stato presieduto dall'ex CEO di Google Eric Schmidt fino a settembre 2020 e i suoi attuali membri includono Daniela Rus, direttrice del Computer Science and Artificial Intelligence Lab del MIT.

Eppure alcuni critici si chiedono se il lavoro prometta una riforma significativa.



Durante lo studio, il consiglio ha consultato una serie di esperti, inclusi i critici dell'uso dell'IA da parte dei militari, come i membri della Campagna per i robot killer e Meredith Whittaker, un'ex ricercatrice di Google che ha contribuito a organizzare le proteste del Project Maven.

Whittaker, che ora è direttore della facoltà presso l'AI Now Institute della New York University, non era disponibile per commenti. Ma secondo Courtney Holsworth, portavoce dell'istituto, ha partecipato a una riunione, in cui ha discusso con i membri senior del consiglio, incluso Schmidt, sulla direzione che stava prendendo. Non è mai stata consultata in modo significativo, dice Holsworth. Affermare che lo fosse potrebbe essere letto come una forma di lavaggio dell'etica, in cui la presenza di voci dissenzienti durante una piccola parte di un lungo processo viene utilizzata per affermare che un determinato risultato ha un ampio consenso da parte delle parti interessate.

Se il DoD non ha un ampio consenso, le sue linee guida possono comunque aiutare a creare fiducia? Ci saranno persone che non saranno mai soddisfatte da nessuna serie di linee guida etiche prodotte dal DoD perché trovano l'idea paradossale, afferma Goodman. È importante essere realistici su ciò che le linee guida possono e non possono fare.



Ad esempio, le linee guida non dicono nulla sull'uso di armi autonome letali, una tecnologia che secondo alcuni attivisti dovrebbe essere bandita. Ma Goodman sottolinea che i regolamenti che disciplinano tale tecnologia sono decisi più in alto nella catena. L'obiettivo delle linee guida è rendere più facile costruire un'IA che soddisfi tali normative. E parte di questo processo consiste nel rendere esplicite le preoccupazioni degli sviluppatori di terze parti. Una valida applicazione di queste linee guida è decidere di non perseguire un sistema particolare, afferma Jared Dunnmon della DIU, che ne è coautore. Puoi decidere che non è una buona idea.

Perché i ricercatori di IA dovrebbero riconsiderare la protesta contro il coinvolgimento in progetti militari Un consigliere del Dipartimento della Difesa suggerisce che un impegno costruttivo avrà più successo che rinunciare.

Margaret Mitchell, ricercatrice di intelligenza artificiale presso Faccina che abbraccia , che ha co-diretto Il team di IA etica di Google con Timnit Gebru prima che lo fossero entrambi costretto a lasciare l'azienda , concorda sul fatto che le linee guida etiche possono contribuire a rendere un progetto più trasparente per coloro che vi lavorano, almeno in teoria. Mitchell aveva un posto in prima fila durante le proteste a Google. Una delle principali critiche che i dipendenti hanno avuto è stata che l'azienda stava consegnando una tecnologia potente ai militari senza barriere, dice: Le persone hanno finito per andarsene proprio a causa della mancanza di qualsiasi tipo di linee guida chiare o trasparenza.

Per Mitchell, i problemi non sono chiari. Penso che alcune persone in Google abbiano sicuramente ritenuto che tutto il lavoro con i militari fosse negativo, dice. Non sono una di quelle persone. Ha parlato con il Dipartimento della Difesa di come può collaborare con le aziende in un modo che rispetti i loro principi etici.

Pensa che ci sia ancora molta strada da fare prima che il Dipartimento della Difesa ottenga la fiducia di cui ha bisogno. Un problema è che alcune delle formulazioni nelle linee guida sono aperte all'interpretazione. Ad esempio, affermano: Il dipartimento adotterà misure deliberate per ridurre al minimo i pregiudizi non intenzionali nelle capacità dell'IA. E il pregiudizio previsto? Potrebbe sembrare una pignoleria, ma le differenze di interpretazione dipendono da questo tipo di dettagli.

Monitorare l'uso della tecnologia militare è difficile perché in genere richiede il nulla osta di sicurezza. Per affrontare questo problema, Mitchell vorrebbe che i contratti del Dipartimento della Difesa fornissero revisori indipendenti con l'autorizzazione necessaria, che possono rassicurare le aziende sul fatto che le linee guida vengono davvero seguite. I dipendenti hanno bisogno di una garanzia che le linee guida vengano interpretate come si aspettano, dice.

nascondere