211service.com
Il settore delle assunzioni dell'IA è sotto esame, ma sarà difficile risolverlo
Categoria: Politica tecnologica Inserito 07 novL'Electronic Privacy Information Center (EPIC) ha ha chiesto alla Federal Trade Commission di indagare su HireVue , uno strumento di intelligenza artificiale che aiuta le aziende a capire quali lavoratori assumere.
Cos'è HireVue? HireVue è uno dei numerosi strumenti di intelligenza artificiale che le aziende utilizzano per valutare i candidati al lavoro. L'algoritmo analizza le interviste video, utilizzando qualsiasi cosa, dalla scelta delle parole ai movimenti facciali per capire un punteggio di occupabilità che viene confrontato con quello di altri candidati. Più di 100 aziende l'hanno già utilizzato su oltre un milione di candidati, secondo il Washington Post .
Qual è il problema? È difficile prevedere quali lavoratori avranno successo da cose come le espressioni facciali. Peggio ancora, i critici temono che l'algoritmo sia addestrato su dati limitati e quindi sarà più probabile che segnino i candidati tradizionali (bianchi, maschi) come più occupabili. Di conseguenza, è probabile che i candidati che si discostino dal tradizionale, comprese le persone che non parlano inglese come lingua madre o che sono disabili, ottengano punteggi più bassi, dicono gli esperti . Inoltre, incoraggia i candidati a giocare con il sistema intervistando in un modo che sanno che HireVue apprezzerà.
Qual è il prossimo? Gli strumenti di assunzione dell'IA non sono ben regolamentati e affrontare il problema sarà difficile per alcuni motivi.
—La maggior parte delle aziende non rilascerà i propri dati né spiegherà come funzionano gli algoritmi, quindi è molto difficile provare eventuali pregiudizi. Questo è in parte il motivo per cui finora non ci sono state cause legali importanti. La denuncia EPIC, che suggerisce che la promessa di HireVue viola le regole della FTC contro le pratiche sleali e ingannevoli, è un inizio. Ma non è chiaro se succederà qualcosa. La FTC ha ricevuto il reclamo ma non ha detto se lo seguirà.
—Altri tentativi di prevenire i pregiudizi sono ben intenzionati ma limitati. All'inizio di quest'anno, i legislatori dell'Illinois hanno approvato una legge che richiede ai datori di lavoro di farlo almeno dillo a chi cerca lavoro che utilizzeranno questi algoritmi e per ottenere il loro consenso. Ma non è molto utile. È probabile che molte persone acconsentano semplicemente perché non vogliono perdere l'opportunità.
— Infine, proprio come l'IA nella salute o l'IA nelle aule di tribunale, l'intelligenza artificiale nelle assunzioni ricreerà i pregiudizi della società, il che è un problema complicato. Le autorità di regolamentazione dovranno capire quanta responsabilità dovrebbero assumersi le aziende nell'evitare gli errori di una società prevenuta.