Come l'IA sta reinventando ciò che sono i computer

Tre modi chiave in cui l'intelligenza artificiale sta cambiando ciò che significa calcolare.





22 ottobre 2021 concetto di calcolo

Andrea Daquino

Autunno 2021: la stagione delle zucche, delle torte di pecan e dei nuovi telefonini alla pesca. Ogni anno, proprio al momento giusto, Apple, Samsung, Google e altri rilasciano le loro ultime versioni. Questi dispositivi nel calendario tecnologico dei consumatori non ispirano più la sorpresa e la meraviglia di quei primi giorni inebrianti. Ma dietro tutto lo sfarzo del marketing, c'è qualcosa di straordinario in corso.

L'ultima offerta di Google, Pixel 6, è il primo telefono ad avere un chip separato dedicato all'IA che si affianca al suo processore standard. E il chip che gestisce l'iPhone ha contenuto negli ultimi due anni quello che Apple chiama un motore neurale, anch'esso dedicato all'IA. Entrambi i chip sono più adatti ai tipi di calcoli coinvolti nell'addestramento e nell'esecuzione di modelli di apprendimento automatico sui nostri dispositivi, come l'IA che alimenta la tua fotocamera. Quasi senza che ce ne accorgessimo, l'IA è diventata parte della nostra vita quotidiana. E sta cambiando il modo in cui pensiamo all'informatica.



Che cosa significa? Bene, i computer non sono cambiati molto in 40 o 50 anni. Sono più piccoli e veloci, ma sono comunque scatole con processori che eseguono istruzioni da esseri umani. L'intelligenza artificiale lo cambia su almeno tre fronti: come sono fatti i computer, come sono programmati e come vengono utilizzati. Alla fine, cambierà a cosa servono.

Il cuore dell'informatica sta cambiando dalla gestione dei numeri al processo decisionale, afferma Pradeep Dubey, direttore del laboratorio di calcolo parallelo di Intel. Oppure, come dice Daniela Rus, direttrice del MIT CSAIL, l'IA sta liberando i computer dalle loro scatole.

Più fretta meno velocità

Il primo cambiamento riguarda il modo in cui sono realizzati i computer e i chip che li controllano. I vantaggi dell'informatica tradizionale sono arrivati ​​quando le macchine sono diventate più veloci nell'esecuzione di un calcolo dopo l'altro. Per decenni il mondo ha beneficiato dell'accelerazione dei chip che è arrivata con regolarità metronomica poiché i produttori di chip hanno tenuto il passo con la legge di Moore.



Ma i modelli di deep learning che fanno funzionare le attuali applicazioni di intelligenza artificiale richiedono un approccio diverso: necessitano di un gran numero di calcoli meno precisi da eseguire contemporaneamente. Ciò significa che è necessario un nuovo tipo di chip: uno in grado di spostare i dati il ​​più rapidamente possibile, assicurandosi che siano disponibili quando e dove è necessario. Quando il deep learning è esploso sulla scena una decina di anni fa, erano già disponibili chip speciali per computer che erano abbastanza bravi in ​​questo: unità di elaborazione grafica, o GPU, progettate per visualizzare un intero schermo di pixel decine di volte al secondo.

Tutto può diventare un computer. In effetti, la maggior parte degli oggetti per la casa, dagli spazzolini da denti agli interruttori della luce ai campanelli, sono già disponibili in una versione smart.

Ora i produttori di chip come Intel, Arm e Nvidia, che hanno fornito molte delle prime GPU, stanno ruotando per realizzare hardware su misura per l'IA. Anche Google e Facebook si stanno facendo strada per la prima volta in questo settore, in una corsa per trovare un vantaggio AI attraverso l'hardware.



Ad esempio, il chip all'interno del Pixel 6 è una nuova versione mobile dell'unità di elaborazione del tensore di Google, o TPU. A differenza dei chip tradizionali, che sono orientati verso calcoli ultraveloci e precisi, i TPU sono progettati per i calcoli ad alto volume ma a bassa precisione richiesti dalle reti neurali. Google utilizza internamente questi chip dal 2015: elaborano le foto delle persone e le query di ricerca in linguaggio naturale. La consociata di Google, DeepMind, li usa per addestrare le sue IA.

Negli ultimi due anni, Google ha reso disponibili le TPU ad altre aziende e questi chip, oltre a quelli simili sviluppati da altri, stanno diventando l'impostazione predefinita all'interno dei data center del mondo.

L'IA sta anche aiutando a progettare la propria infrastruttura informatica. Nel 2020, Google ha utilizzato un algoritmo di apprendimento per rinforzo, un tipo di intelligenza artificiale che impara a risolvere un compito attraverso tentativi ed errori, per progettare il layout di una nuova TPU. L'IA alla fine ha escogitato strani nuovi progetti a cui nessun umano avrebbe pensato, ma hanno funzionato. Questo tipo di IA potrebbe un giorno sviluppare chip migliori e più efficienti.



Mostra, non dire

La seconda modifica riguarda il modo in cui ai computer viene detto cosa fare. Negli ultimi 40 anni abbiamo programmato computer; per i prossimi 40 li addestreremo, afferma Chris Bishop, capo di Microsoft Research nel Regno Unito.

Tradizionalmente, per fare in modo che un computer facesse qualcosa come riconoscere il parlato o identificare oggetti in un'immagine, i programmatori dovevano prima inventare delle regole per il computer.

Con l'apprendimento automatico, i programmatori non scrivono più regole. Invece, creano una rete neurale che apprende queste regole da sola. È un modo di pensare fondamentalmente diverso.

L'IA sta imparando a creare se stessa

Gli esseri umani hanno lottato per creare macchine veramente intelligenti. Forse dobbiamo lasciarli andare avanti da soli.

Esempi di ciò sono già all'ordine del giorno: il riconoscimento vocale e l'identificazione delle immagini sono ora funzionalità standard degli smartphone. Altri esempi hanno fatto notizia, come quando AlphaZero ha imparato a giocare a Go meglio degli umani. Allo stesso modo, AlphaFold ha risolto un problema di biologia, capire come si piegano le proteine, con cui le persone hanno lottato per decenni.

Per Bishop, le prossime grandi scoperte arriveranno nella simulazione molecolare: addestrare i computer a manipolare le proprietà della materia, facendo potenzialmente passi da gigante nell'uso dell'energia, nella produzione alimentare, nella produzione e nella medicina.

Spesso si fanno promesse senza fiato come questa. È anche vero che il deep learning ha un track record di sorprenderci. Due dei più grandi passi avanti di questo tipo fino ad ora - far sì che i computer si comportino come se capissero la lingua e riconoscano cosa c'è in un'immagine - stanno già cambiando il modo in cui li usiamo.

Il computer sa meglio

Per decenni, far fare qualcosa a un computer ha significato digitare un comando o almeno fare clic su un pulsante.

Le macchine non hanno più bisogno di una tastiera o di uno schermo con cui gli esseri umani possano interagire. Tutto può diventare un computer. In effetti, la maggior parte degli oggetti per la casa, dagli spazzolini da denti agli interruttori della luce ai campanelli, sono già disponibili in una versione smart. Ma man mano che proliferano, vorremo dedicare meno tempo a dire loro cosa fare. Dovrebbero essere in grado di elaborare ciò di cui abbiamo bisogno senza che gli venga detto.

Questo è il passaggio dalla gestione dei numeri al processo decisionale che secondo Dubey definisce la nuova era dell'informatica.

Rus vuole che abbracciamo il supporto cognitivo e fisico offerto. Immagina i computer che ci dicono cose che dobbiamo sapere quando dobbiamo conoscerle e che intervengono quando abbiamo bisogno di una mano. Quando ero un ragazzino, uno dei miei film [scene] preferiti in tutto il mondo era 'L'apprendista stregone', dice Rus. Sai come Topolino chiama la scopa per aiutarlo a riordinare? Non avremo bisogno della magia per farlo accadere.

Sappiamo come finisce quella scena. Topolino perde il controllo della scopa e fa un gran casino. Ora che le macchine interagiscono con le persone e si integrano nel caos del resto del mondo, tutto diventa più incerto. I computer sono fuori dalle loro scatole.

nascondere