211service.com
Claude Shannon: riluttante padre dell'era digitale
Prendi un CD preferito. Ora lascialo cadere sul pavimento. Spalmalo con le tue impronte digitali. Quindi inseriscilo nella fessura del lettore e ascolta mentre la musica esce nitida come il giorno in cui hai aperto per la prima volta la custodia di plastica. Prima di passare al resto della giornata, pensa un momento all'uomo le cui idee rivoluzionarie hanno reso possibile questo miracolo: Claude Elwood Shannon.
Shannon, morto a febbraio dopo una lunga malattia, è stato uno dei più grandi giganti che hanno creato l'era dell'informazione. John von Neumann, Alan Turing e molti altri visionari ci hanno fornito computer in grado di elaborare le informazioni. Ma è stato Claude Shannon a darci il moderno concetto di informazione, un salto intellettuale che gli è valso un posto in qualunque equivalente high-tech del Monte Rushmore un giorno si sarà affermato.
Questa storia faceva parte del nostro numero di luglio 2001
- Vedi il resto del problema
- sottoscrivi
L'intera scienza della teoria dell'informazione è nata da un documento elettrizzante che Shannon ha pubblicato nel 1948, quando era un ricercatore di 32 anni presso i Bell Laboratories. Shannon ha mostrato come la nozione un tempo vaga di informazione potesse essere definita e quantificata con assoluta precisione. Dimostrò l'unità essenziale di tutti i mezzi di informazione, sottolineando che il testo, i segnali telefonici, le onde radio, le immagini, i film e ogni altro modo di comunicazione potevano essere codificati nel linguaggio universale delle cifre binarie, o bit, termine che il suo articolo era il primo da usare in stampa. Shannon ha proposto l'idea che una volta che le informazioni sono diventate digitali, possono essere trasmesse senza errori. Questo è stato un salto concettuale mozzafiato che ha portato direttamente a oggetti così familiari e robusti come i CD. Shannon aveva scritto un progetto per l'era digitale, afferma il teorico dell'informazione del MIT Robert Gallager, che è ancora intimorito dal documento del 1948.
E questo non conta nemmeno la tesi di laurea che Shannon aveva scritto 10 anni prima, quella in cui articolava i principi alla base di tutti i computer moderni. Claude ha fatto così tanto per rendere possibile la tecnologia moderna che è difficile sapere da dove iniziare e dove finire, afferma Gallager, che ha lavorato con Shannon negli anni '60. Aveva questa straordinaria chiarezza di visione. Anche Einstein ce l'aveva, questa capacità di affrontare un problema complicato e trovare il modo giusto di guardarlo, in modo che le cose diventino molto semplici.
Armeggiare verso il domani
Per Shannon, era solo un altro modo per divertirsi. Claude amava ridere e inventare cose insolite, dice il matematico in pensione dei Bell Labs David Slepian, che era un collaboratore di Shannon negli anni '50. Shannon studiava matematica come un mago da palcoscenico che praticasse i suoi giochi di prestigio: girava intorno e attaccava il problema da una direzione a cui non avresti mai pensato, dice Slepian, solo per stupirti con una risposta che era stata proprio di fronte al tuo affrontare tutto il tempo. Ma poi, Shannon aveva anche un vasto repertorio di veri trucchi con le carte. Ha imparato da solo ad andare in monociclo ed è diventato famoso per averlo guidato lungo i corridoi dei Bell Labs di notte mentre faceva il giocoliere. (Era stato un ginnasta al college, quindi era più bravo di quanto si potesse pensare, dice sua moglie Betty, che gli ha regalato la bicicletta come regalo di Natale nel 1949.)
A casa, Shannon trascorreva il suo tempo libero costruendo ogni sorta di macchine bizzarre. C'era il Throbac (Thrifty ROman-numerical Backward-looking Computer), una calcolatrice che faceva l'aritmetica con i numeri romani. C'era Teseo, un topo meccanico a grandezza naturale che poteva farsi strada in un labirinto. E forse la cosa più famosa è stata la Ultimate Machine, una scatola con un grande interruttore sul lato. Accendere l'interruttore e il coperchio si solleverebbe lentamente, rivelando una mano meccanica che si abbassava, spegneva l'interruttore e si ritirava, lasciando la scatola così com'era.
Sono sempre stato interessato a costruire cose con movimenti divertenti, ha spiegato Shannon in un'intervista del 1987 con la rivista Omni (una delle poche volte in cui ha parlato pubblicamente della sua vita). Nella sua città natale di Gaylord, nel nord del Michigan, ha ricordato, ha trascorso i suoi primi anni mettendo insieme modellini di aeroplani, circuiti radio, un modello di barca radiocomandato e persino un sistema telegrafico. E quando entrò all'Università del Michigan nel 1932, non esitò a laurearsi in ingegneria elettrica.
Dopo essersi laureato nel 1936, Shannon andò direttamente al MIT per assumere un posto di studio-lavoro che aveva visto pubblicizzato su una cartolina attaccata a una bacheca del campus. Avrebbe trascorso metà del suo tempo a conseguire un master in ingegneria elettrica e l'altra metà a lavorare come assistente di laboratorio per il pioniere dei computer Vannevar Bush, vicepresidente del MIT e decano dell'ingegneria. Bush affidò a Shannon la responsabilità dell'analizzatore differenziale, un elaborato sistema di ingranaggi, pulegge e aste che occupava la maggior parte di una grande stanza e che era probabilmente la macchina informatica più potente del pianeta all'epoca ( vedere Computing After Silicon , TR maggio/giugno 2000 ).
Concepito da Bush e dai suoi studenti alla fine degli anni '20 e completato nel 1931, il Differential Analyzer era un computer analogico. Non rappresentava variabili matematiche con uno e zero, come fanno i computer digitali, ma con un intervallo continuo di valori: la rotazione fisica delle aste. Il compito di Shannon era aiutare gli scienziati in visita a programmare i loro problemi sull'analizzatore riorganizzando i collegamenti meccanici tra le aste in modo che i loro movimenti corrispondessero alle equazioni matematiche appropriate.
Shannon non avrebbe potuto chiedere un lavoro più adatto al suo amore per i movimenti divertenti. Era particolarmente attratto dal circuito di controllo meravigliosamente complicato dell'analizzatore, che consisteva in circa un centinaio di relè-interruttori che potevano essere aperti e chiusi automaticamente da un elettromagnete. Ma ciò che lo intrigava particolarmente era quanto il funzionamento dei relè fosse molto simile al funzionamento della logica simbolica, un argomento che aveva appena studiato durante il suo ultimo anno al Michigan. Ogni interruttore era chiuso o aperto, una scelta che corrispondeva
esattamente alla scelta binaria in logica, dove un'affermazione era vera o falsa. Inoltre, Shannon si rese presto conto che gli interruttori combinati nei circuiti potevano eseguire operazioni standard di logica simbolica. L'analogia apparentemente non era mai stata riconosciuta prima. Quindi Shannon ne fece l'argomento della sua tesi di master e trascorse la maggior parte del 1937 a elaborarne le implicazioni. In seguito ha detto a un intervistatore che si è divertito più a farlo che a qualsiasi altra cosa nella mia vita.
Vero o falso?
Certamente la sua tesi, A Symbolic Analysis of Relay and Switching Circuits, è una lettura avvincente, soprattutto considerando quello che è successo negli oltre 60 anni da quando è stata scritta. Come digressione verso la fine, ad esempio, Shannon ha fatto notare che i valori logici vero e falso potevano essere ugualmente denotati dalle cifre numeriche 1 e 0. Questa realizzazione significava che i relè potevano eseguire le operazioni allora arcane dell'aritmetica binaria. . Così, scriveva Shannon, è possibile eseguire complesse operazioni matematiche per mezzo di circuiti a relè. A titolo illustrativo, Shannon ha mostrato il progetto di un circuito in grado di aggiungere numeri binari.
Ancora più importante, Shannon si rese conto che un circuito del genere poteva anche fare confronti. Ha visto la possibilità di un dispositivo che potrebbe intraprendere corsi di azione alternativi a seconda delle circostanze, come in, se il numero X è uguale al numero Y, quindi eseguire l'operazione A. Shannon ha dato una semplice illustrazione di questa possibilità nella sua tesi mostrando come relè gli interruttori potevano essere disposti in modo da produrre una serratura che si apriva se e solo se una serie di pulsanti veniva premuta nell'ordine corretto.
Le implicazioni erano profonde: un circuito di commutazione poteva decidere, un'abilità che un tempo era sembrata unica per gli esseri viventi. Negli anni a venire, la prospettiva delle macchine decisionali avrebbe ispirato l'intero campo dell'intelligenza artificiale, il tentativo di modellare il pensiero umano tramite computer. E forse non a caso, quel campo affascinerà Claude Shannon per il resto della sua vita.
Da un punto di vista più immediato, tuttavia, la capacità di decisione di un circuito di commutazione era ciò che avrebbe reso i computer digitali emersi dopo la seconda guerra mondiale qualcosa di fondamentalmente nuovo. Non erano le loro capacità matematiche in sé che i contemporanei trovavano così sorprendenti (sebbene le macchine fossero certamente molto veloci); anche negli anni '40, il mondo era pieno di calcolatrici da tavolo elettromeccaniche che potevano fare semplici addizioni e sottrazioni. La parte sorprendente è stata la capacità dei nuovi computer di operare sotto il controllo di un programma interno, decidendo tra varie alternative ed eseguendo da soli complesse sequenze di comandi.
Ecco perché A Symbolic Analysis of Relay and Switching Circuits, pubblicato nel 1938, è stata definita la tesi di master più importante del XX secolo. Poco più che ventenne, Claude Shannon aveva avuto l'intuizione cruciale per organizzare le operazioni interne di un computer moderno, quasi un decennio prima che tali computer esistessero. Negli anni successivi, la tecnologia di commutazione è passata da relè elettromeccanici a transistor microscopici incisi sul silicio. Ma fino ad oggi, i progettisti di microchip parlano e pensano ancora in termini di logica interna dei loro chip, un concetto che deriva in gran parte dal lavoro di Shannon.
Informazioni perfette
Con l'incoraggiamento di Vannevar Bush, Shannon decise di far seguire alla sua laurea magistrale un dottorato in matematica, compito che portò a termine in appena un anno e mezzo. Non molto tempo dopo aver ricevuto questo diploma nella primavera del 1940, si unì ai Bell Labs. Poiché l'ingresso degli Stati Uniti nella seconda guerra mondiale era chiaramente solo una questione di tempo, Shannon iniziò immediatamente a lavorare su progetti militari come il controllo del fuoco antiaereo e la crittografia (creazione e decifrazione del codice).
Tuttavia, Shannon trovava sempre il tempo per lavorare sulla teoria fondamentale delle comunicazioni, un argomento che aveva suscitato il suo interesse diversi anni prima. Di tanto in tanto, aveva scritto Shannon a Bush nel febbraio 1939, in una lettera ora conservata negli archivi della Library of Congress, ho lavorato su un'analisi di alcune delle proprietà fondamentali dei sistemi generali per la trasmissione dell'intelligence, compresa la telefonia, radio, televisione, telegrafia, ecc. Per progredire verso quell'obiettivo, aveva bisogno di un modo per specificare ciò che veniva trasmesso durante l'atto di comunicazione.
Basandosi sul lavoro dell'ingegnere dei Bell Labs Ralph Hartley, Shannon ha formulato un'espressione matematica rigorosa per il concetto di informazione. Almeno nei casi più semplici, ha detto Shannon, il contenuto informativo di un messaggio era il numero di uno e zero binari necessari per codificarlo. Se sapessi in anticipo che un messaggio trasmetterebbe una semplice scelta - sì o no, vero o falso - allora una cifra binaria sarebbe sufficiente: un singolo uno o un singolo zero ti dicevano tutto ciò che dovevi sapere. Il messaggio sarebbe quindi definito per avere un'unità di informazione. Un messaggio più complicato, d'altra parte, richiederebbe più cifre da codificare e conterrebbe molte più informazioni; pensa alle migliaia o milioni di uno e zero che compongono un file di elaborazione testi.
Come Shannon si rese conto, questa definizione aveva i suoi aspetti perversi. Un messaggio può contenere solo un'unità binaria di informazioni - Sì - ma un mondo di significato - come in Sì, ti sposerò. Ma il lavoro degli ingegneri era quello di portare i dati da qui a lì con un minimo di distorsione, indipendentemente dal loro contenuto. E a tal fine, la definizione digitale delle informazioni era l'ideale, perché permetteva un'analisi matematica precisa. Quali sono i limiti alla capacità di un canale di comunicazione? Quanta di quella capacità puoi usare in pratica? Quali sono i modi più efficienti per codificare le informazioni per la trasmissione nell'inevitabile presenza di rumore?
A giudicare dai suoi commenti molti anni dopo, Shannon aveva delineato le sue risposte a tali domande entro il 1943. Stranamente, tuttavia, sembra non aver sentito l'urgenza di condividere quelle intuizioni; alcuni dei suoi più stretti collaboratori all'epoca giurano di non avere idea che stesse lavorando alla teoria dell'informazione. Né aveva fretta di pubblicare e quindi assicurarsi il credito per l'opera. Ero più motivato dalla curiosità, spiegò nella sua intervista del 1987, aggiungendo che il processo di scrittura per la pubblicazione era doloroso. Alla fine, tuttavia, Shannon vinse la sua riluttanza. Il risultato: il documento innovativo A Mathematical Theory of Communication, apparso nei numeri di luglio e ottobre 1948 del Rivista tecnica del sistema Bell .
Le idee di Shannon sono esplose con la forza di una bomba. È stato come un fulmine a ciel sereno, ricorda John Pierce, che era uno dei migliori amici di Shannon ai Bell Labs, eppure sorpreso dalla carta di Shannon come chiunque altro. Non conosco nessun'altra teoria che sia arrivata in una forma completa come quella, con pochissimi antecedenti o storia. In effetti, c'era qualcosa in questa nozione di quantificazione delle informazioni che accendeva l'immaginazione delle persone. È stata una rivelazione, dice Oliver Selfridge, che allora era uno studente laureato al MIT. Intorno al MIT la reazione è stata: Brillante! Perché non ci ho pensato?'
Gran parte del potere dell'idea di Shannon risiedeva nella sua unificazione di quello che era stato un insieme diversificato di tecnologie. Fino ad allora, la comunicazione non era una scienza unificata, afferma Gallager del MIT. C'era un mezzo per la trasmissione vocale, un altro mezzo per la radio, altri ancora per i dati. Claude ha mostrato che tutta la comunicazione era fondamentalmente la stessa e, inoltre, che si poteva prendere qualsiasi fonte e rappresentarla con dati digitali.
Questa intuizione da sola avrebbe reso l'articolo di Shannon uno dei grandi successi analitici del XX secolo. Ma c'era di più. Supponiamo che tu stia cercando di inviare, diciamo, un saluto di compleanno lungo una linea telegrafica, o tramite un collegamento wireless, o anche nella posta degli Stati Uniti. Shannon è stato in grado di dimostrare che qualsiasi canale di comunicazione di questo tipo aveva un limite di velocità, misurato in cifre binarie al secondo. La cattiva notizia era che al di sopra di quel limite di velocità, la fedeltà perfetta era impossibile: non importava quanto abilmente avessi codificato il tuo messaggio e compresso, semplicemente non potevi farlo andare più veloce senza buttare via alcune informazioni.
La buona notizia strabiliante, tuttavia, era che al di sotto di questo limite di velocità, la trasmissione era potenzialmente perfetta. Non solo molto buono: perfetto. Shannon ha fornito una prova matematica che dovevano esistere codici che ti portassero fino al limite senza perdere alcuna informazione. Inoltre, ha dimostrato, sarebbe possibile una trasmissione perfetta indipendentemente da quanta elettricità statica e distorsione potrebbe esserci nel canale di comunicazione e non importa quanto debole potrebbe essere il segnale. Naturalmente, potrebbe essere necessario codificare ogni lettera o pixel con un numero enorme di bit per garantire che ne passino a sufficienza. E potresti dover escogitare tutti i tipi di fantasiosi schemi di correzione degli errori in modo che le parti corrotte del messaggio possano essere ricostruite dall'altra parte. E sì, in pratica i codici alla fine diventerebbero così lunghi e la comunicazione così lenta che dovresti arrenderti e lasciare che il rumore vinca. Ma in linea di principio, potresti rendere la probabilità di errore il più vicino possibile allo zero.
Questo teorema fondamentale della teoria dell'informazione, come lo chiamava Shannon, aveva sorpreso anche lui quando lo aveva scoperto. La conquista del rumore sembrava violare ogni buon senso. Ma per i suoi contemporanei nel 1948, vedendo il teorema per la prima volta, l'effetto fu elettrizzante. Per ridurre la possibilità di errore che desideri? Nessuno ci aveva mai pensato, si stupisce Robert Fano del MIT, che è diventato lui stesso uno dei principali teorici dell'informazione negli anni '50 e che ha ancora una fotografia reverenziale di Shannon appesa nel suo ufficio. Come abbia avuto quell'intuizione, come sia arrivato a credere a una cosa del genere, non lo so. Ma quasi tutta la moderna ingegneria della comunicazione si basa su quel lavoro.
Il lavoro di Shannon incombe su tutto ciò che facciamo, concorda Robert Lucky, vicepresidente aziendale della ricerca applicata presso Telcordia, lo spinoff dei Bell Labs precedentemente noto come Bellcore. In effetti, osserva, il teorema fondamentale di Shannon è servito da ideale e da sfida per le generazioni successive. Per 50 anni, le persone hanno lavorato per raggiungere la capacità del canale che, secondo lui, era possibile. Solo di recente ci siamo avvicinati. La sua influenza è stata profonda.
E, aggiunge Lucky, il lavoro di Shannon ha ispirato lo sviluppo di tutti i nostri moderni codici di correzione degli errori e algoritmi di compressione dei dati. In altre parole: niente Shannon, niente Napster.
Il teorema di Shannon spiega come possiamo lanciare casualmente i compact disc in un modo che nessuno avrebbe osato con dischi in vinile di lunga durata: quei codici di correzione degli errori consentono al lettore CD di eliminare praticamente il rumore dovuto a graffi e impronte digitali prima che lo sentiamo . Il teorema di Shannon spiega allo stesso modo come i modem dei computer possono trasmettere dati compressi a decine di migliaia di bit al secondo su linee telefoniche ordinarie e rumorose. Spiega come gli scienziati della NASA sono stati in grado di riportare sulla Terra le immagini del pianeta Nettuno attraverso tre miliardi di chilometri di spazio interplanetario. E fa molto per spiegare perché la parola digitale è diventata sinonimo del più alto standard possibile nella qualità dei dati.
Spegnimento
I riconoscimenti per il lavoro di Shannon sono stati rapidi ad arrivare. Warren Weaver, direttore della Divisione di Scienze Naturali della Fondazione Rockefeller, ha dichiarato che la teoria dell'informazione comprende tutte le procedure con cui una mente può influenzare un'altra, inclusi non solo il discorso scritto e orale, ma anche la musica, le arti pittoriche, il teatro, il balletto , e di fatto tutti i comportamenti umani. La rivista Fortune riusciva a malapena a contenere il suo entusiasmo, definendo la teoria dell'informazione una delle creazioni più orgogliose e rare dell'uomo, una grande teoria scientifica che poteva alterare profondamente e rapidamente la visione dell'uomo del mondo. Lo stesso Shannon dovette presto mettere da parte un'intera stanza della sua casa solo per contenere tutte le sue citazioni, targhe e testimonianze.
Entro un anno o due dalla pubblicazione del suo articolo, tuttavia, Shannon fu inorridito nello scoprire che la teoria dell'informazione stava diventando, beh, popolare. La gente diceva cose ridicole sulla quantità di informazioni che esce dal sole, o anche sul contenuto informativo del rumore. Gli scienziati presentavano domande di sovvenzione che facevano riferimento alla teoria dell'informazione, indipendentemente dal fatto che le loro proposte avessero qualcosa a che fare con essa o meno. La teoria dell'informazione stava diventando una parola d'ordine, proprio come l'intelligenza artificiale, il caos e la complessità avrebbero fatto negli anni '80 e '90. E Shannon lo odiava. In un articolo del 1956 intitolato The Bandwagon, sulla rivista Transazioni sulla teoria dell'informazione , dichiarò che la teoria dell'informazione era stata enormemente venduta in eccesso. Forse è cresciuto fino a raggiungere un'importanza al di là dei suoi reali risultati, ha scritto.
Piuttosto che continuare a combattere quella che sapeva essere una battaglia persa, Shannon si ritirò. Pur continuando, per un certo periodo, le sue ricerche sulla teoria dell'informazione, rifiutò quasi tutti gli infiniti inviti a tenere conferenze oa rilasciare interviste ai giornali; non voleva essere una celebrità. Allo stesso modo smise di rispondere a gran parte della sua posta. La corrispondenza delle principali figure della scienza e del governo è finita dimenticata e senza risposta in una cartella di file che ha etichettato Lettere su cui ho procrastinato troppo a lungo. Con il passare degli anni, infatti, Shannon iniziò a ritirarsi non solo dall'opinione pubblica ma anche dalla comunità di ricerca - un atteggiamento che preoccupava i suoi colleghi del MIT, che lo avevano assunto lontano dai Bell Labs nel 1958. Scrisse bellissimi articoli - quando ha scritto, dice Fano del MIT. E faceva dei bei discorsi, quando faceva un discorso. Ma odiava farlo.
Di tanto in tanto, Shannon ha continuato a pubblicare. Un esempio notevole, prima che diventasse troppo inorridito dalla sua celebrità e si ritirasse più completamente, fu un articolo seminale del 1950 per Scientifico americano descrivendo come un computer potrebbe essere programmato per giocare a scacchi. Ma svanì lentamente dalla scena accademica, ricorda Peter Elias, un altro leader del gruppo di teoria dell'informazione del MIT. La visione dell'insegnamento di Claude era quella di tenere una serie di conferenze sulla ricerca di cui nessun altro era a conoscenza. Ma quel ritmo era molto impegnativo; in effetti, stava preparando un documento di ricerca ogni settimana. A metà degli anni '60, ricorda Elias, Shannon aveva smesso di insegnare.
Dopo il suo ritiro ufficiale nel 1978, all'età di 62 anni, Shannon si ritirò felicemente nella sua casa nel sobborgo di Winchester, MA, a Boston. Il denaro non era un problema; grazie alla sua conoscenza delle industrie high-tech che sorgono intorno alla Route 128 di Boston, aveva fatto alcuni astuti investimenti nel mercato azionario. Né sembrava esserci alcuna diminuzione della sua ingegnosità. Ha ancora costruito cose! ricorda Betty Shannon con una risata. Uno era una... figura di W. C. Fields che faceva rimbalzare tre palline su una pelle di tamburo. Ha fatto un gran rumore, lascia che te lo dica!
Tuttavia, arrivò un momento intorno al 1985 in cui lui e Betty iniziarono a notare alcuni errori. Sarebbe andato a fare un giro in macchina e avrebbe dimenticato come tornare a casa. Nel 1992, quando l'Institute of Electrical and Electronics Engineers si stava preparando a pubblicare i suoi documenti raccolti, Shannon fu turbato nel rendersi conto che non riusciva a ricordare di averne scritti molti. E a metà del 1993, quando le sue condizioni divennero evidenti a tutti, la famiglia confermò ciò che molti avevano iniziato a sospettare: Claude Shannon aveva il morbo di Alzheimer. Più tardi quell'anno la sua famiglia lo mise a malincuore in una casa di cura.
Nel 1998, quando la sua città natale di Gaylord, MI, ha commemorato il 50° anniversario della teoria dell'informazione svelando un busto del suo creatore in un parco cittadino, Betty Shannon ha ringraziato la città in sua vece. Fisicamente, dice, stava bene quasi fino alla fine, quando tutto sembrava crollare subito. Ma il 24 febbraio, a soli due mesi dall'85° compleanno di Shannon, la fine è arrivata. La risposta alla sua morte è stata travolgente, dice. Penso che lo avrebbe sbalordito.
