La teoria dell'informazione rivela la dimensione dei repertori di comunicazione di balene e delfini

Uno dei grandi eroi non celebrati della fisica del XX secolo è Claude Shannon che più o meno da solo ha inventato la teoria dell'informazione negli anni '40. Shannon ha usato la sua teoria per elaborare i limiti fondamentali di quanto possiamo comprimere i dati e quanto possiamo archiviarli e inviarli in modo affidabile.





Shannon iniziò immediatamente a usare la sua teoria per studiare il contenuto informativo della lingua inglese. Un approccio è stato quello di utilizzare i volontari per indovinare le lettere mancanti nelle parole per elaborare il loro contenuto informativo. Da questo suo studio della dimensione e del numero di parole usate di frequente, Shannon è stato in grado di misurare la complessità del linguaggio umano.

Oggi Reginald Smith, ricercatore indipendente presso la Citizen Scientists League di Rochester, New York, suggerisce un nuovo modo interessante di analizzare la comunicazione animale. Il suo approccio è quello di prendere l'approccio di Shannon al contrario: iniziare con una misura della complessità della lingua e usarla per calcolare la dimensione e il numero delle diverse parole che contiene. Il risultato è un'interessante stima dei repertori che i diversi animali utilizzano per comunicare.

Negli anni '40, Shannon rivoluzionò lo studio dell'informazione. In particolare, ha esaminato l'entropia condizionale, la quantità di informazioni che una singola lettera trasmette quando segue un'altra lettera o sequenza di lettere.



Per l'alfabeto inglese di 26 lettere più il carattere spazio, Shannon ha calcolato che una singola lettera trasmette poco più di quattro bit di informazione quando segue un'altra singola lettera. Per una lettera che segue una sequenza di due lettere, l'entropia è 3,56 bit e per una lettera che segue una sequenza di 3 lettere, è 3,3 bit. Questi valori sono noti come entropie di primo, secondo e terzo ordine.

Quella scoperta ha avuto un profondo effetto sui biologi che erano estremamente curiosi del contenuto informativo della comunicazione animale. Da allora, molti gruppi hanno registrato vari tipi di comunicazione animale e ne hanno calcolato il contenuto informativo.

I risultati mostrano chiaramente che la comunicazione animale implica quantità significative di informazioni. Ad esempio, l'entropia informativa delle danze delle api è di 2,54 bit.



Tuttavia, la complessità della comunicazione animale non è così chiara. In generale, la complessità dipende dall'ordine di dipendenza. Ad esempio, molte sequenze di richiami di uccelli mostrano un elevato contenuto di informazioni per la dipendenza di primo ordine, ma il contenuto di informazioni diminuisce significativamente quando si tratta di dipendenze di secondo e terzo ordine.

Ciò sembra suggerire che la complessità della comunicazione del richiamo degli uccelli sia relativamente bassa. Tuttavia, Smith sottolinea che i risultati sono molto sensibili alla dimensione dei repertori di uccelli. Questo è chiaramente un problema quando c'è solo una piccola quantità di dati sperimentali con cui lavorare.

Ad esempio, se gli uccelli hanno un vasto repertorio di diverse parole di 2 e 3 lettere, un'analisi corretta richiede un campione significativamente più grande di richiami di uccelli rispetto a quando il loro repertorio è piccolo.



Quindi una domanda importante è quanto siano grandi questi repertori di animali.

La nuova intuizione di Smith è che c'è un altro modo per calcolare la dimensione del repertorio di parole di diverse lunghezze. Sottolinea che l'entropia del primo ordine di una lingua è intimamente legata al numero esatto di possibili combinazioni di parole-lunghezza.

Quindi, data una misura dell'entropia del primo ordine di un linguaggio, è possibile utilizzare questo metodo combinatorio per elaborare il probabile repertorio di parole di diversa lunghezza.



Smith usa questa intuizione per riesaminare i dati raccolti per diversi tipi di animali, come delfini tursiopi, megattere e vari tipi di storni, tordi e allodole. Per ogni specie, calcola il repertorio massimo e minimo di sillabe di 1 lettera, 2 lettere e 3 lettere che compaiono nei dati.

I risultati costituiscono una lettura interessante. Smith calcola che i delfini tursiopi hanno un repertorio di 27 sillabe di una lettera, cinque sillabe di 2 lettere e quattro o cinque sillabe di 3 lettere. Al contrario, le megattere hanno un repertorio di sole sei sillabe a lettera singola ma usano diciassette o diciotto sillabe di 2 lettere (i dati non sono abbastanza estesi per rivelare il repertorio di sillabe di 3 lettere).

Gli uccelli sembrano avere vocabolari molto più grandi. Gli storni europei, ad esempio, usano più di 100 sillabe a una lettera, ma potrebbero usare fino a 78 sillabe di 3 lettere o solo 6.

Forse la scoperta più importante di Smith è che la quantità di informazioni che è in grado di estrarre sui repertori è seriamente limitata dalla dimensione dei set di dati e che è necessario più lavoro per espanderli. Alla fine, il modo migliore per misurare con precisione le dimensioni del repertorio, in particolare per i delfini e le megattere, è effettuare una misurazione molto più ampia delle sequenze, conclude.

È un lavoro interessante. Sebbene non possa rivelare l'intento o il possibile significato di queste comunicazioni animali, rivela certamente parte della sua complessità.

E Smith ha grandi aspettative per il futuro se sarà possibile raccogliere più dati. La speranza dell'autore è che le analisi della teoria dell'informazione possano aiutare a rimuovere gli strati di complessità per mostrare quanto strettamente tale comunicazione animale corrisponda o sia distinta dal linguaggio umano, afferma.

Rif: arxiv.org/abs/1308.3616 : Complessità nella comunicazione animale: stimare la dimensione delle strutture di N-Gram

nascondere