Piccola introduzione alla teoria dell’informazione: storia, concetti e importanza di una teoria che ci riguarda più di quanto potreste pensare. Da Shannon a Kolmogorov e oltre
(brogliaccio del video: www.youtube.com/watch?v=U4gxqBkWQQc)
[INTRO]
Ciao! Oggi parliamo di informazione. È qualcosa di cui abbiamo un vero e proprio esubero, nelle nostre vite. Siamo iperconnessi, sommersi di informazioni, spesso inutili, e ci pare di essere in definitiva incapaci di fare un uso sensato di questa marea di dati. Ma che cos’è davvero l’informazione? Da dove viene l’idea che possa essere misurata, trasmessa, compressa?
La teoria dell’informazione ha trasformato il modo in cui comunichiamo ed elaboriamo informazioni. Ha in definitiva cambiato il modo in cui comprendiamo la realtà. Ecco perché vale la pena conoscerla. Iniziamo subito e, nell’attesa che vi iscriviate, mettiate like e condividiate il video ecco la… SIGLA!
[SEZIONE 1: STORIA DELL’INFORMAZIONE]
L’umanità ha sempre avuto a che fare con l’informazione, anche se non la chiamava così. Quando gli antichi egizi incidevano simboli sulle pareti, o quando i messaggeri trasportavano ordini reali a cavallo, c’era già in gioco una sfida fondamentale: trasmettere un messaggio nel tempo e nello spazio, cercando di preservarne l’integrità e la comprensibilità.
Il vero cambio di paradigma, però, arriva nel XV secolo con la stampa di Gutenberg. Da quel momento, l’informazione può essere riprodotta e veicolata in grandi quantità. Nasce il concetto moderno di “contenuto” – qualcosa che può essere copiato, diffuso, conservato. È una rivoluzione devastante nei suoi effetti: alfabetizzazione, scienza moderna, opinione pubblica e molto altro che oggi diamo per scontato nasce in corrispondenza di quell’avanzamento tecnologico.
Saltando avanti di qualche secolo arriviamo al telegrafo prima, al telefono poi, tecnologie che ci permettono improvvisamente di comunicare anche a grandi distanze e in tempo reale, esattamente con coloro con cui vogliamo comunicare. Ma ancora non c’è un quadro teorico unificante. Ed ecco che tutto cambia nel 1948, quando Claude Shannon, allora ai laboratori Bell, pubblica “A Mathematical Theory of Communication”. In quella pubblicazione – di cui impressiona l’asciuttezza, il suo essere schiettamente matematica e quasi clinica – c’è l’equivalente intellettuale di una nuova rivoluzione copernicana: l’idea che l’informazione possa essere misurata, codificata e ottimizzata.
In realtà la priorità sull’introduzione dell’informazione vista come quantità misurabile è contesa, nel senso che Shannon la attribuiva a Norbert Wiener, il padre della cibernetica, e Wiener sosteneva che la priorità fosse stata di Shannon. Insomma due tipi proprio litigiosi. In ogni caso Wiener fu senza dubbio uno dei primi a comprendere che l’informazione non riguardava soltanto la trasmissione di segnali, ma rappresentava una categoria più generale, legata all’organizzazione e al controllo nei sistemi biologici e meccanici. Nel suo libro “Cybernetics” del 1948, contemporaneo al lavoro di Shannon, Wiener propose che l’informazione fosse centrale per comprendere i fenomeni naturali e sociali, ponendo le basi per un approccio interdisciplinare che avrebbe influenzato la biologia, l’ingegneria e la filosofia della mente.
Ma torniamo a Shannon. Il matematico e ingegnere non è una figura particolarmente conosciuta ed è strano, perché il suo lavoro pesa su ogni scambio di informazioni che ci capita di avere ogni momento della nostra vita con interlocutori umani e artificiali. Ed è pure strano perché era una personalità con dei tratti affascinanti. Eccolo qui.
Claude Elwood Shannon nasce nel 1916 nel Michigan. Fin da giovane mostra un talento straordinario per la matematica e l’ingegneria, qualità che lo porteranno al MIT, dove consegue un master in ingegneria elettrica e un dottorato in matematica. Ed è lì che scrive una tesi, considerata da molti suoi colleghi “la più importante del XX secolo”, in quanto getta le basi dell’algebra booleana applicata ai circuiti logici. Nonostante questo risultato fosse già di per sé eclatante, è nel 1948, ai laboratori Bell, che Shannon pubblica l’articolo che cambierà davvero tutto: “A Mathematical Theory of Communication”, “Una teoria matematica della comunicazione”.
Come dicevo è stranissimo che Shannon sia rimasto sconosciuto come personaggio pop, per quanto chiunque abbia una formazione scientifica indubbiamente debba sapere di lui e delle sue teorie, perché oltre ad essere un genio matematico, e un uomo, diciamolo, decisamente affascinante [eccolo], era pure un personaggio eccentrico e creativo: era appassionato di giocoleria e della costruzione di assurdi aggeggi meccanici, tipo monocicli per ufficio, e strane macchine che facevano una cosa e una cosa sola: si spegnevano da sole. Altri oggetti assurdamente geniali che progetto e costruì con le sue mani e con l’aiuto della moglie e di cui non posso non parlarvi erano, per esempio, un freesbe a razzo, un calcolatore che faceva calcoli con i numeri romani, una macchina per risolvere il cubo di rubik e delle scarpe per camminare sull’acqua. Tra le sue costruzioni più famose ci sono poi Theseus il topo elettromeccanico che apprendeva e il giocoliere robot. Insomma Shannon era un mix di tratti seriosi e di immaginazione visionaria e gioiosa. Molti lo hanno paragonato e hanno paragonato il suo contributo a quelli di Newton ed Einstein. Morte prima della morte se lo portò via l’Alzheimer.
Scusate, non volevo metterci con una nota così fosca, ma c’è qualcosa di così tragico nel morire di Alzheimer per una mente così vulcanica e geniale, che non farei bene il mio lavoro, che è in definitica quello di trasmettervi informazioni anche attraverso le emozioni, se non vi raccontassi anche di questo risvolto. Ma per non chiudere questo breve profilo biografico in modo così deprimente ecco alcune parole di Shannon stesso, che mi sembra possano essere l’inno a ogni curiosità intellettuale. [Spezzone dove shannon dice che tutto sta nel gioco, per gli scenziati].
Ma qui non voglio imbarcarmi in una biografia di Shannon, non è questo il mio scopo, anche se forse ne manca una fatta davvero bene in italiano. Magari in futuro.
Lasciamo per un attimo quindi Shannon e passiamo a un importante compagno di strada del nostro vulcano intellettuale: Warren Weaver, matematico, padre della traduzione automatica e grande divulgatore. Fu lui, oltre che a contribuire al lavoro teorico, a intuire le implicazioni della svolta formale di Shannon al di là della sola tecnologia dell’informazione, proponendone implicazioni che vanno oltre la tecnica delle comunicazioni e impattano sulla linguistica, sulla psicologia e sulla biologia. In questa visione la comunicazione non riguarda solo i segnali, ma anche il significato e l’effetto. È la distinzione – ancora oggi fondamentale – tra il livello tecnico, semantico ed efficace della comunicazione, su cui torneremo.
Da questa collaborazione nasce un’opera complessiva che oramai è inscindibilmente composta dall’articolo di Shannon come fondamento teorico, preceduta dal testo “Recent Contributions to the Mathematical Theory of Communication” ovvero “Recenti contributi alla teoria matematica delle comunicazioni” di Warren Weaver che ne è diventata parte sostanziale, più che una mera introduzione. E devo fare anche una lode a Damiano Cantone e Andrea Colombo per una introduzione all’edizione italiana breve ma molto informativa.
INTERMEZZO
E questa considerazione mi porta a farne un’ altra. Questa mattina, poco prima di scrivere queste parole ho detto a mio figlio: “Se avessi letto questo libro alle superiori la mia vita sarebbe stata molto diversa”. Magari è un po’ di esagerazione, ma mi fa pensare come l’assurdo ritardo di scuola ed editoria possano influire, anche pesantemente sulle possibilità dei nostri ragazzi di aprirsi alle materie tramite grandi contributi di grandi personaggi. Certo, oggi questi contenuti sono immediatamente accessibili a chi legge l’inglese, cosa che era ben diversa alla fine del secolo scorso, ma rimane centrale il ruolo degli editori di dare valore alle opere che lo meritano e degli insegnanti di offrire panorami ai loro studenti, anche attraverso tali opere. Onore al merito all’editore PGRECO, dunque per aver pubblicato questo libro fondamentale, 40 o 50 anni dopo l’unica altra edizione italiana e 76 anni dopo l’uscita dell’originale. È questo il destino di opere fondamentali nel panorama dell’editoria italiana e a breve anche l’edizione PGRECO scomparirà, certamente, privando altri studenti della possibilità di leggere questo importante libro nella propria lingua. Disonore dunque a PGRECO per la poca lungimiranza, comune per calcoli assurdi di convenienza a tanti editori italiani, che li ha portati, nel 2024, ancora a non pubblicare l’edizione elettronica di questo libro. Occasione persa, ma ancora recuperabile.
E come al solito mi sono fatto sviare. Lo dovrò fare, prima o poi, un bel video sui vizi dell’editoria italiana.
Adesso però torniamo al tema del video, su!
[SEZIONE 2: WEAVER: la comunicazione come insieme di ogni comportamento umano]
Partiamo quindi ad esplorare per primo lo scritto di Weaver, che apre il volume. Si inizia subito in modo folgorante: “Il termine comunicazione sarà da noi usato in un senso molto ampio per comprendervi tutti i procedimenti attraverso i quali un pensiero può influenzarne un altro. Questi naturalmente, comprendono non solo il linguaggio scritto e parlato, ma anche la musica, le arti figurative, il teatro, la danza e, di fatto, qualunque comportamento umano.” Qualunque comportamento umano, dice, attenzione!
Se Shannon costruisce l’impalcatura matematica della teoria dell’informazione, come vedremo tra breve, è Weaver a estendere fin da subito l’ambizione concettuale della teoria matematica della comunicazione.
Nel suo saggio, come ho già accennato Weaver propone di estendere l’ambito di applicazione della teoria a tre livelli distinti:
1) Il livello tecnico: che riguarda l’esattezza con cui i simboli di comunicazione possono essere trasmessi da un punto all’altro. È il dominio specifico affrontato da Shannon: efficienza della codifica, gestione del rumore, capacità del canale. Tutto ciò che serve per il lato tecnologico della trasmissione e ricezione dell’informazione.
2) Il livello semantico: si occupa del significato dei messaggi. Qui la domanda non è solo “quanto bene il messaggio arriva?”, ma anche “cosa significa il messaggio?”. Weaver sottolinea che la trasmissione tecnica dell’informazione è necessaria, ma non sufficiente, se ignoriamo la componente di significato.
3) Il livello pragmatico: riguarda l’effetto che il messaggio ha sul comportamento del destinatario. Una comunicazione efficace non solo deve arrivare ed essere compresa, ma deve anche produrre l’effetto desiderato.
Weaver capì insomma che il lavoro di Shannon aveva implicazioni molto più profonde della sola ingegneria delle telecomunicazioni. Se potevamo formalizzare il processo tecnico, allora anche gli aspetti semantici e pragmatici della comunicazione potevano forse essere studiati scientificamente, almeno in parte.
Da questa intuizione nasce un ampliamento interdisciplinare della teoria: linguistica, semiotica, psicologia cognitiva, scienze sociali e biologia. Tutti questi campi iniziano a guardare alla comunicazione come a un fenomeno strutturato, misurabile, ottimizzabile.
In definitiva, Weaver vede l’informazione non solo come quantità trasportata da un canale, ma come processo che coinvolge significato e azione, in una rete complessa di relazioni tra mittente, messaggio e destinatario.
Una visione che si rivelerà straordinariamente feconda, anticipando molti sviluppi futuri nelle scienze cognitive e nelle tecnologie dell’informazione.
INTERMEZZO
Un’altra nota a margine e un commento tattico. Non riesco a capire perché nell’edizione italiana si sia voluto tradurre il termine inglese “noise” con le”disturbo”, dato che mi pare chiunque sappia esattamente cosa si intende con l’uso della parola “rumore”. Lo trovo un po’… disturbante, alla lettura. Se volete potete mettere allora un commento tattico proprio adesso: “noise” voi lo tradurreste “disturbo” o “rumore”, in questo contesto?
[SEZIONE 3: I CONCETTI FONDAMENTALI INTRODOTTI DA SHANNON]
Ma veniamo adesso ai concetti introdotti e dimostrati con rigore da Shannon nel suo articolo.
È anche questo aspetto lo fa assimilare ad Einstein: con un solo articolo cambiò tutto, proprio come era accaduto al fisico tedesco con i suoi articoli su meccanica quantistica, relatività e moto browniano.
Vediamo se riesco a semplificare il contenuto di questo incredibile pezzo di prosa matematica, che comunque ha anche una sua sobria semplicità. Nessun appassionato di matematica dovrebbe lasciarsi sfuggire l’opportunità di leggerlo.
Partiamo dall’inizio. Immaginate di voler inviare un messaggio. Avete una sorgente, cioè voi, un trasmettitore, tipo la vostra voce, o magari una tastiera, poi c’è un canale, tipo l’aria o una rete Wi-Fi, e poi un ricevitore che sia l’orecchio o il telefono di chi vi ascolta e infine un destinatario, ovvero una persona che speriamo capisca ciò che vogliamo comunicare. Tutto lo sforzo è dominato dal fatto che il messaggio deve essere interpretabile dal ricevente.
Questo è, in poche parole, ciò che chiamiamo modello di Shannon-Weaver [schema del modello di shannon].
Ma cosa viene trasmesso? Non il significato, che nell’ottica di Shannon è irrilevante, ma l’informazione intesa come riduzione dell’incertezza. Più un evento è improbabile, più la sua comunicazione è “informativa”. Qui entra in gioco, un po’ a sorpresa l’entropia.
Non vi spaventate, mi raccomando: adesso vi mostrerò una formula. Una formula semplice che misura quanta incertezza c’è in un insieme di possibilità.
H = -∑p log p.
Questa formula misura la quantità media di incertezza in un insieme di eventi possibili. L’entropia (H) aumenta quando gli eventi sono tutti ugualmente probabili e diminuisce quando alcuni eventi sono molto più probabili di altri. La formula somma, per ogni evento, il prodotto della probabilità dell’evento (p) per il logaritmo della sua probabilità, prendendo il valore negativo. In pratica, più è imprevedibile un insieme di eventi, maggiore sarà la sua entropia.
Ma che c’entra l’entropia con l’informazione?! Si chiederà qualcuno di voi. Pensate al lancio di una moneta: testa o croce. Due esiti equiprobabili, entropia massima. Ma se la moneta è truccata e cade sempre su testa, l’informazione trasmessa è nulla: non c’è sorpresa.
Il rapporto tra informazione ed entropia è sottile ma fondamentale. Quando parliamo di un sistema, l’entropia misura l’incertezza o l’imprevedibilità dei suoi stati possibili. Maggiore è l’entropia, maggiore è la quantità di informazione potenziale che possiamo ottenere osservando l’esito del sistema. In altre parole: l’informazione che si acquisisce osservando è massima quando l’incertezza iniziale è massima. Quindi, non sono concetti opposti, ma complementari: l’entropia è una misura dell’incertezza prima dell’osservazione, mentre l’informazione è ciò che si guadagna riducendo quell’incertezza. Un sistema perfettamente prevedibile (entropia nulla) non trasmette alcuna informazione utile; un sistema massimamente incerto (entropia alta) può invece generare una grande quantità di informazione una volta osservato.
Non si tratta di un semplice parallelismo con il concetto di entropia in termodinamica. Sono concetti formalmente identici, anche se, come vedremo forse meglio tra un po’, l’identità fisica, il fatto che si tratti esattamente dello lo stesso fenomeno è tutt’ora oggetto di dibattito.
Shannon mostra poi che ogni sistema di comunicazione è condizionato da un insieme di vincoli strutturali. Da un lato c’è la sorgente, che genera i simboli con certe probabilità; dall’altro c’è il canale, che può essere disturbato da rumore, che gioca un ruolo fondamentale, anzi. L’informazione trasmessa deve fare i conti con entrambi. Ecco allora che viene introdotto il concetto di capacità del canale: la quantità massima di informazione che può essere trasmessa per unità di tempo, senza errori, in presenza di rumore. E la cosa sorprendente è che Shannon dimostra che esiste un limite teorico assoluto a questa capacità. È il celebre teorema di codifica di Shannon.
Il teorema ci dice che, con una codifica adeguata, è possibile trasmettere dati attraverso un canale rumoroso con una probabilità arbitrariamente bassa di errore, a patto di non superare la capacità del canale stesso. Non ci dice quale sia questa codifica ottimale, perché quella è una questione pratica, ma ci garantisce che una tale codifica debba esistere.
L’articolo inoltre distingue tra informazione e significato: il contenuto semantico di un messaggio è irrilevante per la sua trasmissione. Il sistema deve solo garantire che la sequenza dei simboli arrivi intatta. È una distinzione che ha fatto discutere, ma che ha anche aperto la porta a una formalizzazione rigorosa della comunicazione.
C’è il concetto di ridondanza. Un messaggio può essere più lungo del necessario per essere più resistente al rumore. Oppure può essere compresso eliminando le ridondanze, per renderlo più efficiente. Tutti i sistemi di compressione, da Huffman, ideatore della leggendaria Codifica di Huffman, un algoritmo di compressione per la codifica senza perdita di dati, alla compressione dei file zip che tutti voi avrete immagino prima o dopo usato, discendono da queste idee.
Il “bit” stesso, abbreviazione di “binary digit”, cioè “cifra binaria”, che Shannon, primo ad usare l’espressione in una pubblicazione nota, attribuisce al suo collega John Tukey, nasce proprio qui: l’unità più piccola ed elementare possibile di informazione, la scelta tra due alternative equiprobabili. Shannon non coniò forse il termine, ma ne formalizzò senz’altro il significato e lo rese uno dei concetti più famosi e ubiqui della storia umana moderna.
[SEZIONE 4: Oltre Shannon: Kolmogorov e gli altri]
Vediamo, in questa che, ricordiamocelo, deve essere un’introduzione alla teoria dell’informazione cosa è accaduto dopo Shannon.
Se il nostro michigano, come abbiamo detto, ha gettato le basi della teoria classica dell’informazione, un altro gigante della matematica con origini ben diverse, Andrej Nikolaevič Kolmogorov, ha proseguito l’opera con un approccio diverso ma complementare. Negli anni ’60, Kolmogorov propose una definizione dell’informazione indipendente dalle probabilità: nacque così la teoria algoritmica dell’informazione.
Se non ricordo male circola un aneddoto secondo cui il rapporto di Komogorov con l’opera di Shannon sia stato oggetto di un malinteso dovuto agli scherzi della storia. Il russo aveva letto infatti l’articolo in una traduzione nella sua lingua, ma, se non ricordo male, solo anni dopo scoprì che quella versione era solo parziale, espunta di aspetti fondamentali dall’incompetente e incomprensibile censura sovietica. Non so infatti immaginare cosa potesse aver trovato di censurabile il censore medio in quell’opera matematica. Meraviglie delle dittature, cari miei.
Comunque. Secondo l’approccio algoritmico di Kolmogorov, la quantità di informazione contenuta in un oggetto — ad esempio una stringa di caratteri — è legata alla lunghezza dell’algoritmo, cioè del programma da calcolatore più breve che, eseguito su una macchina universale come una macchina di Turing, è in grado di generare quella stringa. Questa impostazione, nota come complessità di Kolmogorov, rovescia la prospettiva: non si misura più quanto è improbabile un evento, ma quanto è comprimibile una descrizione.
Un file pieno di zeri, ad esempio, è estremamente prevedibile e quindi altamente comprimibile: è semplice da descrivere con un programma breve (“scrivi zero 10.000 volte”). Una sequenza di numeri casuali, invece, non si lascia comprimere facilmente: il programma più corto che la descrive è semplicemente una copia della sequenza stessa.
Kolmogorov ha così introdotto una nozione di “informazione intrinseca” che si è rivelata potentissima, in grado di parlare di struttura, di regolarità e di complessità nei dati, senza dover invocare il concetto di probabilità.
Anche Kolmogorov meriterebbe davvero un video a parte. Ehhh!
Andiamo veloci che la cosa si sta facendo lunga.
Dopo Kolmogorov, altri autori hanno arricchito il panorama della teoria dell’informazione. Ecco alcuni esempi.
Gregory Chaitin, partendo dalle intuizioni di Kolmogorov, ha sviluppato l’idea di aleatorietà algoritmica, mostrando come sia possibile definire rigorosamente quando una sequenza può essere considerata “casuale” dal punto di vista computazionale.
Ray Solomonoff, da parte sua, ha posto le basi della teoria della predizione universale, combinando il concetto di complessità algoritmica con l’inferenza bayesiana. La sua idea di “probabilità universale” tenta di dare una soluzione generale al problema della previsione e dell’apprendimento automatico.
Leonard Adleman, più recentemente, ha esplorato l’informazione biologica, suggerendo che i meccanismi della vita stessa possono essere visti come processi informatici, aprendo così il campo alla biologia computazionale.
In parallelo, nel campo della fisica, personaggi come Rolf Landauer hanno sostenuto che “l’informazione è fisica”, sottolineando che ogni operazione informazionale ha un costo energetico e collegando in modo fisico e non solo matematico termodinamica e informazione. Landauer pensava di aver dimostrato, in un suo classico esperimento, riportato in un suo altrettanto classico articolo, che la cancellazione di un dato o la fusione di due diversi dati, portasse a un irriducibile consumo di energia, il che avrebbe collegato l’informazione cancellata all’entropia del sistema fisico, il che è detto, peraltro, principio di Landauer. Non ne posso parlare qui e mi sovvengo di aver già accennato en passant a questo fatto in un video passato, quello sulle menti quantistiche. C’è chi ha recentemente sostenuto di aver smentito il principio di Landauer. Vedremo di riparlarne, dai. Questo video sta gemmando video come se non avessi già il mio bel daffare!
Un altro sviluppo cruciale del rapporto tra fisica e informazione, è il legame tra quest’ultima e la meccanica quantistica. Anche questo è troppo complesso da affrontare qui, ma voglio comunque farne un rapido accenno. Questo rapporto si declina in due modi molto diversi.
Da un lato, nasce la teoria dell’informazione quantistica, che studia come i principi della fisica quantistica possano essere sfruttati per compiere operazioni computazionali e comunicative impossibili nel mondo classico: pensiamo ai qubit, i fratelli maggiori del bit, alla crittografia quantistica, al teletrasporto quantistico. È tutto il mondo ancora agli albori dei computer quantistici, in grado di effettuare in pochi minuti calcoli così complicati, che a un normale super computer classico richiederebbero milioni di anni. Non scherzo! Vedremo di riparlare anche di questo.
L’altro aspetto del rapporto tra informazione e meccanica quantisca, infinitamente più speculativo e di incerta concretezza, è il farsi strada di teorie che vedono l’informazione non solo come qualcosa che si trasmette o si calcola, ma come il tessuto stesso della realtà. Carlo Rovelli, ad esempio, con la sua “Relational Quantum Mechanics”, propone che le proprietà fisiche non esistano in modo assoluto, ma solo in relazione all’informazione che un sistema possiede su un altro. Una prospettiva che rende l’informazione non un’astrazione che esiste solo dove esiste una mente, ma la sostanza stessa del mondo fisico.
John Wheeler, famosissimo e visionario fisico teorico, diceva così: “It from bit” – ogni cosa, ogni particella, ogni evento fisico nasce da una scelta binaria, un bit di informazione. Non è un’affermazione da poco!
Questo cambiamento di prospettiva, che vede l’informazione non come un semplice strumento per la modellizzazione della realtà fisica, ma anzi come un elemento costitutivo, il tessuto stesso della realtà, ha già avuto conseguenze profonde sul tramonto definitivo, anche oltre la meccanica quantistica, del determinismo.
La visione classica, newtoniana, vede la realtà come un gigantesco orologio: conoscendo con precisione lo stato presente di ogni particella, si potrebbe, in linea di principio, prevedere ogni stato futuro dell’universo e ricostruire il passato con certezza assoluta.
Questa visione, alla quale curiosamente alcuni filosofi rimangono attaccati, è tramontata molto tempo fa, già considerando sistemi molto semplici, come quello del “problema dei tre corpi” o del pendolo caotico. Già questi sono sistemi il cui comportamento dipende, come si dice, dipende fortemente dalle condizioni iniziali, e dunque hanno comportamenti intrinsecamente imprevedibili, nel procedere del tempo.
Quindi già la meccanica classica e la madre di ogni teoria del caos, la meccanica statistica, che è anche l’ambito non casualmente, dove si formula l’identità tra entropia informazionale ed entropia fisica, hanno scardinato ogni possibilità di vedere l’universo e la realtà come un tutto determinisco, anche da ben prima che la meccanica quantistica mettesse definitivamente in soffitta ogni determinismo. Piaccia o non piaccia.
In questo quadro la teoria dell’informazione come base della nostra conoscenza, se non della realtà stessa, è un ulteriore elemento di sconqussamento della visione deterministica, poiché, quando si riconosce che ogni osservazione implica una selezione di informazioni, che ogni sistema fisico ha limiti informativi interni. Questo fatto è senza dubbio implicato dalla teoria quantistica, così come dalla teoria dell’informazione, con le sue basi probabilistiche (shannon) e caotiche (kolmogorov). L’universo quindi diventa un luogo in cui l’informazione disponibile è sempre finita, limitata, e dove ogni previsione ha a che fare con margini di incertezza intrinseci, non eliminabili, non dovuti alla nostra presenza, sembrerebbe.
Tutto quanto ho qui detto, e mi rendo conto che è molto e mancherebbero ancora degli elementi, tipo l’implicazione del tramonto di ogni dibattito sul libero arbitrio, implica comunque, al di là della natura profonda dell’informazione, che la teoria dell’informazione non solo ha aiutato a costruire la moderna tecnologia della comunicazione, ma ha anche contribuito, insieme alla meccanica quantistica e alla teoria del caos, al grande tramonto di una visione classica e deterministca di ciò che è fisico. Oggi sappiamo che la realtà non è completamente computabile, ma che anzi ogni conoscenza è mediata da vincoli informativi che ci impediscono di controllare o prevedere ogni cosa con certezza assoluta.
Insomma, la teoria dell’informazione non si limita a descrivere come trasmettiamo messaggi: partecipa a riscrive il modo stesso in cui concepiamo la realtà e il nostro rapporto con essa.
Sull’aspetto, largamente di moda ai nostri tempi, del rapporto tra fisica e informazione e sulla sua problematicita mi riprometto, questo è un po’ il lietmotiv di questo video, di fare nel prossimo futuro un contenuto apposito.
E quindi, la teoria dell’informazione è diventata, nel corso dei decenni, una costellazione di idee che spaziano dalla matematica alla fisica, dalla biologia all’intelligenza artificiale. E questo viaggio, nato dalla mente brillante di Shannon, non ha ancora nemmeno lontanamente raggiunto il suo termine.
[SEZIONE 5: GLI ASPETTI FILOSOFICI, SOCIALI E POLITICI DELL’INFORMAZIONE]
Finora infatti abbiamo parlato di informazione in senso tecnico e scientifico, ma l’informazione ha anche dimensioni filosofiche, sociali e politiche che oggi, nell’era digitale e della IA, sono più centrali che mai.
Un concetto urgente da comprendere e approfondire sembra essere, per esempio, quello di “infodemia”. Il termine, coniato durante la pandemia di COVID-19, descrive la sovrabbondanza di informazioni, vere o false, che genera confusione, rende difficile orientarsi e mina la capacità delle persone di prendere decisioni informate.
Un contributo interessante su questo argomento arriva anche da Harari, quel filosofo che si spaccia da storico. In Nexus, Harari esplora come l’informazione abbia avuto un doppio volto per tutta la storia umana: se da un lato ha accresciuto il potere della specie, dall’altro ha favorito la diffusione di illusioni, miti e fantasie che hanno sostenuto regimi totalitari, credenze irrazionali, guerre e collassi sociali. Non solo l’informazione abbondante non garantisce maggiore verità o saggezza, ma al contrario può alimentare confusione, divisione e autodistruzione. È una prospettiva che integra e radicalizza il concetto di infodemia: oggi non basta più “avere accesso” all’informazione, bisogna saperla gestire criticamente, altrimenti le stesse reti che ci connettono possono trasformarsi in trappole cognitive.
L’informazione non è automaticamente un bene: è una materia grezza che può essere usata per costruire verità o illusioni. Quindi, in un mondo saturo di dati, il problema non è tanto l’informazione, ma la sua gestione, selezione e interpretazione. Di questo abbiamo anche parlato nella LIVE sul rapporto tra educazione e Intelligenza artificiale che vi linko qui.
In questo contesto, la teoria dell’informazione può diventare, seguendo la prospettiva di Weaver, non solo uno strumento tecnico, ma anche una bussola epistemologica, che ci aiuti a riconoscere l’informazione significativa, a misurare l’incertezza reale, a progettare sistemi e strategie che ci permettano di navigare il mare tempestoso dei dati senza naufragare con la barchetta della nostra cultura e del nostro comprendonio.
La filosofia contemporanea si interroga sempre più su questi temi. Luciano Floridi, ad esempio, propone di pensare l’etica dell’informazione come una nuova branca della filosofia morale, capace di affrontare questioni come la responsabilità degli algoritmi, i diritti dei dati, la giustizia informativa.
Ma l’informazione è anche potere e dunque qualcosa che deve essere soggetto alla politica, perché non ci sfugga di mano. Chi controlla i flussi informativi ha la capacità di orientare opinioni, influenzare comportamenti, plasmare realtà sociali e politiche. I meccanismi di filtraggio algoritmico, ad esempio, decidono quali notizie vediamo, quali voci sentiamo, quali idee diventano dominanti e quali scompaiono nell’irrilevanza.
Insomma, la dimensione politica dell’informazione non è più trascurabile: viviamo in ciò che Floridi chiama “infosfera”, uno spazio ibrido in cui il confine tra reale e virtuale è sempre più sfumato, e in cui la qualità dell’informazione a cui abbiamo accesso diventa un diritto civile fondamentale.
Comprendere l’informazione oggi significa allora anche sviluppare una nuova alfabetizzazione critica: saper leggere i dati, decifrare le fonti, riconoscere i bias, valutare la credibilità, e soprattutto, resistere alla tentazione di affidarsi a spiegazioni semplicistiche in un mondo sempre più complesso.
In definitiva, l’informazione è diventata la materia prima della nostra vita sociale, culturale, politica. E comprendere la teoria dell’informazione non è solo un esercizio intellettuale, ma una necessità per essere cittadini consapevoli nell’era digitale..
[SEZIONE 6: RIEPILOGO E CONCLUSIONI]
Insomma l’informazione viaggia, va, si trasforma, vive quasi di vita propria ed è ciò di cui più abbondante, dunque deprezzato, l’umanità abbia mai prodotto. Viene compressa, trasmessa su internet, decifrata da un satellite, masticata e risputata dall’Intelligenza Artificiale.
Ma la teoria di Shannon, la teoria dell’informazione nel suo complesso non sembra affatto disposta a lasciarsi confinare ai cavi e alle antenne.
Nel cervello, per esempio, i neuroni comunicano in modo molto simile al modello dell’informazione: impulsi, codifica, rumore.
Il DNA, non è altro che è un nastro di dati: un codice a quattro lettere che guida e codifica la vita stessa.
E nel mondo quantistico, l’informazione non è solo bit, ma qubit, con tutte le annesse assurdità che la natura tanto ama dell’entanglement, del teletrasporto e della sovrapposizione degli stati.
Per l’intelligenza artificiale, la teoria dell’informazione è la natura stessa delle cose: nei modelli che apprendono a prevedere, nel bilanciamento tra informazione e rumore, nei criteri con cui scegliamo un algoritmo rispetto a un altro, c’è l’esistenza di queste entità sintetiche. E, d’altra parte nel momento in cui scrivo queste parole, in molti direbbero che oggi l’Intelligenza Artificiale È l’informazione.
Come l’energia, anche l’informazione è un modo in cui riusciamo a creare una sorta di contabilità della realtà. Cosa siano in sostanza energia e informazione è comunque una questione molto dibattuta e tuttaltro che risolta.
Ma insomma cosa significa tutto questo per la nostra visione del mondo? La natura dell’informazione, e questo mi richiama sempre alla mente la domanda analoga che mi assilla sulla matematica, è una categoria ontologica, cioè è insita nella natura stessa delle cose, oppure ha a che fare con il piano epistemologico e ha dunque qualcosa a che fare con noi, con il nostro nucleo interno di narrazione del mondo e con il modo in cui conosciamo una realtà altrimenti al di là della nostra consapevolezza, del tutto diversa da ciò che intuiamo e percepiamo?
Se la realtà può essere descritta, rappresentata, computata… allora forse è fatta di informazione, come altri pensano sia fatta di matematica e come quasi tutti concordano sia anche fatta di energia? E che cavolo vuol dire tutto questo?
In tutto questo, è il mio gusto metafisico, io vedo un vuoto della nostra visione del mondo, la mancanza di una teoria unificata dell’emergenza che dovrà inevitabilmente saldare le visioni teoriche sparse, o addirittura confliggenti, alla base della nostra visione della realtà: meccanica quantistica, relatività generale, teoria del caos, teoria dell’informazione, meccanica statistica e così via. E anche di questo, parleremo più avanti, senz’altro, mannaggia.
Ma comunque sia, per la nostra vita quotidiana il nostro rapporto con l’informazione è già piuttosto complicato, per quanto irrinunciabile. E in questo senso la teoria dell’informazione è uno degli strumenti più potenti e versatili che abbiamo per esplorare il presente e immaginare il futuro del nostro vivere.
Bene, immagino che, tanto per cambiare, questo video sia venuto irrimediabilmente lungo. E pace, quando ci vuole ci vuole. E quindi fatemi sapere nei commenti cosa pensate di tutto questo, iscrivetevi, mettete like e condividete il video. L’informazione, dopotutto, vive solo se viene trasmessa. Oppure no?
Un saluto.
Ciao!
Fonti:
(I link ad amazon sono sponsorizzati)
- La teoria matematica delle comunicazioni di Claude E. Shannon, Warren Weaver: amzn.to/3RCCsBK
- L’informazione: Una storia. Una teoria. Un diluvio di James Gleick: amzn.to/3Yf9yLB
- From Matter to Life: Information and Causality di Sara Imari Walker, Paul C. W. Davies, George F. R. Ellis: amzn.to/4lTL7xy
- The Logic of Information: A Theory of Philosophy as Conceptual Design di Luciano Floridi: amzn.to/4iDERah
- Principles of Neural Information Theory: Computational Neuroscience and Metabolic Efficiency di James Stone: amzn.to/4jUDeWM
- Foundations of the Theory of Probability di A.N. Kolmogorov: amzn.to/3ERfYtE
- Mathematical Foundations of Information Theory di A. Ya. Khinchin: amzn.to/3EIdMEO
- Quantum Information Theory di Mark M. Wilde: amzn.to/4lNB1Ow
- Lectures Information Theory Coding Barni Tondi: clem.dii.unisi.it/~vipp/website_resources/courses/information_theory/Lectures_Information_Theory_Coding_Barni_Tondi.pdf
- Filosofia dell’informazione di Luciano Floridi: amzn.to/4cMFLzI
- Nexus: Breve storia delle reti di informazione dall’età della pietra all’IA di Yuval Noah Harari: amzn.to/4jL7l2G
- The Thinking Machine (Artificial Intelligence in the 1960s) www.youtube.com/watch?v=aygSMgK3BEM
- Claude Shannon – The Bit Player Movie Trailer: www.youtube.com/watch?v=E3OldEtfBrE

