Entropia
- Testo
- Bibliografia5
- Voci correlate
Autore: Franco Lever
Rudolf Julius Emanuel Clausius (Köslin, 2 gennaio 1822 Bonn, 24 agosto 1888), fisico e matematico tedesco, tra i fondatori della termodinamica
1. Il concetto di e. in termodinamica
L’e. è una grandezza termodinamica definibile in termini matematici in modo molto preciso, senza però essere di immediata intuibilità. È quindi necessario ricostruire il contesto scientifico in cui si colloca.Il primo principio della termodinamica afferma che l’energia si trasform, non si distrugge (esempio: l’energia cinetica di una ruota in movimento, quando le ganasce del freno la bloccano, non viene annullata ma è trasformata in energia termica). Il secondo principio fa un passo oltre nella comprensione dei fenomeni fisici e afferma che in un sistema isolato (un sistema che, rispetto all’esterno, non cede né riceve energia e dunque può essere studiato per quello che è) le trasformazioni da un tipo di energia a un altro non sono totalmente reversibili (continuando l’esempio: il calore generato nel frenare la ruota anche se fosse sfruttato in maniera ottimale non basta a far riacquistare alla ruota la sua velocità iniziale).
Si è così scoperto che dal punto di vista energetico i sistemi si stanno muovendo su una scala percorribile solo in discesa: a ogni passaggio a ogni trasformazione essi fanno un passo in più verso una condizione in cui non ci saranno più trasformazioni. Ogni sistema va verso un livellamento energetico.
Il grande scienziato tedesco R. J. Clausius (1822-1888) propose nel 1867 di chiamare e. la misura della condizione energetica in cui si trova un sistema, rispetto a quella teorica in cui la sua energia interna avrebbe livelli di totale reversibilità. Usando la metafora della scala a scendere, l’e. dice su quale gradino si trova il sistema considerato.
Queste affermazioni si applicano anche all’intero universo, il quale nel suo insieme va considerato come un sistema chiuso (non conosciamo altri sistemi che gli forniscano energia suppletiva): dunque, trasformazione dopo trasformazione, esso raggiungerà un valore massimo di e. fino a un totale appiattimento energetico. Esprimendoci con una metafora, si può dire che l’universo sta morendo (fenomeno esattamente opposto è la vita: l’essere vivente cresce e si sviluppa perché è un sistema aperto, che sa attingere all’esterno sempre nuove energie, riuscendo così a vincere la propria e.; almeno per un certo tempo, essa percorre la scala dell’e. in senso inverso).
La termodinamica ha condotto le sue ricerche sia a livello macroscopico sia a livello microscopico. In questo secondo caso lo studio non ha più come oggetto immediato le grandezze osservabili di un sistema (volume, pressione, temperatura, massa), ma più direttamente il comportamento delle sue molecole e dei suoi atomi, dal momento che quelle grandezze sono la risultante degli stati in cui si trovano le singole particelle, in termini di velocità, impulsi, energia e posizione (ad esempio, la temperatura di un corpo è riconducibile al valore medio della velocità con cui le molecole si muovono al suo interno). Cambiato l’oggetto di studio, è evidente che anche gli strumenti di analisi devono cambiare: poiché atomi e molecole sfuggono all’osservazione diretta, è il calcolo statistico che diventa lo strumento principale del ricercatore. I risultati di questo secondo modo di affrontare i problemi hanno portato alla convalida dei principi già dimostrati a livello macroscopico, ma con formulazioni nuove. Nel caso dell’e., non solo è stata confermata la validità del concetto, ma nel 1877 L. Boltzmann (1844-1906) ne ha dato una definizione in termini statistici come misura del disordine del sistema a livello molecolare, fornendo nello stesso tempo la formula matematica per calcolarla.
2. Il concetto di e. nella teoria dell’informazione
Quando negli anni Quaranta Claude E. Shannon riuscì a definire l’equazione con cui calcolare il livello di imprevedibilità di una fonte d’informazione, non poté non constatare che la sua formula era praticamente uguale a quella con cui L. Boltzmann aveva calcolato l’e. di un sistema termodinamico (una differenza c’era: l’e. in termodinamica ha valore negativo, mentre nella teoria dell’informazione deve essere un numero positivo). Fu John Von Neumann (matematico ungherese, emigrato in USA, uno dei padri del computer) a proporgli di adottare il termine e. per indicare la complessità dell’informazione disponibile alla fonte in un qualsiasi sistema di comunicazione, evidenziando l’analogia esistente tra due contesti scientifici così lontani tra loro. Il consiglio venne accolto anche perché Shannon nutriva una certa resistenza a usare la parola informazione, consapevole che il termine nella sua teoria era utilizzato in un’accezione piuttosto disorientante rispetto a quella usuale. Nella teoria dell’informazione, infatti, l’informazione è la misura della prevedibilità di un segnale. Se è ‘facilmente’ prevedibile, significa che le alternative in gioco sono poche (bastano pochi bit per controllarle). Il segnale è invece altamente imprevedibile, quando il sistema è complesso e, quindi, sono necessari molti bit per individuarlo. Nel primo caso l’e. della fonte è ridotta, nel secondo invece è alta (tanto più alta, quanto più numerosi ed equiprobabili sono i segnali possibili).Ricorriamo a un esempio per chiarire quanto affermato. Si supponga di avere a disposizione una macchina da scrivere e che il problema sia trasmettere in modo corretto ed efficace (protetto da errori) i ‘messaggi’ prodotti con questa macchina; va ancora precisato che il ricevente conosce la macchina: ciò che non conosce sono i ‘messaggi’ che in concreto verranno emessi. Se tutti i tasti della macchina venissero battuti in modo casuale, per produrre sequenze anch’esse interrotte in modo casuale, le stringhe producibili i messaggi sarebbero un numero enorme, iperbolico. Se invece la macchina, piuttosto che essere manovrata completamente a caso, viene ‘vincolata’ a produrre solo parole della lingua italiana, il numero dei messaggi possibili pur elevatissimo è drasticamente ridotto: in concreto non potranno verificarsi messaggi del tipo aaaaaaa (stringa lunga a piacere), qqqqqq, zzzzz, ecc. Si può ora constatare che la prima fonte (la macchina usata in modo del tutto casuale) produce ‘segnali’ (pacchetti di lettere) più numerosi e imprevedibili della seconda, che genera solo sequenze di lettere equivalenti a parole della lingua italiana. Nella terminologia proposta da Shannon questa situazione è definita in questo modo: la prima fonte ha un’e. più elevata della seconda.
Ricorrendo ancora a un esempio, se due operatori si mettono d’accordo e decidono un uso esclusivo della macchina, cosicché serva solo a comunicare, dal posto di guardia avanzato alla guarnigione della Fortezza, che finalmente all’orizzonte sono apparse le avanguardie dei Tartari, in questo caso i messaggi possibili sono soltanto due (0 = ancora nulla di nuovo/1=arrivano i Tartari) e basta trasmettere un solo segnale per comunicare qual è quello che si è verificato. Una fonte di questo tipo, con due sole alternative teoricamente equiprobabili, controllabile con una sola unità d’informazione, ha un’e. pari a un bit. (Come si vede, nella teoria dell’informazione i due concetti di e. e di informazione sono in larga misura sovrapponibili.)
3. L’uso metaforico di e. in altri contesti
Il termine e. è stato ed è utilizzato anche in altri contesti scientifici. Si tratta per lo più di un uso a carattere metaforico, che si basa a volte sul concetto di e. proposto dalla termodinamica (degradazione, imprevedibilità statistica), a volte invece sull’e. intesa come misura della complessità dell’informazione (secondo la teoria dell’informazione).Nel primo caso equivale ad ‘anomia’ e ‘disordine’. Con questo significato il termine viene anche usato da Norbert Wiener, il padre della cibernetica, che gli attribuisce una valenza addirittura teologica. Wiener distingue infatti un’e. naturale da un’e. artificiale. Nel primo caso si tratta dello stato di disordine strutturale alla natura: come già sottolineava Leibniz, riprendendo Agostino, il male è iscritto naturalmente nella creaturalità poiché essa implica inevitabilmente l’imperfezione. Per quanto riguarda, invece, l’e. artificiale, essa ha a che fare con l’opera dell’uomo nella natura (la tecnica), il cui risultato è di aggiungere disordine al disordine (Wiener paragona questa seconda accezione dell’e. all’opera del demonio che il programma cibernetico doveva cercare di contrastare). Nel secondo caso (cioè quando l’e. viene intesa come misura della prevedibilità dell’informazione) il termine serve a evidenziare la disponibilità di un messaggio a una pluralità di interpretazioni possibili (lo si trova usato con questo significato in estetica e nelle analisi dei critici d’arte moderna).
Foto
Video
Non ci sono video per questa voce
Bibliografia
- ANGELERI Emanuele, Informazione. Significato e universalità, UTET, Torino 2000.
- PIERCE John R., La teoria dell’informazione. Simboli, codici, messaggi, Mondadori, Milano 1971.
- SHANNON Claude E. - WEAVER Warren, La teoria matematica della comunicazione, Etas Libri, Milano 1983, Ediz. originale disponibile in rete: http://www.magmamater.cl/MatheComm.pdf.
- SISSA - LABORATORIO INTERDISCIPLINARE, Teoria dell’informazione, CUEN, Napoli 1996.
- WIENER Norbert, Dio & Golem s.p.a.. Cibernetica e religione, Bollati Boringhieri, Torino 1991.
Documenti
Non ci sono documenti per questa voce
Links
Non ci sono link per questa voce
Note
Come citare questa voce
Lever Franco , Entropia, in Franco LEVER - Pier Cesare RIVOLTELLA - Adriano ZANACCHI (edd.), La comunicazione. Dizionario di scienze e tecniche, www.lacomunicazione.it (06/12/2024).
Il testo è disponibile secondo la licenza CC-BY-NC-SA
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
Creative Commons Attribuzione-Non commerciale-Condividi allo stesso modo
487