• Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X

entropia della sorgente

di Mauro Cappelli - Enciclopedia della Scienza e della Tecnica (2008)
  • Condividi

entropia della sorgente

Mauro Cappelli

Denotata con il simbolo H(X), rappresenta la quantità media di informazione associata a una sorgente discreta che genera N simboli indipendenti Xι con probabilità pι (i=1,…,N) e può essere definita come

formula

dove il logaritmo si intende in base 2 per sorgenti binarie (in tal caso H si misura in bit). Se la sorgente emette segnali continui, con una distribuzione di probabilità p(x), per il calcolo dell’entropia della sorgente occorre sostituire la sommatoria con il relativo integrale. Occorre notare che, sebbene dalla definizione data possa sembrare che H sia una funzione di X, in realtà essa risulta funzione della probabilità della sorgente (legata alla variabile aleatoria X) ed è pertanto un numero. Poiché si ha generalmente a che fare con processi a banda limitata, è possibile ricondursi al solo caso di processi aleatori tempo-discreti {Xι}, con i∈(−∞,+∞), e considerare una sorgente discreta senza memoria, nella quale i simboli Xι, che assumono valori sull’alfabeto A={aᾡ,aᾠ,…,aΝ}, sono generati in modo indipendente e con la stessa distribuzione. Nel caso di una sorgente simmetrica binaria, per es., risulta A={0,1} e p(Xι=1)=1−p(Xι=0)=p=0,5. Lo studio sistematico dell’entropia all’interno della teoria dell’informazione si deve al lavoro di Claude Shannon alla fine degli anni Quaranta del secolo scorso. La definizione di entropia data, come espressione del livello di informazione di una sorgente, può ricavarsi sulla base di considerazioni intuitive. Osservando un semplice processo stocastico, per es., studiando il legame tra condizioni meteorologiche e inquinamento dell’aria in una data area geografica, si può definire l’alfabeto A come l’insieme delle combinazioni condizione meteo-livello di inquinamento (per es., caldo-molto inquinato, freddo-poco inquinato, e così via). Raccolti i dati, non è difficile giungere alle seguenti conclusioni: (a) il contenuto informativo della variabile aϚ dipende soltanto dalla sua probabilità pϚ (e non dal suo valore) e viene pertanto definita come auto informazione I(pϚ); (b) l’autoinformazione I(·) è una funzione continua e decrescente del suo argomento; (c) se pϚ=p(Ϛ)−p(ϰ) allora I(pϚ)=I(p(Ϛ))+I(p(ϰ)). Shannon trovò che l’unica funzione che soddisfa tutte le precedenti condizioni è quella logaritmica (indipendentemente dalla sua base). Poiché l’informazione associata a ogni simbolo emesso dalla sorgente aι è dunque pari alla sua autoinformazione I(pι)=−logpι, l’informazione associata all’intera sorgente sarà pari alla media ponderata dell’autoinformazione associata a tutti i simboli, dove i pesi sono rappresentati dalle loro corrispondenti probabilità. Il concetto di entropia della sorgente ha un’importante applicazione nell’ingegneria dei sistemi di comunicazione. Secondo la teoria di Shannon, infatti, dato un sistema di comunicazione con sorgente, canale e osservatore assegnati, per fornire all’osservatore, con la precisione desiderata, l’informazione generata dalla sorgente e degradata dalla presenza del rumore sul canale, occorre ottimizzare codificatore (in fase di trasmissione) e decodificatore (in fase di ricezione). Il primo elimina la ridondanza dalla successione di simboli emessi dalla sorgente (aggiungendo nuovi simboli ridondanti per la protezione contro i disturbi); il secondo compie le operazioni inverse, con lo scopo di ricostruire il segnale generato dalla sorgente (o una sua stima). Secondo la teoria di Shannon, data una sorgente di entropia H e un canale di capacità C sul quale transita l’informazione generata dalla sorgente, se H〈C è possibile teoricamente progettare un codificatore e un decodificatore che garantiscono all’osservatore di ricevere l’informazione generata dalla sorgente con una probabilità di errore per simbolo arbitrariamente piccola. Se invece H>C tale probabilità di errore non può scendere al di sotto di una quantità non nulla, comunque si progettino il codificatore e il decodificatore.

→ Sistemi di comunicazione wireless

Vedi anche
canale Anatomia Formazione anatomica tubolare a pareti proprie o scavata in una struttura compatta, che serve al passaggio di liquidi (sangue, urina, bile ecc.), di altre formazioni anatomiche (nervi, muscoli, tendini ecc.), o di alimenti. C. di Falloppio C. scavato nello spessore della rocca petrosa del temporale ... informazione Notizia, dato o elemento che consente di avere conoscenza più o meno esatta di fatti, situazioni, modi di essere. In senso più generale, anche la trasmissione dei dati e l’insieme delle strutture che la consentono. L’espressione tecnologia delle i. è la traduzione italiana di information technology, ... entropia Grandezza che interviene nello studio fisico-chimico delle trasformazioni di un sistema materiale e che dipende unicamente dallo stato del sistema. In termini matematici, si può dire che l’e. è funzione delle sole variabili prescelte a caratterizzare tale stato, la forma della dipendenza essendo diversa ... ergodicità In meccanica statistica e nel calcolo delle probabilità, proprietà che caratterizza i sistemi e i processi ergodici, sistemi meccanici complessi dotati della proprietà di assumere, nel corso della loro evoluzione spontanea, ogni stato dinamico microscopico (ossia ogni insieme di valori istantanei di ...
Categorie
  • TEMI GENERALI in Telecomunicazioni
Tag
  • DISTRIBUZIONE DI PROBABILITÀ
  • PROCESSO STOCASTICO
  • FUNZIONE CONTINUA
  • MEDIA PONDERATA
  • CLAUDE SHANNON
Altri risultati per entropia della sorgente
  • entropia
    Enciclopedia della Matematica (2013)
    entropia termine mutuato dalla fisica e utilizzato con significato leggermente diverso sia in teoria dell’informazione, dove fu introdotto da C. Shannon nel 1949, sia in probabilità e statistica. ☐ In teoria dell’informazione, indice che misura la quantità di informazione prodotta da una sorgente. L’indice ...
Vocabolario
entropìa
entropia entropìa s. f. [dal ted. Entropie, comp. del gr. ἐν «dentro» e -tropie «-tropia»]. – 1. In termodinamica, funzione di stato (v. funzione, n. 7) di un sistema la cui variazione nel passaggio del sistema da uno stato a un altro può...
sorgènte
sorgente sorgènte (letter. ant. surgènte) s. f. [femm. sostantivato del part. pres. di sorgere]. – 1. Il punto e il luogo in cui scaturisce, per defluire, una vena d’acqua sotterranea; anche, lo specchio d’acqua che tale vena forma prima...
  • Istituto
    • Chi Siamo
    • La nostra storia
  • Magazine
    • Agenda
    • Atlante
    • Il Faro
    • Il Chiasmo
    • Diritto
    • Il Tascabile
    • Le Parole Valgono
    • Lingua italiana
    • WebTv
  • Catalogo
    • Le Opere
    • Bottega Treccani
    • Gli Ebook
    • Le Nostre Sedi
  • Scuola e Formazione
    • Portale Treccani Scuola
    • Formazione Digitale
    • Formazione Master
    • Scuola del Tascabile
  • Libri
    • Vai al portale
  • Arte
    • Vai al portale
  • Treccani Cultura
    • Chi Siamo
    • Come Aderire
    • Progetti
    • Iniziative Cultura
    • Eventi Sala Igea
  • ACQUISTA SU EMPORIUM
    • Arte
    • Cartoleria
    • Design & Alto Artigianato
    • Editoria
    • Idee
    • Marchi e Selezioni
  • Accedi
    • Modifica Profilo
    • Treccani X
  • Ricerca
    • Enciclopedia
    • Vocabolario
    • Sinonimi
    • Biografico
    • Indice Alfabetico

Istituto della Enciclopedia Italiana fondata da Giovanni Treccani S.p.A. © Tutti i diritti riservati

Partita Iva 00892411000

  • facebook
  • twitter
  • youtube
  • instagram
  • Contatti
  • Redazione
  • Termini e Condizioni generali
  • Condizioni di utilizzo dei Servizi
  • Informazioni sui Cookie
  • Trattamento dei dati personali