MAGAZÍN D'INVESTGACIÓ PERIODÍSTICA (iniciat el 1960 com AUCA satírica.. per M.Capdevila a classe de F.E.N.)
-VINCIT OMNIA VERITAS -
VOLTAIRE: "El temps fa justícia i posa a cadascú al seu lloc.."- "No aniràs mai a dormir..sense ampliar el teu magí"
"La història l'escriu qui guanya".. així.. "El poble que no coneix la seva història... es veurà obligat a repetir-la.."
16-07-2018 (1673 lectures) | Categoria: Science |
L'entropia de Shannon , a causa de Claude Shannon , és una funció matemà tica que, intuïtivament, correspon a la quantitat d' informació continguda o lliurada per una font d'informació. Aquesta font pot ser un text escrit en un idioma determinat, un senyal elèctric o qualsevol fitxer informà tic (col · lecció de bytes). Des del punt de vista d'un receptor, com més emeti informació diferent, més entropia (o incertesa sobre el que emet la font) és gran, i viceversa. Com més receptor rep informació sobre el missatge transmès, més entropia (incertesa) respecte a aquest missatge disminueix, a la llum d'aquest guany d'informació. La definició d'entropia de Shannon és tal que com més redundant sigui la font, menys informació conté. En absència de restriccions particulars, l'entropia és mà xima per a una font de la qual tots els sÃmbols són equiprobables.
En el cas particular d'un sistema de telecomunicacions , l'entropia de la font d'informació (el transmissor) indica la incertesa del receptor respecte del que la font transmetrà . Per exemple, una font que es considera que sempre envia el mateix sÃmbol, per exemple, la lletra 'a', té zero entropia, és a dir, mÃnima. De fet, un receptor que coneix només les estadÃstiques de transmissió de la font assegura que el sÃmbol següent serà un "a", sense que ningú no s'equivocarà . El receptor no necessita rebre un senyal per eliminar la incertesa sobre el que ha transmès la font perquè no genera cap perill. D'altra banda, si es considera que la font envia un 'a' meitat de temps i a '' '' l'altra meitat, el receptor no està segur de la següent carta a rebre. L'entropia de la font en aquest cas, per tant, no és zero (positiu) i representa quantitativament la incertesa que reina sobre la informació que emana de la font. Des del punt de vista del receptor, l'entropia indica la quantitat d'informació que necessita obtenir per eliminar completament la incertesa (o dubte) sobre el que ha transmès la font.
El 1948, mentre treballava a Bell Laboratories , l'enginyer elèctric Claude Shannon va formalitzar matemà ticament la naturalesa estadÃstica de la "informació perduda" en senyals de lÃnia telefònica. Per això, va desenvolupar el concepte general d'entropia d'informació, fonamental en la teoria de la informació 1 .
Inicialment, no sembla que Shannon tingués especial coneixement de l'estreta relació entre la seva nova mesura i el treball anterior en termodinà mica . El terme entropia va ser suggerit pel matemà tic John von Neumann per la raó que aquesta noció s'assemblava a la que ja es coneixia com entropia en fÃsica estadÃstica, i hauria afegit que aquest terme es va entendre malament per triomfar qualsevol debat 2 .
El 1957 , Edwin Thompson Jaynes demostrarà el vincle formal entre l' entropia macroscòpica introduïda per Clausius el 1847, el microscòpic introduït per Gibbs i l'entropia matemà tica de Shannon. Aquest descobriment va ser descrit per Myron Tribus com una "revolució passada desapercebuda" 3 .
A principis de la dècada de 1940, les telecomunicacions estaven dominades per analògics . La transmissió de rà dio i televisió es van basar en modulacions contÃnues com lamodulació d'amplitud (AM) i la modulació de freqüència (FM). Els sons i les imatges es transformen en senyals elèctrics l'amplitud i / o freqüència dels quals són funcions contÃnues, de vegades proporcionals, al senyal d'entrada. En el cas del so, es mesura amb un micròfon el fenomen de la pressió i la depressió que viatgen a l'aire. En el cas de la televisió, la blancor de la imatge (la seva brillantor) és el principal senyal d'interès. Aquest procediment implica que el soroll afegit durant la transmissió produeix una degradació de la senyal rebuda. L'arquetip d'aquest tipus de soroll pren la forma de xerraire de rà dio i neu per a la televisió. La modulació analògica implica l'ús de nombres reals la dilatació decimal és infinita per representar informació (pressió sonora, intensitat de la llum, etc.). Un soroll, per petit que sigui, tingui una conseqüència directa en el senyal.
Els investigadors han admès aixà que una manera eficaç de protegir el soroll seria transformar el so i la imatge en nombres discrets, en lloc d'utilitzar nombres reals la precisió dels quals requereix un nombre infinit de dÃgits. Per exemple, es podria utilitzar el número 0 per representar la negrit total i el número 10 per a un blanc perfecte, amb tots els enters entre els dos que representen nivells successius de gris. Si 11 nivells no semblen suficients, podem utilitzar el mateix mètode per a una divisió d'intensitats tan grans com sigui necessari per satisfer l'ull. Es pot fer un raonament similar per al so i arribem a un punt on és possible representar una pel·lÃcula i la seva banda sonora amb una quantitat limitada d'enters.
La transmissió d'aquests enters provoca el que anomenem comunicació digital. Si el soroll que parlem en el cas analògic es considera en una transmissió digital, es produiran errors quan aquest soroll és prou fort com per convertir un número en un altre. En el cas analògic, fins i tot un petit soroll es converteix en errors perceptibles. En digital, és poc probable que es produeixi un petit soroll per generar un error, però el soroll pot, però, fer-ho. Els investigadors han pensat que un ha d'acceptar acceptar que la comunicació perfecta era impossible. És aquesta conjectura que Shannon va ser refutar per la seva teoria de la informació. Va haver de demostrar que era possible transmetre informació sense errors utilitzant una estratègia de codificació digital mentre estiguéssim contents amb una determinada velocitat de transmissió. Per error aquÃ, significa la capacitat del receptor per restaurar el missatge original fins i tot si el missatge rebut és modificat pel soroll.
L'entropia de Shannon, mesura del contingut informatiu d'un missatge, s'uneix als teoremes de Shannon per decidir el rà pid que volem si volem tenir l'esperança de transmetre les dades d'aquest missatge sense cap error. No cal dir que un soroll més potent distorsiona encara més un missatge transmès i Shannon prediu que, en presència d'un soroll més gran, cal reduir la velocitat de transmissió per arribar al mateix resultat sense cap error. Una estratègia de codificació elemental i històricament utilitzada en telegrafia és la col·lació o la transmissió múltiple (generalment doble) de la mateixa informació. De fet, la probabilitat d'obtenir errors en la majoria d'aquesta informació és menor que la probabilitat d'obtenir un error d'una sola transmissió. Una transmissió per triplicat permetria a un sistema de votació veure on es troba l'anomalia, incloent-hi la falta deredundà ncia del codi (per exemple, la transmissió de números de part a l'ordre en una nomenclatura). No obstant això, aquesta és una codificació ingènua i no permet assolir els lÃmits que planteja Shannon.
El cà lcul de l'entropia d'una font de missatge proporciona una mesura de la informació mÃnima que hem de mantenir per representar aquestes dades sense pèrdua. En termes comuns, això significa per al cas particular de compressió d'arxius d'ordinador que l'entropia indica el nombre mÃnim de bits que un arxiu comprimit pot arribar. S'ha d'entendre que si estem disposats a perdre dades, com quan es comprimeixen els sons per format MP3 o quan es comprimeixen imatges per vÃdeos JPEG o MPEG, podem creuar aquest lÃmit inferior imposat pel entropia de la imatge original. En realitat, primer vam baixar l'entropia de la imatge o el so eliminant detalls imperceptibles per als humans. La nova entropia reduïda és llavors el nou lÃmit inferior per a la posterior compressió sense pèrdua.
Shannon ofereix una manera senzilla de determinar l'entropia d'un text donat per a un receptor determinat 4 : A té el text i demana a B que endevinem lletra per lletra (espais inclosos). si B endevina correctament la lletra, es compta 1 (perquè A, mentre respon "sÃ" a ell, li va transmetre 1 bit d'informació). Si B s'equivoca, se li dóna la lletra correcta i compta 4.75 (perquè un carà cter de 26 (és a dir, 27 - 1) representa 4.75 bits d'informació).
El mètode aplicat als textos dels diaris i als lectors actuals mostra que es pot endevinar una lletra de dos, la redundà ncia del llenguatge actual era, per tant, un factor de 2, i el contingut informatiu d'una lletra en aquest context Només 2,35 bits.
Aquesta senzilla mesura està ocupada per Léon Brillouin en el seu llibre Science and Theory of Information .
Per una font, que és una variable aleatòria discreta, { displaystyle X} que comprèn { displaystyle n} sÃmbols, sÃmbol { displaystyle i} tenint una probabilitat { displaystyle P_ {i}} aparèixer, entropia { displaystyle H} des de la font { displaystyle X} es defineix com:
on { displaystyle mathbf {E}} denota l' expectativa matemà tica . Normalment s'utilitza un logaritme basat en 2 perquè l'entropia té les unitats bit / symbol. Els sÃmbols representen les possibles realitzacions de la variable aleatòria X.
L'entropia aixà definida verifica les següents propietats:
L'ús del logaritme pot semblar arbitrari a primera vista. Cal recordar que l'efecte del logaritme és transformar la multiplicació en suma i la divisió en la resta. A més, donades dues variables aleatòries independents { displaystyle X} i { displaystyle Y} , la probabilitat del producte cartesià d'aquestes variables aleatòries ve donada per:
per tant:
Que és intuïtivament satisfactori des de llavors { displaystyle X} i { displaystyle Y} són independents. Atès que l'entropia és una mesura d'informació mitjana continguda en una variable aleatòria, l'entropia de la combinació de dues variables no relacionades només s'afegeix. A continuació, veiem el treball realitzat pel logaritme fent el pont entre la multiplicació de probabilitats i l'addició d'entropies. En cas que hi hagi una certa dependència entre { displaystyle X} i { displaystyle Y} es verifica per proves similars que:
La proposició anterior, segons la qual una distribució d'esdeveniments equiprobables maximitza l'entropia per a una determinada quantitat d'elements { displaystyle K} , es pot expressar de forma més general per la desigualtat de Gibbs:
on { displaystyle q_ {i}} és qualsevol distribució de probabilitat en la variable X. Vegem llavors que la desigualtat precedent s'obté com un cas especial quan { displaystyle 1 / q_ {i} = K} , és a dir, per esdeveniments igualment probables:
El logaritme és una funció còncava, és a dir, la seva segona derivada és menor o igual que zero per a qualsevol valor de { displaystyle x} en el seu domini. Per Jensen obtenim llavors:
A continuació, pregunta:
Substitució a Jensen:
I desenvolupant expectatives matemà tiques:
Per la propietat dels logaritmes:
QED.
És fà cil verificar que la funció logarÃtmica està delimitada per qualsevol lÃnia tangent a ella. La naturalesa còncava de la funció del logaritme li dóna aquesta propietat:
Aixà tenim:
El final de la prova és el mateix que abans, per la propietat dels logaritmes:
QED.
Aquà teniu algunes propietats importants de l'entropia de Shannon:
L'entropia de Shannon s'utilitza en l'electrònica digital per digitalitzar una font utilitzant el mà xim nombre possible de bits sense perdre informació. També quantifica el nombre mÃnim de bits en què es pot codificar un fitxer, mesurant aixà els lÃmits que els algorismes de compressió sense pèrdua poden esperar aconseguir. També s'utilitza en altres camps, com, per exemple, per seleccionar el millor punt de vista d'un objecte tridimensional 5 .
Penseu en la possibilitat d'una urna que conté diverses boles de diferents colors, des d'on s'agafa una bola a l'atzar (amb descompte). Si totes les boles tenen colors diferents, la nostra incertesa sobre el resultat d'un sorteig és mà xima. En particular, si haguéssim d'apostar pel resultat d'un empat, no podrÃem afavorir una altra opció. D'altra banda, si un color determinat és més representat que els altres (per exemple, si l'urna conté més boles vermelles), la nostra incertesa es redueix lleugerament: la bola triada és més probable que sigui vermella. Si haguéssim d'apostar pel resultat d'un empat, apostarÃem per una bola vermella. D'aquesta manera, el fet de revelar el resultat d'un sorteig proporciona, en general, més informació en el primer cas que en el segon, perquè l'entropia del "senyal" (computable des de la distribució estadÃstica) és més alta.
Agafem un altre exemple: considerar un text en francès codificat com una cadena de lletres, espais i puntuacions (el nostre senyal és, doncs, una cadena de carà cters ). Com que la freqüència d'alguns carà cters no és molt important (per exemple, 'w'), mentre que d'altres són molt comuns (per exemple, 'e'), la cadena de carà cters no és tan aleatòria. D'altra banda, sempre que no puguem preveure quin és el següent personatge, en certa manera, aquesta cadena és aleatòria, que la noció d'entropia de Shannon busca quantificar.
Â
Comentaris publicats
Afegeix-hi un comentari: