16-07-2018  (145 lectures)

Entropia de Shannon

L'entropia de¬†Shannon , a causa de¬†Claude Shannon , √©s una funci√≥ matem√†tica que, intu√Įtivament, correspon a la quantitat d'¬†informaci√≥ continguda o lliurada per una font d'informaci√≥. Aquesta font pot ser un text escrit en un idioma determinat, un¬†senyal el√®ctric o qualsevol¬†fitxer inform√†tic (col ¬∑ lecci√≥ de bytes). Des del punt de vista d'un receptor, com m√©s emeti informaci√≥ diferent, m√©s entropia (o incertesa sobre el que emet la font) √©s gran, i viceversa. Com m√©s receptor rep informaci√≥ sobre el missatge transm√®s, m√©s entropia (incertesa) respecte a aquest missatge disminueix, a la llum d'aquest guany d'informaci√≥. La definici√≥ d'entropia de Shannon √©s tal que com m√©s redundant sigui la font, menys informaci√≥ cont√©. En abs√®ncia de restriccions particulars, l'entropia √©s m√†xima per a una font de la qual tots els s√≠mbols s√≥n equiprobables.

En el cas particular d'un sistema de¬†telecomunicacions , l'entropia de la font d'informaci√≥ (el transmissor) indica la incertesa del receptor respecte del que la font transmetr√†. Per exemple, una font que es considera que sempre envia el mateix s√≠mbol, per exemple, la lletra 'a', t√©¬†zero entropia, √©s a dir, m√≠nima. De fet, un receptor que coneix nom√©s les estad√≠stiques de transmissi√≥ de la font assegura que el s√≠mbol seg√ľent ser√† un "a", sense que ning√ļ no s'equivocar√†. El receptor no necessita rebre un senyal per eliminar la incertesa sobre el que ha transm√®s la font perqu√® no genera cap perill. D'altra banda, si es considera que la font envia un 'a' meitat de temps i a '' '' l'altra meitat, el receptor no est√† segur de la seg√ľent carta a rebre. L'entropia de la font en aquest cas, per tant,¬†no √©s zero (positiu) i representa quantitativament la incertesa que reina sobre la informaci√≥ que emana de la font. Des del punt de vista del receptor, l'entropia indica la quantitat d'informaci√≥ que necessita obtenir per eliminar completament la incertesa (o dubte) sobre el que ha transm√®s la font.

història

El 1948, mentre treballava a Bell Laboratories , l'enginyer elèctric Claude Shannon va formalitzar matemàticament la naturalesa estadística de la "informació perduda" en senyals de línia telefònica. Per això, va desenvolupar el concepte general d'entropia d'informació, fonamental en la teoria de la informació 1 .

Inicialment, no sembla que Shannon tingués especial coneixement de l'estreta relació entre la seva nova mesura i el treball anterior en termodinàmica . El terme entropia va ser suggerit pel matemàtic John von Neumann per la raó que aquesta noció s'assemblava a la que ja es coneixia com entropia en física estadística, i hauria afegit que aquest terme es va entendre malament per triomfar qualsevol debat 2 .

El¬†1957 ,¬†Edwin Thompson Jaynes demostrar√† el vincle formal entre l'¬†entropia macrosc√≤pica introdu√Įda per¬†Clausius el 1847, el microsc√≤pic introdu√Įt per¬†Gibbs i l'entropia matem√†tica de Shannon. Aquest descobriment va ser descrit per¬†Myron Tribus com una "revoluci√≥ passada desapercebuda"¬†3 .

preàmbul

A principis de la d√®cada de 1940, les telecomunicacions estaven dominades per¬†anal√≤gics . La transmissi√≥ de r√†dio i televisi√≥ es van basar en¬†modulacions cont√≠nues com lamodulaci√≥ d'amplitud (AM) i la modulaci√≥ de freq√ľ√®ncia (FM). Els sons i les imatges es transformen en senyals el√®ctrics l'amplitud i / o freq√ľ√®ncia dels quals s√≥n funcions cont√≠nues, de vegades proporcionals, al senyal d'entrada. En el cas del so, es mesura amb un micr√≤fon el fenomen de la pressi√≥ i la depressi√≥ que viatgen a l'aire. En el cas de la televisi√≥, la blancor de la imatge (la seva brillantor) √©s el principal senyal d'inter√®s. Aquest procediment implica que el soroll afegit durant la transmissi√≥ produeix una degradaci√≥ de la senyal rebuda. L'arquetip d'aquest tipus de soroll pren la forma de xerraire de r√†dio i neu per a la televisi√≥. La modulaci√≥ anal√≤gica implica l'√ļs de nombres reals la dilataci√≥ decimal √©s infinita per representar informaci√≥ (pressi√≥ sonora, intensitat de la llum, etc.). Un soroll, per petit que sigui, tingui una conseq√ľ√®ncia directa en el senyal.

Els investigadors han adm√®s aix√≠ que una manera efica√ß de protegir el soroll seria transformar el so i la imatge en nombres discrets, en lloc d'utilitzar nombres reals la precisi√≥ dels quals requereix un nombre infinit de d√≠gits. Per exemple, es podria utilitzar el n√ļmero 0 per representar la negrit total i el n√ļmero 10 per a un blanc perfecte, amb tots els enters entre els dos que representen nivells successius de gris. Si 11 nivells no semblen suficients, podem utilitzar el mateix m√®tode per a una divisi√≥ d'intensitats tan grans com sigui necessari per satisfer l'ull. Es pot fer un raonament similar per al so i arribem a un punt on √©s possible representar una pel¬∑l√≠cula i la seva banda sonora amb una quantitat limitada d'enters.

La transmissi√≥ d'aquests enters provoca el que anomenem comunicaci√≥ digital. Si el soroll que parlem en el cas anal√≤gic es considera en una transmissi√≥ digital, es produiran errors quan aquest soroll √©s prou fort com per convertir un n√ļmero en un altre. En el cas anal√≤gic, fins i tot un petit soroll es converteix en errors perceptibles. En digital, √©s poc probable que es produeixi un petit soroll per generar un error, per√≤ el soroll pot, per√≤, fer-ho. Els investigadors han pensat que un ha d'acceptar acceptar que la comunicaci√≥ perfecta era impossible. √Čs aquesta conjectura que Shannon va ser refutar per la seva teoria de la informaci√≥. Va haver de demostrar que era possible transmetre informaci√≥ sense errors utilitzant una estrat√®gia de codificaci√≥ digital mentre estigu√©ssim contents amb una determinada velocitat de transmissi√≥. Per error aqu√≠, significa la capacitat del receptor per restaurar el missatge original fins i tot si el missatge rebut √©s modificat pel soroll.

L'entropia de Shannon, mesura del contingut informatiu d'un missatge, s'uneix als teoremes de Shannon per decidir el r√†pid que volem si volem tenir l'esperan√ßa de transmetre les dades d'aquest missatge sense cap error. No cal dir que un soroll m√©s potent distorsiona encara m√©s un missatge transm√®s i Shannon prediu que, en pres√®ncia d'un soroll m√©s gran, cal reduir la velocitat de transmissi√≥ per arribar al mateix resultat sense cap error. Una estrat√®gia de codificaci√≥ elemental i hist√≤ricament utilitzada en telegrafia √©s la¬†col¬∑laci√≥ o la transmissi√≥ m√ļltiple (generalment doble) de la mateixa informaci√≥. De fet, la probabilitat d'obtenir errors en la majoria d'aquesta informaci√≥ √©s menor que la probabilitat d'obtenir un error d'una sola transmissi√≥. Una transmissi√≥ per triplicat permetria a un sistema de votaci√≥ veure on es troba l'anomalia, incloent-hi la falta deredund√†ncia del codi (per exemple, la transmissi√≥ de n√ļmeros de part a l'ordre en una nomenclatura). No obstant aix√≤, aquesta √©s una codificaci√≥ ing√®nua i no permet assolir els l√≠mits que planteja Shannon.

El c√†lcul de l'entropia d'una font de missatge proporciona una mesura de la informaci√≥ m√≠nima que hem de mantenir per representar aquestes dades sense p√®rdua. En termes comuns, aix√≤ significa per al cas particular de compressi√≥ d'arxius d'ordinador que l'entropia indica el nombre m√≠nim de bits que un arxiu comprimit pot arribar. S'ha d'entendre que si estem disposats a perdre dades, com quan es comprimeixen els sons per format MP3 o quan es comprimeixen imatges per v√≠deos JPEG o MPEG, podem creuar aquest l√≠mit inferior imposat pel entropia de la imatge original. En realitat, primer vam baixar l'entropia de la imatge o el so eliminant detalls imperceptibles per als humans. La nova entropia redu√Įda √©s llavors el nou l√≠mit inferior per a la posterior compressi√≥ sense p√®rdua.

Entropia d'un text com√ļ

Shannon ofereix una manera senzilla de determinar l'entropia d'un text donat per a un receptor determinat 4 : A té el text i demana a B que endevinem lletra per lletra (espais inclosos). si B endevina correctament la lletra, es compta 1 (perquè A, mentre respon "sí" a ell, li va transmetre 1 bit d'informació). Si B s'equivoca, se li dóna la lletra correcta i compta 4.75 (perquè un caràcter de 26 (és a dir, 27 - 1) representa 4.75 bits d'informació).

El mètode aplicat als textos dels diaris i als lectors actuals mostra que es pot endevinar una lletra de dos, la redundància del llenguatge actual era, per tant, un factor de 2, i el contingut informatiu d'una lletra en aquest context Només 2,35 bits.

Aquesta senzilla mesura està ocupada per Léon Brillouin en el seu llibre Science and Theory of Information .

Definició formal

Per una font, que és una variable aleatòria discreta, { displaystyle X}X que comprèn { displaystyle n}n símbols, símbol { displaystyle i}jo tenint una probabilitat { displaystyle P_ {i}}p_i aparèixer, entropia { displaystyle H}H des de la font { displaystyle X}X es defineix com:

{ displaystyle H_ {b} (X) = - mathbf {E} [ log_ {b} {P (X = x_ {i})} = sum _ {i = 1} ^ {n} P_ {i} log _ {b} left ({ frac {1} {P_ {i}}} right) = - sum _ {i = 1} ^ {n} P_ {i} log _ { b} P_ {i}. , !}H_ {b} (X) = - { mathbf E} [ log_ {b} {P (X = x_ {i})}] =  sum _ {{i = 1}} ^ {n} P_ { i}  log _ {b}  left ({ frac {1} {P_ {i}}}  right) = -  sum _ {{i = 1}} ^ {n} P_ {i}  log _ {b} P_ {i}. , !

on { displaystyle mathbf {E}}{ mathbf E} denota l' expectativa matemàtica . Normalment s'utilitza un logaritme basat en 2 perquè l'entropia té les unitats bit / symbol. Els símbols representen les possibles realitzacions de la variable aleatòria X.

{ displaystyle H (X) = H_ {2} (X) = - sum _ {i = 1} ^ {n} P_ {i} log _ {2} P_ {i}. , !H (X) = H_ {2} (X) = -  sum _ {{i = 1}} ^ {n} P_ {i}  log _ {2} P_ {i}. , !

L'entropia aix√≠ definida verifica les seg√ľents propietats:

  • { displaystyle H (X) geq 0}H (X)  geq 0 amb igualtat ssi { displaystyle exists i | P (X = x_ {i}) = 1}{ displaystyle  exists i | P (X = x_ {i}) = 1}
    • √©s major o igual que zero, amb igualtat per a una distribuci√≥ resumida en un punt, √©s a dir, zero en tots els aspectes { displaystyle i}jo excepte en un punt { displaystyle i *}{ displaystyle i *} per a aix√≤ { displaystyle p (i *) = 1}{ displaystyle p (i *) = 1} ;
  • { displaystyle H (X) leq log (n)}{ displaystyle H (X)  leq log (n)}
    • √©s m√†xim per a una distribuci√≥ uniforme, √©s a dir, quan tots els estats tenen la mateixa probabilitat;
    • Totes les coses s√≥n iguals, augmenta amb el nombre d'estats possibles (el que tradueix la intu√Įci√≥ que com m√©s opcions hi ha, m√©s gran ser√† la incertesa);
  • ella √©s¬†cont√≠nua

Justificació del logaritme

L'√ļs del logaritme pot semblar arbitrari a primera vista. Cal recordar que l'efecte del logaritme √©s transformar la multiplicaci√≥ en suma i la divisi√≥ en la resta. A m√©s, donades dues variables aleat√≤ries independents { displaystyle X}X i { displaystyle Y}I , la probabilitat del producte cartesi√† d'aquestes variables aleat√≤ries ve donada per:

{ displaystyle P left (X, Y right) = P left (X right) P left (Y right)}{ displaystyle P  left (X, Y  right) = P  left (X  right) P  left (Y  right)}

per tant:

{ displaystyle H (XY) = - sum_ {x in X} sum_ {y in Y} P (x, y) log P (x, y) = - sum _ {x in X} sum _ {y in Y} P (x) P (y) log P (x) P (y)}{ displaystyle H (XY) = -  sum_ {x  in X}  sum_ {y  in Y} P (x, y)  log P (x, y) = -  sum _ {x  in X}  sum _ {y  in Y} P (x) P (y)  log P (x) P (y)}
{ displaystyle Rightarrow H (XY) = - sum _ {x in X} sum_ {y in Y} P (x) P (y) left [ log P (x) + log P (i) right]}{ displaystyle  Rightarrow H (XY) = -  sum _ {x  in X}  sum_ {y  in Y} P (x) P (y)  left [ log P (x) +  log P (i)  right]}
{ displaystyle Rightarrow H (XY) = - sum _ {x in X} sum_ {y in Y} P (x) P (y) log P (x) - sum _ {y en Y} sum _ {x in X} P (x) P (y) log P (y)}{ displaystyle  Rightarrow H (XY) = -  sum _ {x  in X}  sum_ {y  in Y} P (x) P (y)  log P (x) -  sum _ {y  en Y}  sum _ {x  in X} P (x) P (y)  log P (y)}
{ displaystyle Rightarrow H (XY) = - sum _ {x in X} P (x) log P (x) sum _ {y in Y} P (y) - sum _ {y en Y} P (y) log P (i) sum _ {x in X} P (x)}{ displaystyle  Rightarrow H (XY) = -  sum _ {x  in X} P (x)  log P (x)  sum _ {y  in Y} P (y) -  sum _ {y  en Y} P (y)  log P (i)  sum _ {x  in X} P (x)}
{ displaystyle Rightarrow H (XY) = - sum_ {x in X} P (x) log P (x) - sum_ {y in Y} P (y) log P (y) }{ displaystyle  Rightarrow H (XY) = -  sum_ {x  in X} P (x)  log P (x) -  sum_ {y  in Y} P (y)  log P (y) }
{ displaystyle Rightarrow H (XY) = H (X) + H (Y)}{ displaystyle  Rightarrow H (XY) = H (X) + H (Y)}

Que √©s intu√Įtivament satisfactori des de llavors { displaystyle X}X i { displaystyle Y}I s√≥n independents. At√®s que l'entropia √©s una mesura d'informaci√≥ mitjana continguda en una variable aleat√≤ria, l'entropia de la combinaci√≥ de dues variables no relacionades nom√©s s'afegeix. A continuaci√≥, veiem el treball realitzat pel logaritme fent el pont entre la multiplicaci√≥ de probabilitats i l'addici√≥ d'entropies. En cas que hi hagi una certa depend√®ncia entre { displaystyle X}X i { displaystyle Y}I es verifica per proves similars que:

{ displaystyle H left (XY right) = H left (X right) + H left (Y | X right)}{ displaystyle H  left (XY  right) = H  left (X  right) + H  left (Y | X  right)}

Maximització de l'entropia

Desigualtat de Gibbs

La proposició anterior, segons la qual una distribució d'esdeveniments equiprobables maximitza l'entropia per a una determinada quantitat d'elements { displaystyle K}K , es pot expressar de forma més general per la desigualtat de Gibbs:

{ displaystyle H (X) leq - sum _ {i} p_ {i} log q_ {i}}{ displaystyle H (X)  leq -  sum _ {i} p_ {i}  log q_ {i}}
{ displaystyle sum _ {i} p_ {i} log q_ {i} leq sum _ {i} p_ {i} log p_ {i}}{ displaystyle  sum _ {i} p_ {i}  log q_ {i}  leq  sum _ {i} p_ {i}  log p_ {i}}

on { displaystyle q_ {i}}Q_ {i} és qualsevol distribució de probabilitat en la variable X. Vegem llavors que la desigualtat precedent s'obté com un cas especial quan { displaystyle 1 / q_ {i} = K}{ displaystyle 1 / q_ {i} = K} , és a dir, per esdeveniments igualment probables:

{ displaystyle H (X) leq - sum _ {i} p_ {i} log q_ {i} = sum _ {i} p_ {i} log { frac {1} {q_ {i} }} = sum _ {i} p_ {i} log K = log K}{ displaystyle H (X)  leq -  sum _ {i} p_ {i}  log q_ {i} =  sum _ {i} p_ {i}  log { frac {1} {q_ {i} }} =  sum _ {i} p_ {i}  log K =  log K}

demostracions

Evidència de la desigualtat de Jensen

El logaritme és una funció còncava, és a dir, la seva segona derivada és menor o igual que zero per a qualsevol valor de { displaystyle x}x en el seu domini. Per Jensen obtenim llavors:

{ displaystyle E [f (X)] leq f (E [X])}{ displaystyle E [f (X)]  leq f (E [X])}

A continuació, pregunta:

{ displaystyle x = { frac {q_ {i}} {p_ {i}}}}{ displaystyle x = { frac {q_ {i}} {p_ {i}}}}
{ displaystyle f left (x right) = log left (x right)}{ displaystyle f  left (x  right) =  log  left (x  right)}

Substitució a Jensen:

{ displaystyle E left [ log { frac {q_ {i}} {p_ {i}}} right] leq log left (E left [{ frac {q_ {i}} {p_ {i}}} right] right)}{ displaystyle E  left [ log { frac {q_ {i}} {p_ {i}}}  right]  leq  log  left (E  left [{ frac {q_ {i}} {p_ {i}}}  right]  right)}

I desenvolupant expectatives matemàtiques:

{ displaystyle sum_ {i} p_ {i} log { frac {q_ {i}} {p_ {i}}} leq log sum _ {i} p_ {i} { frac {q_ {i}} {p_ {i}}} = log sum _ {i} q_ {i} = log 1 = 0}{ displaystyle  sum_ {i} p_ {i}  log { frac {q_ {i}} {p_ {i}}}  leq  log  sum _ {i} p_ {i} { frac {q_ {i}} {p_ {i}}} =  log  sum _ {i} q_ {i} =  log 1 = 0}
{ displaystyle Rightarrow sum _ {i} p {i} log { frac {q_ {i}} {p_ {i}}} leq 0}{ displaystyle  Rightarrow  sum _ {i} p {i}  log { frac {q_ {i}} {p_ {i}}}  leq 0}

Per la propietat dels logaritmes:

{ displaystyle sum _ {i} p_ {i} log q_ {i} leq sum _ {i} p_ {i} log p_ {i} = - H (X)} sum _ {i} p_ {i}  log q_ {i}  leq  sum _ {i} p_ {i}  log p_ {i} = - H (X)
{ displaystyle Rightarrow H (X) leq - sum _ {i} p_ {i} log q_ {i}} Rightarrow H (X)  leq -  sum _ {i} p_ {i}  log q_ {i}

QED.

Prova d'un enllaç lineal sobre el logaritme

√Čs f√†cil verificar que la funci√≥ logar√≠tmica est√† delimitada per qualsevol l√≠nia tangent a ella. La naturalesa c√≤ncava de la funci√≥ del logaritme li d√≥na aquesta propietat:

{ displaystyle log (z) leq z-1}{ displaystyle log (z)  leq z-1}

Així tenim:

{ displaystyle sum_ {i} p_ {i} log { frac {q_ {i}} {p_ {i}}} leq sum _ {i} p_ {i} left [{ frac { q_ {i}} {p_ {i}}} - 1 right] = sum _ {i} left [q_ {i} -p_ {i} right] = sum _ {i} q_ {i} - sum _ {i} p_ {i} = 1-1 = 0} sum _ {i} p_ {i}  log { frac {q_ {i}} {p_ {i}}}  leq  sum _ {i} p_ {i}  left [{ frac {q_ {i }} {p_ {i}}} - 1  right] =  sum _ {i}  left [q_ {i} -p_ {i}  right] =  sum _ {i} q_ {i} -  sum _ {i} p {i} = 1-1 = 0
{ displaystyle Rightarrow sum _ {i} p {i} log { frac {q_ {i}} {p_ {i}}} leq 0}{ displaystyle  Rightarrow  sum _ {i} p {i}  log { frac {q_ {i}} {p_ {i}}}  leq 0}

El final de la prova és el mateix que abans, per la propietat dels logaritmes:

{ displaystyle sum _ {i} p_ {i} log q_ {i} leq sum _ {i} p_ {i} log p_ {i} = - H (X)} sum _ {i} p_ {i}  log q_ {i}  leq  sum _ {i} p_ {i}  log p_ {i} = - H (X)
{ displaystyle Rightarrow H (X) leq - sum _ {i} p_ {i} log q_ {i}} Rightarrow H (X)  leq -  sum _ {i} p_ {i}  log q_ {i}

QED.

propietats

Aquí teniu algunes propietats importants de l'entropia de Shannon:

  • { displaystyle H (X) geq H (X | Y)}{ displaystyle H (X)  geq H (X | Y)}
  • { displaystyle H (X | Y) geq H (X | YZ)}{ displaystyle H (X | Y)  geq H (X | YZ)}
  • { displaystyle H (X_ {1} ldots X_ {n}) = H (X_ {1}) + H (X_ {2} | X_ {1}) + ldots + H (X_ {n} | X_ { 1} ldots X_ {n-1})}{ displaystyle H (X_ {1}  ldots X_ {n}) = H (X_ {1}) + H (X_ {2} | X_ {1}) +  ldots + H (X_ {n} | X_ { 1}  ldots X_ {n-1})}
  • { displaystyle H (X_ {1} ldots X_ {n}) leq sum _ {i = 1} ^ {n} H (X_ {i})}{ displaystyle H (X_ {1}  ldots X_ {n})  leq  sum _ {i = 1} ^ {n} H (X_ {i})}

Utilitat pràctica

L'entropia de Shannon s'utilitza en l'electrònica digital per digitalitzar una font utilitzant el màxim nombre possible de bits sense perdre informació. També quantifica el nombre mínim de bits en què es pot codificar un fitxer, mesurant així els límits que els algorismes de compressió sense pèrdua poden esperar aconseguir. També s'utilitza en altres camps, com, per exemple, per seleccionar el millor punt de vista d'un objecte tridimensional 5 .

Exemples simples

urnes

Penseu en la possibilitat d'una urna que conté diverses boles de diferents colors, des d'on s'agafa una bola a l'atzar (amb descompte). Si totes les boles tenen colors diferents, la nostra incertesa sobre el resultat d'un sorteig és màxima. En particular, si haguéssim d'apostar pel resultat d'un empat, no podríem afavorir una altra opció. D'altra banda, si un color determinat és més representat que els altres (per exemple, si l'urna conté més boles vermelles), la nostra incertesa es redueix lleugerament: la bola triada és més probable que sigui vermella. Si haguéssim d'apostar pel resultat d'un empat, apostaríem per una bola vermella. D'aquesta manera, el fet de revelar el resultat d'un sorteig proporciona, en general, més informació en el primer cas que en el segon, perquè l'entropia del "senyal" (computable des de la distribució estadística) és més alta.

text

Agafem un altre exemple: considerar un text en franc√®s¬†codificat com una cadena de lletres, espais i puntuacions (el nostre senyal √©s, doncs, una¬†cadena de car√†cters ). Com que la freq√ľ√®ncia d'alguns car√†cters no √©s molt important (per exemple, 'w'), mentre que d'altres s√≥n molt comuns (per exemple, 'e'), la cadena de car√†cters no √©s tan aleat√≤ria. D'altra banda, sempre que no puguem preveure quin √©s el seg√ľent personatge, en certa manera, aquesta cadena √©s aleat√≤ria, que la noci√≥ d'entropia de Shannon busca quantificar.

 

Vegeu també

bibliografia

  1. Claude E. Shannon Una teoria matemàtica de la comunicació Bell System Technical Journal , vol. [archive] 27, pp. [archive] 379-423 i 623-656, juliol i octubre de 1948 [archive]
  2. ‚ÜĎ Sr. Tribus, EC McIrvine, "Energia i informaci√≥", Scientific American, 224 (setembre 1971).
  3. ‚ÜĎ La refer√®ncia es troba en¬†aquest document [archive] (¬†PDF )
  4. ‚ÜĎ El mesurament dep√®n de la "cultura" del receptor. Una frase com "obtenim la seg√ľent s√®rie r√†pidament convergent" proporcionar√† una taxa d'√®xit m√©s gran per als matem√†tics que per als no matem√†tics. De la mateixa manera, explica Brillouin, si s'utilitzen altres vocabularis molt especialitzats com m√®dics, financers, pol√≠tics, etc.
  5. ‚ÜĎ (en) P.-P. V√°zquez, M. Feixas, M. Sbert, W. Heidrich,¬†Selecci√≥ de punts de vista mitjan√ßant entropia de visi√≥ , Actes de la Confer√®ncia sobre modelitzaci√≥ i visualitzaci√≥ de visions, 273-280, 2001.




versió per imprimir

Comentaris publicats

    Afegeix-hi un comentari:

    Nom a mostrar:
    E-mail:
    Genera una nova imatge
    Introdu√Įu el codi de seguretat
    Accepto les condicions d'ús següents:

    Per a participar en els comentaris l'usuari es compromet a complir i acceptar les següents normes bàsiques de conducta:

    • Respectar les opinions de la resta dels participants al fòrum, tot i no compartir-les necessàriament.
    • Abstenir-se d'insultar o utilitzar un llenguatge ofensiu, racista, violent o xenòfob, i no tenir cap conducta contrària a la legislació vigent i a l'ordre públic.
    • No enviar cap contingut amb copyright sense el permís del propietari. Si es considera oportú facilitar continguts d'internet amb copyright, cal escriure la URL completa perquè els altres usuaris puguin enllaçar-hi i descarregar-se els continguts des de la pàgina propietària.
    • Publicitat: No es permet enviar continguts promocionals i/o publicitaris.