Professional Documents
Culture Documents
noviembre 4, 2013
Entropia de Shannon y el concepto de complejidad
Introduccin
Programa
(i) Entropa de informacin
(ii) Entropa de bloques
(iii) Energa de bloques y relacin de dispersin
(iv) Principio de resonancia
(v) El concepto de complejidad
(vi) Resumen
Entropa de informacin
Sistema de muchas particulas, posiciones y momentos
descritos por variables estocasticas.
Ejemplos:
Ferromagnetismo:
copos de nieve
Genoma de ADN
N
2
N!
(N/2)!(N/2)!
N!
;
N1 !N2 !
N = N1 + N2 =
Entropa: Sf kB N(n1 ln n1 + n2 ln n2 ) ; ni =
Ni
N
; n1 + n2 = 1 Sf Si 0
N1 = N2 = N/2
Secuencia aleatoria:
01110010101011110011000111.... S = kB N ln 2
Secuencia ordenada:
0101010101010101010101...... S = kB N ln 2
En la entropa no se distingue el rden.
La entropa en esta forma indica que el sistema puede tomar todos los
estados con la misma probabilidad y esto es generalmente el caso si el
sistema esta en contacto con un reservorio trmico, es decir con temperatura
T.
Entropa de bloque
Hn =
(n)
pi
(n)
log pi .
i
(n)
pi
(n)
Ni
(n)
Ni
; (estimador)
M
= nmero de bloques con configuracin i = nk , k = 2.
Ejemplo1:
El alfabeto tiene k = 2 smbolos; bloques con n = 2 smbolos,
longitud de la secuencia N:
configuraciones: (00),(01),(10),(11)
Secuencia aleatoria con N1 = N2 = N/2:
01110010101011110011000111....
/01/11/00/10/10/11/11/00/11/00/01/11/......
(2)
(2)
(2)
(2)
p1 = p2 = p3 = p4 =
1
4
H2 = 2 ln 2
(2)
(2)
(2)
(2)
p1 = p3 = p4 = 0; p2 = 1
H2 = 0
probabilidades independientes: pi
= p0i (1 p0)(ni)
= n
Hn = nH1 = p0 ln(p0) p1 ln(p1)
Hn,max = n ln(2) con p0 = p1 = 0.5 (no hay correlacin e
informacin)
Entropa de bloque por smbolo (entropa asociada):
hn,av =
Hn
n
Facultad de Fsica, UNMSM
Vemos que:
(i) La distribucin aleatoria tiene la mxima entropa asociada y
queda constante dentro del efecto del tamao finito. La
secuencia tiene un alto valor de desinformacin.
(ii) La secuencia peridica tiene el valor mas bajo de entropa
(para perodo n es cero), El valor de desinformacin de la
secuencia es cero pero la informacin es redundante.
En =
(n)
(n)
pi Ei
i
(n)
(n)
pi
(n)
log pi
con el estimador
(n)
pi
(n)
Ni
M
y la energa
P (n) (n)
En = i pi Ei .
Facultad de Fsica, UNMSM
Entropia de Shannon y el concepto de complejidad
E1 e1
e0 e1 ;
p1 =
e0 E1
e0 e1
Principio de resonancia
principio de resonancia
Dos o mas subsistemas dinmicos acoplados que tienen el
mismo o csi el mismo sitio en su correspondiente relacin de
dispersin interactuan resonntemente. El acople causa una
desdoblamiento mximo entre estados bonding y
antibonding con la oportunidad de ocupar el estado bonding si
la energa puede disiparse.
virus I, NC-number
mouse mammary, 001503
mimivirus, 014649
parainf. virus 5, 006430
hepatitis B, 003977
fowlpox, 002188
bacterium, NC-number
e.coli K12,000913.2
e.coli K12,000913.2
e.coli K12,000913.2
lactoc.lact. KF147,013656.1
lactoc.lact. KF147,013656.1
virus, NC-number
phage lambda,001416.1
newcas. disease B1,002617.1
phage T4,000866.4
lactoc. phage c2,001706.1
lactoc. phage sk1,001835.1
Figure : (a) E2 (H2 ) for all virus and bacteria with H2 > 2.75. The
values of the 5 virus-bacterium interactions are marked. (b) Common
E2 (H2 ) region for the 5 virus-bacterium interactions. The values in the 2
parenthesis give the genome length and the relative errors of block
entropy- and energy for the corresponding virus and bacterium.
El concepto de complejidad
complejidad en la fsica
ejemplos de modelos simples con cero complejidad:
cristal perfecto: completamente ordenado, la distribucin de
probabilidad es centrado alrededor de pocos estados de alta
simetra, una mnima cantidad de preguntas necesarias para
su descripcin, contenido de informacin es mximo,
entropa es mnima (cero).
gas ideal: completamente desordenado, todos los estados
son accesibles con la misma probabilidad. La cantidad de
preguntas para un estado especifico es maximo, contenido de
informacin es cero, entropa es mxima.
nc
X
(n)
[pi ]2
1
1
= < p(n) >
i=1
S = CT
= S = S
C
T
| dE
dS |
describe la complejidad de un sistema:
figura 1
figura 2
figura 3
1 = H1 | ln (p1) ln (p0) |
C
e0 e1
U
N
ys=
S
N
y sustituyendo u en s:
u
1
u
1
u
1
u
1
s = s(u) = kB [ (1 ) ln ( (1 )) (1+ ) ln ( (1 + ))]
2
2
2
2
se requiere T :
Para calcular C
T =
du
2
1
u
1
u
=
[ln ( (1 )) ln ( (1 + ))]
ds
kB
2
2
Con s y T se calcula c =
s
T
en funcin de u.
(n)
(n)
pi Ei
= n(p0e0 + p1e1 ) + (1
1
)4
n
y la entropa de bloques
X (n)
(n)
Hn =
pi log pi = nH1 = n[p0 ln(p0) + p1 ln(p1)]
i
p0 =
T =
c =
du
2
=
ds
kB (ln p0 ln p1)
kB2
(p0 ln p0 p1 ln p1)(ln p0 ln p1)
2
1
kB T
CB
= kB 4 p0 p1 (ln p0 ln p1)2
N
+
k ck,
ck, +
k,
1X
+ +
ck, ck0 , ck0 ,
Vk,k0 ck,
N 0
k,k
Vk,k0 =
V0 , | k,k0 | 4,
0,
resto
HBCS =
+
Ek k,
k,
k,
y
4k = 4k =
4, | k | 4,
0, resto
1X
4k0
Vk,k0
(1 2nF (Ek0 ))
N 0
2Ek0
k
1
1 + eE(k )
La complejidad es
C=
S
= kB S
T
Reemplazando con nF (k )
C = 2kB2
C(k )
4C(k ) =
1
)
1 + e4E(k
ih
1 h
log (1 nF (k )) log nF (k ) nF (k ) log nF (k )
)
E(k
i
+(1 nF (k )) log (1 nF (k ))
4
kB Tc
1
1+e4
1.84 nF 0.136
Facultad de Fsica, UNMSM
Resumen
(1) Separacin de entropas en S(H) y Sc , no estan en
equlbrio.
(2) Entropa de Hn bloques permite ver correlaciones.
(3) Se define una energa de bloques y la relacin de
disperson En (Hn ).
(4) En (Hn ) permite encontrar y analizar estados resonantes
entre subsistemas.