You are on page 1of 79

Variable aleatoria continua

Un dilogo entre C3PO y Han


Solo, en El Imperio
Contraataca, cuando el Halcn
Milenario se dispone a entrar en
un campo de asteroides:
- C3PO: Seor, la probabilidad
de sobrevivir al paso por el
campo de asteroides es,
aproximadamente, de una entre
3721.
- HAN SOLO: No me hables de
probabilidades!

Funcin de distribucin de
una variable aleatoria continua
Para una variable aleatoria continua disponemos
de un conjunto no numerable de valores. No es posible
definir una probabilidad para cada uno. Por eso
definimos previamente la funcin de distribucin de
probabilidad, que s tiene un significado inmediato y
semejante al caso discreto:

F : [0,1]
x F ( x) P( X x)
2

Definimos la funcin de distribucin para la variable


aleatoria continua como:
x

F ( x)

p(t )dt

Donde p(x) se llama funcin densidad de probabilidad


de la distribucin F(x), es continua y definida no negativa.
Diferenciando tenemos:

dF ( x)
p( x)
dx

para cada x donde p(x) es continua.

Funcin de densidad de probabilidad

0.05

15

14

13

12

11

10

0.00
5

p ( x)dx

0.10

0.15

P ( a x b)
F (b) F (a)

0.20

Se puede pensar como la


generalizacin de un
histograma de frecuencias
relativas para variable
continua.

0.25

Es una funcin no
negativa de integral 1.

b
4

Observa que:

p(v)dv 1

A partir de la definicin es fcil ver que:


b

P(a X b) F (b) F (a) p(v)dv


a

De modo que la probabilidad es el rea bajo la curva


densidad p(x) entre x = a y x = b.
Nota: para cualquier par de valores a y b, en el caso de una variable
aleatoria continua, las probabilidades correspondientes a los
intervalos a < X b, a < X < b, a X < b y a X b son la misma.
No as en variable discreta.
5

Supongamos que X tiene como funcin densidad a p(x) = 0.75(1-x2)


si -1 x 1 y cero en otro caso. Encuentra la funcin de distribucin
y las probabilidades P(-1/2 X 1/2) y P(1/4 X 2). Y x tal que
P(X x) = 0.95

F(x) = 0 si x -1
x

F ( x) 0.75 (1 v 2 )dv 0.50 0.75 x 0.25 x 3

si - 1 x 1

F(x) = 1 si x >1.
1
2

P( 12 X 12 ) F ( 12 ) F ( 12 ) 0.75 (1 v 2 )dv 0.6875


12

2
1

P(
X 2) F (2) F ( 4 ) 0.75 (1 v )dv 0.3164
1
4

1
4

6
P ( X x) F ( x) 0.5 0.75 x 0.25 x 3 0.95 x 0.73

Esperanza matemtica o media


x j p( x j )

(Distribucin discreta)

xp( x)dx

(Distribucin continua)

Decimos que una distribucin es simtrica si existe un valor c


tal que para cada real x:
p (c + x) = p(c - x).
Observa que si una distribucin es simtrica con respecto a c,
entonces su media es = c.

Varianza y desviacin tpica


2 ( x j ) 2 p ( x j )

(Distribucin discreta)

2 ( x ) 2 p ( x)dx

(Distribucin continua)

La desviacin tpica o estndar es el valor positivo de la raz


cuadrada de 2 . Ambas miden la dispersin de la distribucin.
Observa que la varianza siempre es 2 > 0, excepto para una
distribucin con p(x) = 1 en un punto y p(x) = 0 en el resto
(una delta de Dirac), en cuyo caso 2 =0.
8

Momentos de orden k centrados


en el origen y en la media.
E (T ( X )) T ( x j ) p ( x j )

(Distribucin discreta)

E ( X k ) x j p( x j )
k

Momentos de orden k

E (( X ) k ) ( x j - ) k p ( x j )
j

E (T ( X )) T ( x) p ( x)dx

(Distribucin continua)

E( X k )

k
x
p( x)dx

E (( X ) k ) ( x ) k p ( x)dx

Observa que para k = 2:


2 = E((X - )2)
9

Otros valores tpicos o medidas del valor central son:


mediana

xmed

si N es impar
x( N 1) / 2

si N es par
1 / 2( x N / 2 x( N 1) / 2 )

F ( xmed ) P ( X x) P( X x) 0.5

Discr.

Cont.

moda xmod: es el valor para el cul la distribucin toma su


mximo absoluto.
Siguen un orden alfabtico
dF ( x)
p( x)

dx

F ( x)

p(t )dt

10

Los momentos de orden superior son menos robustos y, por lo tanto, menos
utilizados
3er momento: describe la asimetra de la distribucin.
Asimetra (skewness)

1
m3
N

3
(
x

x
)
i 1 i
N

m3 ( x x ) 3 p ( x)dx

4o momento: describe el aplanamiento de la distribucin.


Kurtosis

4
(
x

x
)
1 i 1 i
m4
N
4
N

Se suele medir en una escala que


toma 3 como su cero, ya que ste
es el valor de la kurtosis de una
distribucin normal estndar

m4 ( x x ) 4 p( x)dx

(Figs. Press et al., Numerical Recipes)

11

Otras medidas de la anchura de la distribucin:


Desviacin absoluta media, x:

1
x
N

x x
i 1

x x p ( x)dx

Intervalo R xmax xmin,

p( x)dx 0.683
a

Nivel de confianza al 68.3% [a,b] tal que:


y el intervalo [a,b] es mnimo.
a

p( x)dx 0.25

p( x)dx 0.25
b

12

13

14

15

16

Distribucin normal

Pierre Simon de Laplace


(1749-1827)

Karl F. Gauss
(1777-1855)

Sin duda la distribucin continua


de probabilidad ms importante,
por la frecuencia con que se
encuentra y por sus aplicaciones
tericas, es la distribucin
normal, gaussiana o de
Laplace- Gauss. Fue descubierta
y publicada por primera vez en
1733 por De Moivre. A la misma
llegaron, de forma independiente,
Laplace (1812) y Gauss (1809),
en relacin con la teora de los
errores de observacin
astronmica y fsica .

Caracteres morfolgicos de individuos (personas, animales, plantas,...) de


una especie (tallas, pesos, dimetros, permetros,...).
Caracteres sociolgicos, por ejemplo: consumo de cierto producto por un
mismo grupo de individuos, puntuaciones de examen, ...
Caracteres fisiolgicos, por ejemplo: efecto de una misma dosis de un
frmaco.

Errores cometidos al medir ciertas magnitudes.


Valores estadsticos muestrales, por ejemplo : la media.
Y en general cualquier caracterstica que se obtenga como suma de
muchos factores.
Otras distribuciones como la binomial o la de Poisson se aproximan
a la normal. Distribuciones binomiales con n grande (n>30) y p ni pequeo (np > 5)
ni grande (n(1-p) > 5).

Distribucin normal o gaussiana


Est caracterizada por dos parmetros: la media, y la
desviacin tpica, .
Su funcin de densidad es:

1
N (, ) P ( x)
e
2

( x ) 2

2 2

( 0)

La curva normal adopta un nmero infinito de formas,


determinadas por sus parmetros y .

Caractersticas de la distribucin Normal


Tiene forma de campana, es asinttica al eje de las abscisas
(para x = )
Simtrica con respecto a la media ( ) donde coinciden la mediana
(Mn) y la moda (Mo )
Los puntos de inflexin tienen como abscisas los valores

Puntos
de
inflexin

- , Mo, Mn +

Distribucin normal con =0 para varios valores

1.6

1.2

p(x)

0.8

0.4

0
-2.50

-1.50

-0.50

0.50
x

1.50

2.50


1
N (, ) P ( x)
e
2

( x ) 2

( 0)

2 2

10

20

30

40

50

60

70

80

90

100

110

120

Curvas normales con distintas medias y desviaciones estndar.

N(, ): Interpretacin
geomtrica

Podemos interpretar la
media como un factor
de traslacin.
Y la desviacin tpica
como un factor de
escala, grado de
dispersin,

N(, ): Interpretacin probabilista


Entre la media y una
desviacin tpica
tenemos siempre la
misma probabilidad:
aproximadamente el
68%.
Entre la media y dos
desviaciones tpicas
aprox. 95%

Si tomamos intervalos centrados en , y cuyos extremos estn


a distancia ,

tenemos probabilidad 68%

a distancia 2 ,

tenemos probabilidad 95%

a distancia 25

tenemos probabilidad 99%

1
N (, ) P( x)
e
2

( x ) 2

2 2

Podemos obtener la funcin de


distribucin F(x) integrando la
funcin de densidad de probabilidad:

1
F ( x)
2

( v ) 2

2 2

dv

De modo que la probabilidad de una


variable aleatoria normal X en un
intervalo a x b es:
b

1
P (a X b) F (b) F (a )
e

2 a
En particular:

1
2

( v ) 2

2 2

( v ) 2

2 2

dv

dv 1

No podemos calcular analticamente el valor de la integral!


Tabularemos sus valores numricos...

Cmo calcular probabilidades asociadas


a una curva normal especfica?
Dado que tanto como pueden asumir infinitos valores lo
que hace impracticable tabular las probabilidades para todas las
posibles distribuciones normales, se utiliza la distribucin
normal reducida o tipificada.
Se define una variable

z=

x -

Es una traslacin , y un cambio de escala de


la variable original.

La nueva variable z se distribuye como una

NORMAL con media = 0 y desviacin tpica = 1


Recordemos de nuevo que en cualquier distribucin normal las
probabilidades delimitadas entre :

68 %
2 95 %
3 99 %

68%
95%
-3

-2

-1

99%
0

z
1

Tipificacin
Dada una variable de media y desviacin tpica ,
se denomina valor tipificado z, de una observacin
x, a la distancia (con signo) con respecto a la media,
medido en desviaciones tpicas, es decir:

x
z

En el caso de variable X normal, la interpretacin es clara:


asigna a todo valor de N(, ), un valor de N(0,1) que deja
exctamente la misma probabilidad por debajo.
Nos permite as comparar entre dos valores de dos
distribuciones normales diferentes, para saber cul de los
dos es ms extremo.

Se quiere dar una beca a uno de dos estudiantes de sistemas educativos


diferentes y se asignar al que tenga mejor expediente acadmico:
El estudiante A tiene una calificacin de 8 en un sistema donde la
calificacin de los alumnos se comporta como N(6,1).
El estudiante B tiene una calificacin de 80 en un sistema donde la
calificacin de los alumnos se comporta como N(70,10).
No podemos comparar directamente 8
puntos de A frente a los 80 de B, pero
como ambas poblaciones se comportan
de modo normal, podemos tipificar y
observar las puntuaciones sobre una
distribucin de referencia N(0,1).
Como zA > zB, podemos decir que el
porcentaje de compaeros del mismo
sistema de estudios que ha superado
en calificacin al estudiante A es mayor
que el que ha superado B. En principio
A es mejor candidato para la beca.

zA

xA A 8 6

2
A
1

zB

xB B 80 70

1
B
10

Apliquemos el cambio de
variable tipificada a la funcin
de distribucin F(x):

-
z

dv dz

1
F ( x)
2

1
p( z )
e
2

z2

( v ) 2

2 2

dv

; z

1
F ( z ) p(Z z )
2

u2

du

Las probabilidades de la variable tipificada (z) estn


tabuladas para los diferentes valores de la variable.
Para calcular probabilidades, una vez transformada,
la variable a valores de z, se busca en una tabla el
rea correspondiente.

1
p( z )
e
2

z2

; z

1
F ( z ) p( Z z )
2

u2

du

Caracterstica de la distribucin
normal tipificada (reducida o
estndar):
No depende de ningn parmetro.
Su media es 0, su varianza es 1 y su
desviacin tpica es 1.
La curva f(x) es simtrica respecto al
eje de ordenadas y tiene un mximo
en este eje.
Tiene dos puntos de inflexin en z =1
y z = -1.

EJEMPLO
Sea una variable distribuida normalmente con media
= 4 y desviacin tpica = 1.5.
Cul es la probabilidad de encontrar un valor x 6
(P(x 6 ))?

=4

= 1.5

x
z

Hallar P ( x > 6 )

1.- transformar x en un valor de z


z = (6 - 4)/1.5 = 1.33
2.- Hallar P ( 0 < z < 1.33) =
3.- 0.5000 - 0.40824 =

0.5
0.40824

0.09176

?
-0.5
-3

1
-2

2.5
-1

4
0

5.5 6
1 1.33

x
7
2

8.5
3

Hasta ahora vimos como dado un valor x de la variable,


hallar probabilidades transformando (estandarizacin) la
variable en valores de
x-
z=

Cmo hallar un valor de x, dada la probabilidad?


Ejemplo: Sea una variable distribuida normalmente con =4 y
=2 . Hallar el valor de x que deja por encima de l un 38.20%

(0.3820)
Se debe desestandarizar : Se busca en la tabla

x=z+

de acuerdo al rea.
Con su signo

0.5000 - 0.382 = 0.118 Se busca en


la tabla el valor ms aproximado :0.1179
corresponde a z =+ 0.30
Sustituyendo en la frmula

0.30x2+4 =4.60

38.20%

x=?
4.60

Funcin generatriz de momentos


Discreta

g (t ) E[e ] e P ( X xi )
txi

tX

Continua

g (t ) E[e ] e f ( x)dx
tX

tx

t 2 t 3
g (t ) E[e ] 1 tx x x ... f ( x)dx

2!
3!

2
3
t
t
k
1 tm1 m2 m3 ...
d g (t )
2!
3!
mk
k
tX

dt

t 0

Funcin caracterstica

(t ) E[e ] e P( X xi )
itxi

itX

(t ) E[e ] e f ( x)dx
itX

itx

Observemos que:

1
f ( x)
2

e (t )dt
itx

a partir de la anti-transformada de Fourier de la funcin


caracterstica obtenemos la densidad de probabilidad.

Desarrollando en Taylor la funcin caracterstica


alrededor de t = 0:

' ' ( 0) 2
( k ) ( 0) k
(t ) (0) ' (0)t
t ...
t ...
2!
k!

(t ) E[eitX ] (0) 1

' (t ) E[iXeitX ] ' (0) E[iX ] im1


' ' (t ) E[i 2 X 2 e itX ] ' ' (0) E[i 2 X 2 ] i 2 m2
...
k
d k (t )
d
( 0)
k
k itX
k
k
k

E
[
i
X
e
]

E
[
i
X
]

i
mk
k
k
dt
dt

i
i
2
k
(t ) 1 im1t m2t ... mk t ...
2!
k!

1 d k (t )
mk k
k
i dt t 0

Calculemos la esperanza y la varianza de la distribucin exponencial.

(t ) E[e ] e f ( x)dx eitx e x dx


itX

itx

( it ) x

( it ) x

dx
e

it
it
0

i
' (t )
( it ) 2
i
' ( 0)

' (0) 1
E[ X ]

2 i 2
' ' (t )
( it )3
2

2i
' ' (0) 2

' ' (0) 2


2
E[ X ] 2 2
i

2 1
1
E[ X ] ( E[ X ]) 2 2 2

2

Acerca de la Desigualdad de
Chebyshev

Desigualdad de Chebyshev
Para entender bien este resultado
necesitamos saber de variables aleatorias y
probabilidades. Sin embargo, trataremos de
explicar su sentido - y su uso - de la forma
ms intuitiva posible, sin entrar en detalles
tcnicos.

Desigualdad de Chebyshev
Variable Aletoria. Una variable aleatoria es una
variable que puede tomar diferentes resultados con
cierta probabilidad
Probabilidad. Pensemos en la probabilidad de un
resultado como la frecuencia con que ocurre el
resultado si repetieramos el experimento muchas
veces.
Por ejemplo, si tiramos una moneda muchas
veces, la mitad de las veces debieramos obtener
cara y la otra mitad sello. La variable es lado de la
moneda. El resultado cara tiene una probabilidad
0.5 (50% de las veces) y el resultado sello 0.5.

Desigualdad de Chebyshev
Pensemos ahora que una variable X puede tomar
valores en los nmeros reales, por ejemplo, el
tiempo nos tardamos en llegar a la casa. Tomar una
muestra de X es medir el tiempo en diferentes
ocasiones.
Esperanza. Pensemos en la esperanza de la
variable aleatoria X como el promedio que
mediramos si tomamos una muestra muy grande
de la variable.
Varianza. Pensemos en la varianza de la variable
aleatoria X como la varianza que mediramos si
tomamos una muestra muy grande de la variable.

Desigualdad de Chebyshev
La Desigualdad de Chebychev:

1
P( X k) 2
k
Por ejemplo, la probabilidad de que la variable se
aleje ms que 2 desviaciones estndar de su valor
esperado es menor que 1/4 = 0.25
La probabilidad de que se aleje ms de 3
desviaciones estndar es menor que 1/9 = 0.11

Desigualdad de Chebyshev
La Desigualdad de Chebychev pone un mximo a
la probabilidad de que la variable aleatoria tome un
valor que se aleja de su valor esperado por ms de
cierto valor.
Ms precisamente (P denota1probabilidad de ... )

P( X k)

Donde
es la esperanza de la variable
aleatoria,
es su desviacin estndar (la raz de
su varianza) y k es un nmero real positivo
cualquiera.

Desigualdad de Chebyshev
Notemos que esto se puede reescribir como

1
P( k X k) 1 2
k

O sea un intervalo en que encontramos el valor de


X en al menos el 75% de las veces es

[ 2, 2]
Usandok 2

Desigualdad de Chebyshev
En la prctica no conocemos la esperanza y la
varianza (o desviacin estndar) de X, pero como
bueno ingenieros podemos reemplazar la esperanza
por el promedio y la desviacin por la desviacin
estndar muestral.

1
X X k) 1 2
P(X k
k

Desigualdad de Chebyshev
La Desigualdad de Chebychev es un caso especial
de la desigualdad de Markov

E( X )
P(a X a)
a

La ley de los grandes nmeros


"El indicio de que las cosas
estaban salindose de su
cauce normal vino una tarde
de finales de la dcada
de 1940. Simplemente lo que
pas fue que entre las
siete y las nueve de aquella
tarde el puente de Triborough
tuvo la concentracin de trfico
saliente ms elevada
de su historia".
Comienzo del relato corto
53
"La Ley" de Robert M. Coates

Suma de variables aleatorias discretas


Supongamos que X e Y son dos variables aleatorias discretas
e independientes con funciones de distribucin p1(x) y p2(y)
respectivamente. Sea Z = X + Y, cmo ser la funcin de
distribucin de Z, p3(z)?
Puesto que el evento Z = z es la unin del par de eventos
disjuntos: (X = k) e (Y = z - k), tendremos:

P3 ( Z z )

P ( X k ) P (Y z k )

Decimos que p3(x) es la convolucin de p1(x) y p2(x):


p3(x) = p1(x) * p2(x)

54

Convolucin

p3 ( j )

p (k ) p ( j k )

La convolucin es una operacin conmutativa y asociativa.


Visto lo visto, es "fcil" demostrar por induccin cmo ser
la suma de n variables aleatorias independientes:

S n X 1 X 2 ... X n
teniendo en cuenta que:

S n S n 1 X n

55

Veamos un ejemplo: Supongamos que lanzamos un dado


dos veces. Sea el resultado del primer lanzamiento la variable
aleatoria X1 y del segundo, la variable aleatoria X2 , ambas
con la misma distribucin de probabilidad que llamaremos
m(x). Calculemos la funcin de distribucin de probabilidad
para S2 = X1 + X2.

P( S 2 s)

m( X

k ) m( X 2 s k )

(....)

56

Si quisiramos calcular S3 = X1 + X2 + X3 , tendramos:

(...)

Este es el resultado
grfico para la suma
S10 de 10 dados.

57

Y estos son los resultados


grficos para las sumas
S20 y S30 de 20 y 30 dados,
respectivamente.
Observemos que, a medida
que aumenta el nmero
de dados, tenemos una
curva que se aproxima
ms y ms a una campana
de Gauss, a una normal.
Veremos por qu ms
adelante, cuando hablemos
del teorema central del
lmite.
58

Suma de variables aleatorias continuas


Si X e Y son dos variables aleatorias continuas e
independientes con funciones densidad de probabilidad
f(x) y g(x) respectivamente, la variable aleatoria Z = X + Y,
tendr como densidad de probabilidad la convolucin
de f y g:

( f g )( z ) f ( z y ) g ( y )dy

g ( z x) f ( x)dx
59

Suma de dos variables aleatorias uniformes


independientes

Dos distribuciones
uniformes U(0,1).
Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.
60

f Z ( z ) f X ( z y )dy
0

Observa que, como X e Y varan entre 0 y 1, su suma Z variar entre 0 y 2.

61

Convolucin de dos densidades de probabilidad


uniformes U(0,1).
62

Suma de dos variables aleatorias


exponenciales independientes

Dos densidades
de probabilidad
exponenciales
Exp().
Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.
63

Convolucin de dos
densidades de probabilidad
exponenciales Exp().

64

Suma de dos variables aleatorias


normales independientes

Dos densidades de probabilidad normales


tipificadas N(0,1).
65

Obtenemos la
densidad de
probabilidad de la
suma de las dos
variables por
convolucin de sus
densidades.

Normalizacin
de N(0, 2)

El resultado es una normal de media 0 y varianza 2, N(0,2)


66

Suma de n variables aleatorias independientes

S n X 1 X 2 ... X n
Teniendo en cuenta que:

S n S n 1 X n
Y que:

f S2 ( x) f X1 f X 2 ( x)
Tendremos para n variables aleatorias independientes:

f S n ( x) f X1 f X 2 ... f X n ( x)
67

Recuerda que la convolucin es una operacin conmutativa y asociativa.

68

69

70

Teorema central del lmite


En condiciones muy generales la suma de n
variables aleatorias , independientes y con la
misma distribucin tiende a la distribucin normal
a medida que n tiende a infinito.

S n X 1 X 2 ... X n
lim p ( S n ) N ( , )
n

71

Desigualdad de Chebyshev (1821-1894)


Una varianza pequea indica que las desviaciones grandes
alrededor de la media son improbables. La desigualdad de
Chebyshev hace precisa esta impresin:

P ( x k ) 1 k
O bien, haciendo:

P( x )
2

Pafnuti Lvovic Cebicev


(1821-1894)
72

Demostracin:

2 f ( x )dx

f ( x)dx
2

2 f ( x)dx

f ( x)dx

P x

P x
2

Para el caso discreto la demostracin es semejante.

73

Ley de los grandes nmeros (en forma dbil)


Sean X1, X2, ..., Xn variables aleatorias independientes,
con la misma distribucin y con valores esperados y
varianzas finitos. Entonces: para Sn = X1 + X2 + ... + Xn
y cualquier real > 0:

Sn

lim P
0
n
n

o de forma equivalente :
Sn

lim P
1
n
n

74

Demostracin:
2
2
S
n

n
S n n
Var
; E

2

n
n
n
n
n
2
Sn

Usando la desigualdad
P
2
de Chebyshev y fijado
n
n

un psiln:

Sn

lim P
0
n
n

o de forma equivalente :
Sn

lim P
1
n
n

75

Observa que Sn/n es un promedio y por eso a la ley de


los grandes nmeros suele conocerse tambin como
ley de los promedios.
Hemos visto su "forma dbil". En su "forma fuerte" nos
dice que si repetimos el lanzamiento de una moneda, la
proporcin de caras se aproxima ms y ms a 1/2 a
medida que aumentamos el nmero de lanzamientos.
Si Sn es el nmero de caras en n lanzamientos, la ley
fuerte de los grandes nmeros dice que cuando n tiende
a infinito:

1
Sn
P
1
2
n

76

Distribuciones para el nmero de caras en n lanzamientos de una moneda.


La ley de los grandes nmeros predice que el porcentaje de caras para n
grande estar prximo a 1/2.

En las grficas se ha
marcado con puntos
las probabilidades
comprendidas entre
0.45 y 0.55.
Vemos como a medida
que n crece la
distribucin se
concentra ms y ms
alrededor de 0.5 y el
porcentaje de rea
correspondiente al
intervalo (0.45, 0.55)
se hace ms y ms
grande.

77

Supongamos que tomamos al azar n nmeros del intervalo


[0,1] con una distribucin uniforme. Si la variable aleatoria
Xi describe la eleccin i-sima, tenemos:c

1
1
2
E X i ; Var X i
2
12
2
1
Sn 1
Sn
E
Var

;

n 12n
n 2
n
De modo que, para cualquier > 0, tendremos:

Sn
2
1
P
2
2
n

12
n

Es decir, si escogemos al azar n nmeros del intervalo [0,1],


las probabilidades son mejores que 1 - 1/(12n2) de que
la diferencia |Sn/n - 1/2| sea menor que .
78

Grficos semejantes al caso del lanzamiento de n monedas anterior, pero


ahora con la suma de n valores independientes tomados de una U(0,1).
Rigen los mismos comentarios.

79