Professional Documents
Culture Documents
ESQUEMA
1.1. Concepto de variable aleatoria. Definicin formal. Notaciones. 1.1.1. Tipos 1.1.2. Funcin de distribucin. 1.2. Variables aleatorias de tipo discreto. 1.2.1. Caractersticas: 1.2.1.1. Funcin puntual de probabilidad. 1.2.1.2. Esperanza y varianza de v.a. discretas. Propiedades. 1.2.2. Distribuciones discretas especiales. 1.2.2.1. La distribucin de Bernoulli. 1.2.2.2. La distribucin de Bernoulli. 1.2.2.3. La distribucin Binomial. 1.2.2.4. La distribucin de Poisson. 1.3. Variables aleatorias de tipo continuo. 1.3.1. Caractersticas: 1.3.1.1. Funcin de densidad. 1.3.1.2. Esperanza y varianza de v.a. continuas. Propiedades. 1.3.2. Distribuciones continuas especiales. 1.3.2.1 La distribucin Uniforme. 1.3.2.2 La distribucin Normal. 1.3.2.3. Distribuciones relacionadas con la Normal: 2 , t , F.
1.1.- VARIABLE ALEATORIA. Significado: Hasta ahora, se han estudiado caractersticas generales de los espacios probabilsticos (,,), donde es el espacio muestral, una -lgebra, y una funcin de probabilidad. Con frecuencia no interesar estudiar los sucesos de la -lgebra, sino una varias caractersticas numricas ligadas con el resultado del experimento. As podr interesarnos al seleccionar un alumno de la Universidad, la probabilidad de que su nota sea superior igual a 5 (probabilidad de aprobar), con objeto de establecer un nuevo impuesto la probabilidad de que la renta anual de los individuos no sea superior a 20.000 euros. Estas caractersticas numricas, a las que bajo determinadas condiciones podemos asociar una probabilidad, inducida por la probabilidad de los sucesos del experimento, reciben el nombre de variables aleatorias. Ejemplo 1: Si consideramos el experimento lanzar una moneda al aire tres veces, nuestro espacio muestral estar formado por los ocho posibles resultados elementales del experimento, es decir ={(c,c,c),(c,c,+),(+,c,c), (+,c,+), (+,+,c),(c,+,c),(c,+,+), (+,+,+)}. Cada uno de estos sucesos (equiprobables) con una probabilidad de 1/8. Podemos definir una funcin que a cada uno de los resultados, le asigna el nmero de caras obtenidas: (c,c,c) 3 (c,c,+) 2 (+,c,c) 2 (+,c,+) 1 (+,+,c) 1 (c,+,c) 2 (c,+,+) 1 (+,+,+) 0 Es decir ((c,c,c))=3, ((c,c,+))=2, ((+,c,c))=2,...
Ejemplo 2: Se lanza una moneda dos veces. Sea X la variable aleatoria nmero de caras obtenidas. Veamos cual es su funcin de distribucin: Nuestro espacio muestral es ={(c,c), (c,+),(+,c), (+,+)} y las probabilidades de todos los sucesos son iguales (sucesos equiprobables) y valen 1/4. La variable aleatoria X toma los valores X((c,c))=2, X((c,+))=X((+,c))=1, X((+,+))=0. Calculemos la Funcin de Distribucin para diferentes valores al azar: FX (-2) = P(X< -2) = 0 ; FX (0,5) = P(X< 0,5) = P(X=0)=P((+,+))= 1/4 ; FX (1,5) = P(X< 1,5) = P((+,+),(c,+),(+,c))= 1/4+ 1/4 +1/4 = 3/4 FX (2,5) = P(X< 2,5) = P((+,+),(c,+),(+,c),(c,c))= 1/4+ 1/4 +1/4 + 1/4= 1 = P() Formalmente, hay que calcular la funcin de distribucin para cada nmero real x igual que la hemos calculado para los valores 2;0,5;1,5; y 2,5. Es fcil ver que en nuestro caso la Funcin de Distribucin vale: FX (x) = 0 1/4 3/4 1 si si si si x<0 0<x<1 1<x<2 2<x
Funcin de Distribucin
1,2 1
0,8 0,6
0,4 0,2
0 -2 -1 0 1 2 3 4 5
Observacin: La funcin de distribucin de una variable aleatoria es una funcin que describe como se acumula la probabilidad provocada por la variable a lo largo de la recta. Los tramos con fuertes crecimientos indican zonas donde los valores de la variable aportan gran cantidad de probabilidad, mientras que los tramos planos denotan zonas donde no hay aporte de probabilidad alguno. Los saltos en la funcin de distribucin (ver grfico del ejemplo 2) muestran aportes significativos de probabilidad en los puntos en los que existe discontinuidad. As, en el ejemplo 2 se observan aportes significativos de probabilidad en el 0, el 1 y el 2.
(a) P(x1 < X < x2) = F(x2) F(x1) (b) P(X = x) = F(x) F(x-) (c) P(x1 < X < x2) = F(x2 -) F(x1) (d) P(x1 < X < x2) = F(x2-) F(x1-) (e) P(x1 < X < x2) = F(x2) F(x1-)
Donde F(x-)=lim F(x-) cuando >0 y 0. 1.2.- VARIABLE ALEATORIA DE TIPO DISCRETO. Definicin: Dado un espacio probabilstico (, S, ), y una variable aleatoria X definida en l, decimos que X es una variable aleatoria discreta si el conjunto: X() = {X(), ,} es finito infinito numerable. Esto equivale a que una variable aleatoria X es de tipo discreto, si su funcin de distribucin es escalonada, es decir, es constante salvo un conjunto de puntos, a lo sumo infinito numerable. 1.2.1 CARACTERSTICAS. Con objeto de elaborar una plan de prevencin de riesgos laborales, en una empresa se han recogido los siguientes datos:
Numero de accidentes 0 1 2 3 4 Numero de das del mes 10 12 5 2 1
Consideremos la variable aleatoria X, nmero de accidentes diarios. La siguiente tabla recoge la distribucin de frecuencias de dicha variable:
Valor de la variable(xi) 0 1 2 3 4 Frecuencia Absoluta(ni) 10 12 5 2 1 30 Frecuencia Relativa(fi) 10/30 12/30 5/30 2/30 1/30
Esta tabla contiene toda la informacin sobre la variable estadstica (sobre los datos de un mes). Ahora bien, para resumir ciertos aspectos de la distribucin (promedios, dispersin, forma, ...) que clarifiquen la informacin y permitan su comparacin con datos de otros meses o de otras empresas, se calculan una serie de medidas caractersticas de posicin(media,...), dispersin(varianza,...), ....: As, la media aritmtica sera: X = 0 x 10/30 + 1 x 12/30 + 2 x 5/30 + 3 x 2/30 + 4 x 1/30 = 1,07 La varianza: S2X=(01,07)2x10/30+(1-1,07) 2x12/30+(2-1,07) 2x5/30+(3-1,07)2x2/30+(4-1,07) 2x1/30 = 1,06 Y su desviacin tpica SX= 1,03 Todas estas medidas tienen su fundamento en las frecuencias observadas para los distintos valores de la variable, es decir, son medidas empricas.
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 5
De cara a resumir los aspectos ms importantes de esta distribucin, vamos a construir ahora medidas tericas que nos informen acerca de la distribucin. Hablaremos de nuevo de media (esperanza), moda, varianza, etc., siendo su construccin similar a la de las medidas descriptivas. Si la distribucin es discreta solo tendremos que cambiar frecuencia por probabilidad, si es continua se producir un cambio cualitativo, que se traducir en la mayor parte de los casos en transformar sumas en integrales. 1.2.1.1. FUNCIN PUNTUAL DE PROBABILIDAD. Definicin: Sea X una variable aleatoria discreta, se define su funcin puntual de probabilidad fX, como una aplicacin, fX : tal que fX(x) = P(X=x) x . Se advierte que si X() es el conjunto {x1, x2, x3, ...., xn, .... }, la funcin de probabilidad fX toma los valores: fX(xi)=P(X= xi) para i=1,2,...n,... y fX(x)=0 para el resto de los x xi. Cuando no se preste a confusin, a fX la notaremos simplemente f. Notacin: Se suele notar piP(X= xi) o bien pxiP(X= xi). Se denomina distribucin de probabilidad a los pares (xi , pi) i Representacin grfica: Con objeto de mejorar la visualizacin, la representacin de la funcin de probabilidad se realiza slo para aquellos puntos en los que toma valores no nulos: fX(x)
F ( x) =
xi x
Ejemplo 2: Con los datos del ejemplo 2, veamos cual es la funcin de probabilidad puntual: La variable aleatoria X nmero de caras obtenidas al lanzar una moneda al aire dos veces puede presentar los valores 0, 1 y 2;
Propiedades: Si f es la funcin de probabilidad de una variable aleatoria discreta X, que toma los valores x1, x2, x3, ...., xn, .... Entonces:
La esperanza matemtica E(X), existe siempre que xi fX (xi) < . Ejemplo 5: Una rifa consta de 1000 papeletas, que se venden a 100 pesetas, existiendo un nico premio de 5.000 pesetas. Compramos cuatro papeletas Qu ganancia esperamos obtener?: En el caso de que una de nuestras papeletas sea la premiada, la ganancia ser: 5.000 400 = 4.600. En el caso (ms probable) que no nos toque, nuestra ganancia(prdida) ser : -400 La probabilidad de no obtener premio, si llamamos PRi al suceso obtener premio con la papeleta i-sima es: P(PR1C PR2 C PR3 C PR4 C) Y esta probabilidad es igual a: P(PR1C) P(PR2 C/PR1C)P(PR3 C/PR2 CPR1C) P(PR4 C/PR3 CPR2 CPR1C) = 999/1000 998/999 997/998 996/997= 996/1000=0,996 La variable aleatoria X, ganancia obtenida, tendr la siguiente distribucin de probabilidad: X: -400 4.600 P(X=-400) = 0,996 P(X=4.600)= 0,004
La ganancia esperada (Esperanza matemtica) ser por tanto: E(X)= -400 x 0,996 + 4600 x 0,004 = -380 Esto se traduce en que si jugasemos indefinidamente a esta rifa comprando cuatro papeletas obtendramos una prdida media por jugada de 380 pesetas. NOTACIN: MOMENTOS. Definicin: Se define el momento no centrado de orden r de una variable aleatoria X y se nota por r como:
r = E(Xr)
Como caso particular, 1 = E(X1)= E(X)= esperanza matemtica de X Definicin: Se define el momento centrado o respecto al origen de orden r de una variable aleatoria X y se nota por r como:
r = E[(X-E(X))r]
Definicin: Se define el varianza de una variable aleatoria X, cuya esperanza es como: Var(X)2= E[(X-E(X))2]= E[(X-)2] Se observa que la varianza no es ms que un caso particular de momentos centrados, esto es, la varianza coincide con el momento centrado de orden 2: 2 = E[(X-E(X))2]= Var(X) )2 Si la variable es discreta, la varianza vale: Var(X)2= (xi -)2 P(X=xi)
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos
tienen propiedades de probabilidad (la pi), donde xi son los de que la variable
(Esta circunstancia es evidente en los dos ejemplos de introduccin ya que en el caso de la moneda n=2 y k=1/n=1/2 y en el caso del dado n=6 y k=1/n=1/6.) Caracterstica de las distribuciones uniformes discretas: Funcin de probabilidad(fX): La funcin de probabilidad de una distribucin uniforme discreta queda perfectamente determinada como:
i=1,2,,n
Funcin de Distribucin(FX): La funcin de distribucin en una variable aleatoria discreta, puede obtenerse por acumulacin de la funcin de probabilidad(recordemos que en el caso de variables aleatorias discretas F(x)=P(X<x)= P(X=xi)):xi<x Por tanto la Funcin de distribucin resultar ser:
F(x)=
Esta funcin es escalonada, y todos los saltos son de la misma cuanta (1/n). Esperanza matemtica(E(X)):
Caso particular 1: Cuando n=1, es decir cuando la variable asociada toma un nico valor, x1, la distribucin recibe el nombre de distribucin uniforme degenerada y la variable asociada, variable con distribucin uniforme degenerada:
fX(xi)= P(X= xi) = k =1/n E(X)= xi P(X=xi) = xi k = xi (1/n) = (1/n) xi = (1/n) (n+1)/2 n = (n+1)/2
1.2.2.2.- DISTRIBUCIN DE BERNOUILLI. Con frecuencia en experimentos aleatorios, nos interesa estudiar no ya el resultado concreto del experimento, sino solamente si ha ocurrido o no un cierto suceso. Por ejemplo, en una rifa como la del ejemplo 5, no nos interesa tanto el resultado de la rifa (nmero premiado) como el suceso obtener papeleta premiada (comprbamos cuatro papeletas). En este tipo de experimentos, se denomina xito al suceso en estudio (evidentemente obtener papeleta premiada ser un xito) y fracaso al suceso contrario, que en nuestro caso ser no obtener papeleta premiada. A este tipo de experimentos se le denomina experimento o prueba de Bernouilli. Llamemos xito al suceso A (en nuestro ejemplo obtener papeleta premiada) y fracaso a su contrario (complementario), Ac. Asociamos a dicho experimento una variable aleatoria X
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 10
Se observa que X solamente toma los valores 1(en caso de xito) o 0(en caso de fracaso):
Si X=0 Si X=1
En nuestro ejemplo 5(rifa) la probabilidad de que nos toque es p=0,004 y la de que no nos toque q = 0,996 =1- p= 1 0,004. Funcin de distribucin FX : la funcin de distribucin queda determinada : FX(x)=P(X<x)= 0 1-p 1 si x < 0 si 0 < x < 1 si x > 1
Esperanza Matemtica: E(X) = xi P(X=xi) = 0 (1-p) + 1 p = p Varianza :Var(X)2= E(X2) [E(X)] 2= 02 (1-p) + 12 p - p2 = p p2= p(1-p)= p q Un ejemplo sencillo de variable de Bernouilli es la que asigna el nmero de caras obtenidas al lanzar una moneda al aire una vez. El parmetro p, sera en este caso la probabilidad de obtener cara con dicha moneda. 1.2.2.3.- DISTRIBUCIN BINOMIAL. Supongamos, que se repite n veces el mismo experimento de Bernouilli y que en todos ellos la probabilidad de xito, p, es la misma. Diremos entonces que hemos realizado n tiradas de Bernouilli de parmetro p. Llamemos X a la variable que asocia el numero de xitos obtenidos en las n tiradas. Pues bien, a la distribucin que sigue dicha variable se le denomina Distribucin Binomial de parmetros n y p, B(n,p). El parmetro n indica el nmero de tiradas (que ser un nmero entero positivo) y el parmetro p, es la probabilidad de xito en cada prueba( 0<p<1). La variable asociada al experimento, X, as definida podr tomar los valores 0,1,2,..,n (nmero de xitos posibles en n tiradas). La probabilidad de obtener k xitos, es la probabilidad P((X=k). Uno de los sucesos con el que obtenemos k xitos es aquel en que obtenemos k xitos en las k primeras pruebas y fracaso en las n-k pruebas restantes: k n-k
AA.........AAc...................Ac
La probabilidad de este suceso (suponemos que las pruebas son independientes) es:
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 11
m,k
m k
m! k!(m k )!
= 13.983.816.
49 , 6
Todas las posibles reordenaciones de los n elementos tomados de k en k son sucesos con probabilidades iguales a pk (1-p)n-k Por tanto la funcin de probabilidad de una distribucin binomial de parmetros n y p es: Funcin de Probabilidad fX:
10 P ( X = k ) = 0,85 k 0,1510 k k
P(X>3)= 1 - P(X<3) = 1 P(X<2)= 1- FX(2) Funcin de distribucin FX : la funcin de distribucin queda determinada :
Varianza :
12
1.2.2.4.- DISTRIBUCIN DE POISSON (o de los sucesos raros). La Distribucin de Poisson se llama as en honor a Simen Dennis Poisson (1781-1840), francs que desarroll esta distribucin basndose en estudios efectuados en la ltima parte de su vida. La distribucin de Poisson se corresponde con la extensin de una distribucin Binomial La distribucin de Poisson se corresponde con una variable aleatoria discreta que indica el nmero de veces que aparece un determinado suceso A en un periodo de tiempo dado. El fenmeno aleatorio debe verificar las dos propiedades siguientes: i) Es un proceso sin memoria, anterioridad no afecta a que pueda o no ii) El proceso es estable, es decir, ha producido el suceso es constante por esto es el hecho de que el evento aparezca con producirse en instantes posteriores. a lo largo del tiempo el nmero medio de veces que se unidad de tiempo.
Algunos fenmenos aleatorios cuyo comportamiento probabilstico se ajusta a esta distribucin son, por citar los ms tpicos: el nmero de llamadas que llegan a una central telefnica en una hora, el nmero de coches que entran a repostar en una gasolinera (en un intervalo de tiempo), el nmero de personas que son atendidas en una ventanilla durante un da, el nmero de personas que llegan a la cola de una caja en un supermercado. De forma general esta distribucin simula aquellos experimentos en los que se genere un proceso de cola. A diferencia de las distribuciones estudiadas en apartados anteriores, una variable aleatoria de Poisson puede tomar una cantidad infinita de valores (aunque en cantidad numerable). Definicin: Una variable aleatoria se dice que tiene una distribucin de Poisson de parmetro , (>0) y lo representaremos por X~P() si su funcin puntual de probabilidad. es de la forma:
P( X = x ) = e x
x x!
para x = 0, 1, 2,...
El parmetro de los ejemplos anteriores representa el promedio de ocurrencias del suceso por el que estamos interesados (que llegue una llamada telefnica, que llegue un coche a la gasolinera, etc) La siguiente figura muestra la forma en que se distribuye la probabilidad en funcin de distintos valores de .
13
Probabilidad
Probabilidad
l=0,8
l=2,1
0,3 0,2 0,1 0 0 0,5 0,4 4 8 12 16 20
Variable
0,5 0,4
Variable
Probabilidad
Probabilidad
l=8,0
0,3 0,2 0,1 0 0 4 8 12 16 20
l=12
0,3 0,2 0,1 0 0 4 8 12 16 20
Variable
Variable
Caractersticas de los procesos que producen una distribucin de la probabilidad de Poisson. El nmero de vehculos que pasan por una caseta de cobro en las horas de mayor trfico sirve como ejemplo para mostrar las caractersticas de una distribucin de probabilidad de Poisson. El promedio (media) de llegadas de vehculos por hora de gran trfico puede estimarse a partir de los datos anteriores del trfico. Si dividimos las horas de gran trfico en periodos (intervalos) de un segundo cada uno, encontraremos que los siguientes enunciados son verdaderos: a) La probabilidad de que exactamente un vehculo llegue por segundo a una caseta individual es un nmero muy pequeo y es constante para que cada intervalo de un segundo. b) La probabilidad de que dos o ms vehculos lleguen en un intervalo de un segundo es tan reducida que podemos asignarle un valor cero. c) El nmero de vehculos que llegan en determinado intervalo de un segundo es independiente del momento en que el intervalo de un segundo ocurre durante la hora de gran trfico. d) El nmero de llegadas en cualquier intervalo de un segundo no depende del nmero de llegadas de cualquier otro intervalo de un segundo. Ahora bien, podemos generalizar partiendo de las cuatro condiciones que hemos descrito en este ejemplo, si estas condiciones se cumplen nos apoyaremos en una distribucin de probabilidad de Poisson para describirlos.
La variable aleatoria de Poisson se caracteriza por el hecho de que su valor medio y su varianza son iguales y adems estos valores coinciden con el parmetro de la distribucin, as, si X~P(): 1) E[X] = 2) Var(X) = .
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 14
Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, obtenindose como la distribucin lmite de una sucesin de variable binomiales, , donde ,y (por tanto ).
En general utilizaremos la distribucin de Poisson como aproximacin de experimentos binomiales donde el nmero de pruebas es muy alto, pero la probabilidad de xito muy baja. A veces se suele utilizar como criterio de aproximacin: Ejemplo Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya ms de 3 personas con dicha enfermedad. Calcular el nmero esperado de habitantes que la padecen. Solucin: Si consideramos la v.a. X que contabiliza el nmero de personas que padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien aproximado por un modelo de Poisson, de modo que
. Como
, existe una gran dispersin, y no sera extrao encontrar que en realidad hay muchas ms personas o menos que estn enfermas. La probabilidad de que haya ms de tres personas enfermas es:
15
Definicin 6.- Una variable aleatoria X diremos que es de tipo continuo, o simplemente continua, si su funcin de distribucin F es tal que i) F es una funcin siempre continua. ii) F es derivable (con derivada continua salvo, a lo sumo, en un nmero finito de puntos). 1.3.1.1.- FUNCIN DE DENSIDAD. Definicin 7.- Si X es una variable aleatoria de tipo continuo con funcin de distribucin F. La funcin de densidad (f.d.) de la variable aleatoria X es una aplicacin real de variable real tal que f(x) = F'(x).
Teorema de caracterizacin de las funciones de densidad. Sea f una funcin real de variable real continua salvo, a lo sumo, en un nmero finito de puntos y tal que: i) f ( x ) 0 x ii)
f (x )dx = 1
16
F( x ) =
f (u) du
Al igual que en el caso anterior en general la funcin que conoceremos es la funcin de densidad y a travs de ella podemos calcular las probabilidades que deseemos.
f(x) dx
a
Este resultado nos ayudar a dar una interpretacin geomtrica de probabilidad. As podemos afirmar que el rea que hay bajo la funcin de densidad de una variable aleatoria continua es la unidad y que la probabilidad de que una variable oscile entre dos puntos a y b se corresponde grficamente con el rea que hay bajo la funcin de densidad entre los puntos a y b. Por ltimo veremos una propiedad que cumple la variable aleatoria continua que hasta cierto punto es sorprendente. Teorema 8.- Si X es una variable aleatoria continua y x es un nmero real cualquiera P(X=x) = 0. Dem: Como la funcin de distribucin es continua la probabilidad de que la variable tome exactamente un valor determinado es cero. Por tanto en variable aleatoria continua no tiene sentido hablar de que la variable aleatoria tome exactamente un valor sino de que tome valores comprendidos entre dos puntos.
E( X ) =
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos
xf ( x)dx
17
Propiedades: i) ii) iii) La esperanza de una constante es la propia constante: Si la variable aleatoria X toma un nico valor k (X(w)=k w) entonces E(X) = k. La esperanza de la variable a X + b con a y b constantes es igual a: E(a X + b )= a E(X) + b. Si una variable aleatoria, tiene funcin de probabilidad o de densidad, simtrica respecto de un valor a, la esperanza, si existe, es dicho valor a.
1.3.4.- VARIANZA. Definicin: Se define el varianza de una variable aleatoria X, cuya esperanza es como: Var(X)2= E[(X-E(X))2]= E[(X-)2] Se observa que la varianza no es ms que un caso particular de momentos centrados, esto es, la varianza coincide con el momento centrado de orden 2: 2 = E[(X-E(X))2]= Var(X) )2 Para una variable aleatoria continua: Var(X)2=
( x ) 2 f ( x)dx
Alternativamente se puede calcular la varianza de una v.a continua como: Var(X)2= Propiedades de la varianza: i) ii) iii) iv) Var(X)2= E[(X-E(X))2]= E(X2) [E(X) ]2 = 22 La varianza vale 0 si y solo si X es una constante. Si b es una constante, entonces Var(X + b)= Var(X) Si a es una constante, entonces Var(a X)= a2 Var(X)
x 2 f ( x)dx 2
TIPIFICACION DE UNA VARIABLE. (Vlido para variables discretas y continuas) Definicin: Sea X una variable aleatoria de media y varianza 2. Se dice que la variable Z es la variable X tipificada si Z = X - Siendo la desviacin tipica de X(raiz cuadrada positiva de la varianza). Propiedades: i) ii) La variable tipificada tiene media 0: E(Z)=0 La variable tipificada tiene varianza 1: Var(Z)= 1
Ejercicio1: Los alumnos de la facultad suscriben un contrato con la cantina del centro para la celebracin de una fiesta pro-viaje de fin de carrera. En dicho contrato se estipula que los alumnos recibirn una cantidad fija de 100.000 pesetas, ms 50 pesetas por cada copa servida. El nmero de copas que se servirn puede representarse por una variable aleatoria de media 5.000 y desviacin tpica 500. Calcular la media y la desviacin tpica de los ingresos de los alumnos por la fiesta.
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 18
Solucin: Sea X la variable aleatoria nmero de copas que se servirn. E(X)= 5.000 y (X)= 500 Llamemos I a la variable aleatoria ingresos de los alumnos. Se tiene que: I = 100.000 + 50 X La media de I esperanza de I = E(I)=E(100.000 + 50 X). De donde E(I) = 100.000 + 50 E(X)= 100.000 + 50 5000 =350.000 La varianza de I Var(I) = 2(I)= 2 (100.000 + 50 X). De donde 2(I)= 2 (100.000 + 50 X)= 502 2 (X) Y por tanto (I)= 50 (X)= 50 500=25.000 Ejercicio 2: El comportamiento de una variable aleatoria, viene dado por la funcin de densidad; k(1-x) si o < x < 1 f(x)= 0 en cualquier otro caso Determinar: A) Funcin de distribucin B) Esperanza y varianza C) P(X> -2), P(0<X<0,5), P(0,5<X<1,5). Solucin: En primer lugar debemos determinar el valor de k. Para ello, aplicamos que f(x) dx = k(1-x) dx =1 [kx-kx/2]1= k/2 =1 k = 2 A) x (0,1) F(x) = 2(1-x) dx = 2(x x2/2) Y por tanto F(x) = B) E(X) = x 2(1-x) dx = 0,33 E(X2) = x2 2(1-x) dx = 0,167 2(X)= 0,167 0,332 = 0,0581 (X)= 0,241 0 2(x x2/2) 1 si x < 0 si 0 < x < 1 si x > 1
C) P(X> -2)= 1 P(X< -2) = 1 F(-2)= 1 P(0<X<0,5) = F(0,5) F(0) = 0,75 P(0,5<X<1,5) = F(1,5) F(0,5) = 1 0,75 = 0,25
19
1.3.2.- DISTRIBUCIONES CONTINUAS ESPECIALES. Este apartado est enteramente dedicado al estudio de las distribuciones continuas ms relevantes. Se trata de distribuciones tipo que proporcionan modelos de asignacin de probabilidades a diferentes fenmenos aleatorios continuos. La forma de asignar probabilidades vendr determinada por la funcin de densidad de la variable aleatoria. Cada tipo de distribucin tiene asociada una familia de funciones de densidad que depende de una o varias constantes que llamaremos parmetros. Dependiendo de los distintos valores que asociemos a estas constantes la funcin de densidad adoptar diferentes siluetas que se correspondern con las diferentes formas de asignacin de probabilidades. De esta manera una vez que se asocie a un determinado experimento aleatorio un modelo de probabilidad deberemos buscar el parmetro o parmetros que mejor definan el fenmeno que estemos estudiando. La asignacin de valores a estos parmetros vendr determinada lgicamente en funcin de la informacin que se disponga, esto es de las observaciones muestrales, y ser objeto de captulos posteriores (inferencia paramtrica). De entre las variables aleatorias que vamos a presentar en este tema debemos de destacar desde un principio a la distribucin Normal, que desde hace ms de dos siglos se ha convertido en la pieza angular de la estadstica. La importancia de esta distribucin y su repercusin en el campo de la inferencia estadstica hace necesario que dediquemos tambin un apartado especial a tres variables que surgen tericamente cuando se desarrolla esta parte de la estadstica y que son funciones de distribuciones de probabilidad normales. La forma de desarrollar cada uno de estos apartados es idntica a la que mantuvimos en el apartado anterior. Presentaremos la funcin de densidad, sus caracterstica ms importantes y aquellas propiedades que debamos destacar de cada una de las variables aleatorias. En la medida de lo posible se plantear un pequeo problema a modo de ejemplo.
1.3.2.1.- La distribucin Uniforme. Una variable aleatoria X diremos que sigue una distribucin uniforme continua si su funcin de densidad es constante en un intervalo finito (a,b) y nula fuera de l. Por tanto la distribucin uniforme, tendr como funcin de densidad: f(x) = 1/(b-a) si a<x<b y f(x)=0 en otro caso
Esta distribucin depende de dos parmetros a ,b y la designaremos como U(a,b) La funcin de densidad de esta v.a. tiene la siguiente representacin grfica:
Garca Crdoba Dpto. Mtodos Cuantitativos e Informticos 20
1/(b-a)
La distribucin uniforme, tambin llamada rectangular por el aspecto de su funcin de densidad, fue utilizada por primera vez por T.Bayes en 1763 y por P.S. De Laplace en 1.812. Segn la definicin de esta variable, cualquier eleccin de nmeros reales al azar y sin preferencias en un intervalo de longitud finita, es una variable aleatoria uniforme. Con frecuencia esta distribucin se asocia al comportamiento aleatorio de una magnitud de la que slo se conoce su campo de variacin (un intervalo finito). Cometiendo un pequeo abuso en el lenguaje, podemos decir que en una distribucin uniforme la probabilidad de todos los puntos es la misma (hay que observar que en principio esa afirmacin es cierta para cualquier v.a. continua, ya que para ellas la probabilidad de cualquier punto es nula. Sera ms preciso decir que la densidad de todos los puntos es constante en [a,b]). Ejemplo: El tiempo que una persona tarda en llegar de su casa al trabajo se distribuye uniformemente entre 10 y 20 minutos. Calcular la probabilidad de que tarde ms de 18 minutos y de que tarde menos de 14 minutos. Caractersticas: Esperanza matemtica: E[X] = (a+b)/2
21
TEMA 1: VARIABLES ALEATORIAS. DISTRIBUCIONES DE PROBABILIDAD. 1.3.2.2.- La distribucin Normal o de Gauss.Diremos que una variable aleatoria se ajusta a una ley normal o que sigue una distribucin de Gauss de parmetros y , si toma todos los valores reales con funcin de densidad:
f(x) =
1 1 ( x - )2 e 2 2 2
< x <
Esta distribucin continua, en su versin ms simple, fue introducida por primera vez por De Moivre en 1.733 como aproximacin de la distribucin binomial. Posteriormente, Laplace y Gauss la hallaron empricamente estudiando la distribucin de los errores de medicin, y tras sus trabajos se convirti en la distribucin ms utilizada en las distintas aplicaciones (de ah su nombre). Por ejemplo, supongamos que una mquina corta piezas de una determinada longitud, lgicamente las piezas cortadas tienen la misma longitud solamente en promedio, ya que la mayora presentan errores, son un poco ms grandes o un poco ms pequeas. Se observ que los errores en este tipo de situaciones presentaban una distribucin simtrica, que originalmente recibi el nombre de curva normal de errores. El estudio por parte de K. Gauss (1.777-1.855) de la Teora de los errores le lleva al estudio de la distribucin de probabilidad de errores, con lo que llega a la distribucin Normal, hasta entonces obtenida como aproximacin de otras distribuciones. Junto con el mtodo de mnimos cuadrados, el estudio de la distribucin normal fue la principal aportacin de Gauss al Clculo de Probabilidades.
22
El campo de variacin de la distribucin Normal es toda la recta real (es decir, la variable toma todos los valores posibles, ya sean negativos o positivos), de tal modo que la mayor parte de la masa de probabilidad (rea comprendida entre la curva y el eje de abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se extienden asintticamente a los ejes, y por tanto, cualquier valor "muy alejado" de la media es posible (aunque poco probable). Observaciones sobre la curva Normal: A) Los parmetros y determinan la forma de la campana de Gauss (ver grfico), el parmetro , que coincide con el valor mximo de la funcin, desplaza la funcin hacia la derecha o izquierda del eje de abcisas. Por otro lado el parmetro da forma a la funcin haciendo sta ms o menos apuntada: Para pequeos valores de la curva se hace ms puntiaguda, concentrando entorno a la media la mayor parte de la probabilidad, por el contrario, para valores de elevados la funcin se abre concentrando menos la probabilidad entorno a la media. B) La funcin es simtrica respecto del parmetro , es decir: f(+x) = f(-x) Por tanto la mediana de esta distribucin es x = . C) La curva Normal tiene un comportamiento asinttico conforme nos alejamos de su valor mximo, sin tomar nunca el valor cero. D) La funcin tiene dos puntos de inflexin en x = + y en x = -. E) La funcin de densidad de la distribucin Normal alcanza su valor mximo cuando x = y por tanto la moda es x = .
Garca Crdoba
23
La funcin
ex
Desde el punto de vista prctico las consecuencias son importantes, aunque esto no impide que podamos trabajar fcilmente con esta distribucin.
F(x)=P(Xx)
puede ser calculado con tanta precisin como se quiera, pero para esto se necesita usar tcnicas de clculo numrico y ordenadores. Para la utilizar en problemas prcticos la funcin de distribucin F, existen ciertas tablas donde se ofrecen (con varios decimales de precisin) los valores F(x) para una serie limitada de valores x dados. Es decir, si tenemos una distribucin N(5,2) y deseamos calcular la probabilidad de que la variable est comprendida entre 2 y 8 deberamos de calcular:
P(2<<8) =
1 1 ( x - )2 dx e 2 2 2
Con el fin de solucionar este problema, la integral ha sido tabulada (es decir se calculan sus valores mediante procedimientos numricos aproximados), proporcionando un mtodo rpido y sencillo de obtener las diferentes probabilidades asociadas a la distribucin. Propiedades: El siguiente resultado proporciona un mtodo para el clculo de estas probabilidades: Propiedad 1.- Si es una v.a. con distribucin N(,), entonces Y=a+b es una distribucin Normal de parmetros N(a+b,|a|). Dem: la podemos hacer mediante la funcin de distribucin. Este resultado lo podemos aplicar a cualquier distribucin Normal con el fin de transformarla en una distribucin Normal N(0,1), concretamente:
Garca Crdoba
24
Propiedad 2.- Sea un v.a. con distribucin N(,), Entonces la v.a. Y=(-)/ es una v.a. Normal de parmetros 0 y 1, N(0,1). Dem: Como consecuencia del anterior resultado ms general. El proceso mediante el cual se transforma una v.a. Normal de parmetros cualesquiera en una Normal N(0,1) se llama tipificar la variable y a la N(0,1) se le llama distribucin Normal tipificada o estndar. De la distribucin Normal tipificada tenemos tabulada su funcin de distribucin, y a partir de ella podemos obtener las probabilidades de una distribucin Normal cualquiera. As, cuando debamos calcular una probabilidad asociada a la distribucin Normal deberemos primero realizar el cambio de variable correspondiente con el fin de tipificar la variable para poder hacer uso de estas tablas. Ejemplo: =N(5,2) calcular P(2<<8)
F(x)
En la tabla de la funcin de distribucin de la N(0,1) no aparecen valores negativos de "x" ya que pueden obtenerse las probabilidades correspondientes haciendo uso de la simetra de la Distribucin. Propiedad 3.- Si XN(0,1) resulta: a) P(X < x) = 1 P(X > x) (por suceso complementario) b) P(X < x)=1P(X < x) (por la simetra de la distribucin) Al igual que en otras ocasiones vamos a calcular la distribucin de la suma de dos v.a. Normales independientes Propiedad 4.- Sea Xi una distribucin Normal de parmetros N(i;i) con i = 1, 2 independientes. Entonces a) X1 + X2 N(1 + 2; b) X1 + X2 N(1 - 2;
1 + 2 1 + 2
2 2
) )
Garca Crdoba
25
B(n,p) N(np,npq)
El convenio que se suele utilizar para poder realizar esta aproximacin es:
aunque en realidad esto no da resultados muy precisos a menos que realmente n sea un valor muy grande o p, q prximos a 1/2. 1.3.2.3.- Distribuciones relacionadas con la Normal. Las distribuciones que vamos a estudiar en este apartado no son distribuciones construidas con el objeto de modelar probabilsticamente ciertos procesos naturales como las que hemos presentado anteriormente. Las distribuciones relacionadas con la distribucin Normal, son variables aleatorias que surgen tericamente como resultado del proceso de inferencia estadstica. Uno de los objetivos que persigue la Estadstica es el de poder predecir (inferenciar) los parmetros (inferencia paramtrica) que determinan las distribuciones que modelan los experimentos aleatorios. 1.3.2.3.1.- La distribucin 2 (Chi-cuadrado) de Pearson. Esta distribucin surge cuando se desea conocer la distribucin de la suma de los cuadrados de variables independientes e igualmente distribuidas con distribucin Normal. Definicin.- Sean X1, X2, ... , Xn , n v.a. independientes e igualmente distribuidas con N(0,1). Entonces X12 + X22 + . . . + Xn2 sigue una distribucin 2 con n grados de libertad. A esta v.a. la denotaremos n2. La funcin de densidad de esta v.a. carece para nosotros de inters y no la daremos en este volumen. Esta distribucin, que por razones lgicas toma slo valores positivos o cero, tiene un nico parmetro que se corresponde con el nmero de v.a. normales que sumamos. Para calcular probabilidades asociadas a esta distribucin operaremos mediante una tabla de forma semejante a lo que hacamos con la distribucin Normal. Caractersticas: Esperanza matemtica: E[X] = n Varianza: Var(X) = 2n Propiedades: Propiedad 1.- Si X sigue una distribucin n2 y Y sigue una distribucin m2 y son independientes, entonces X+Y sigue una distribucin n+m2.
Garca Crdoba
26
Propiedad 2.- Si
Xi N(i; i)
X i - i i i=1
n
1.3.2.3.2.- La distribucin t de Student. Definicin. Sean X y Xi con i = 1,..., n v.a. independientes e igualmente distribuidas con distribucin N(0,1). Entonces la v.a.
t=
X
2 X1
X2 2
+ . . . + X2 n n
sigue una distribucin t de Student con n grados de libertad. Como la suma de normales es una distribucin 2 podramos definir la distribucin t de Student de forma alternativa como el cociente de una N(0,1) entre la raz cuadrada de una chi-cuadrado entre sus grados de libertad. El origen de esta distribucin se encuentra el la estimacin de esperanzas de distribuciones normales cuando su desviacin tpica es desconocida. W.S. Gosset(1.8761.937) por seudnimo Student, un industrial cervecero, la propuso y tabul en 1.908. La funcin de densidad de esta v.a. tiene un perfil totalmente semejante al de la distribucin Normal N(0,1) y podemos aplicarle las mismas propiedades de simetra que tena la N(0,1). Caractersticas: Esperanza matemtica: E[X] = 0 (si n>1) Varianza: Var(X) = n/(n-2) ( si n>2, para n=1,2 no existe) 1.3.2.3.3.- La distribucin F de Snedecor. Definicin.- Sean X e Y v.a. independientes con distribucin 2 de n y m grados de libertad, respectivamente. La v.a.
X U= n Y m
se dice que sigue una distribucin F de Snedecor con n grados de libertad en el numerador y m grados de libertad en el denominador. A esta v.a. que depende de dos parmetros n y m la denotaremos habitualmente como Fn,m. Al igual que ocurre con las otras variables que estamos presentando en este apartado, la funcin de distribucin de la F de Snedecor est tabulada.
Garca Crdoba
27
**Garca Crdoba, Palacios Snchez, Ruiz Marn: Probabilidad e Inferencia Estadstica: Una Introduccin. Ed. Horacio Escarabajal. Barbancho, A.G.: "Estadstica Terica Bsica. Probabilidad y Modelos Probabilsticos" Ed: Ariel. Dur Peir: "Fundamentos de Estadstica" Ed: Ariel Escuder, R. "Introduccin a la Teora de la Probabilidad" Ed: tirant to blanch economa. Evans J.R y Olson D.L. Statistics, Data anlisis and decisin modeling Prentice Hall. Fernndez Abascal: "Clculo de Probabilidades y Estadstica" Ed: Ariel. Gutirrez Jamez R. y otros.: "Curso Bsico de Probabilidad" Ed: Pirmide. Llopis Perez J. "La estadstica: una orquesta hecha instrumento" Ed: Ariel Ciencia. Martn Pliego F.J. Montero Lorenzo J.M. Riuz-Maya Prez L. "Problemas de Probabilidad" Ed: AC. Martn Pliego, Ruiz Maya: "Estadstica: I Probabilidad . II Inferencia Estadstica" Ed: AC. **Newbold P. "Estadstica para los Negocios y la Economa" Ed: Prentice Hall **Novales A., Estadstica y Econometra Ed: Mc Graw Hill. Problemas: Fernndez Abascal, Guijarro Rojo: "Ejercicios de Clculo de Probabilidades" Ed: Ariel. Martn Pliego F.J. y otros: Problemas de Probabilidad Murgui, J.S. "Estadstica para la Economa y Administracin de Empresas" Ed: Purchades. Ruiz Maya: "Problemas de Estadstica" Ed:AC Sarabia Alegra J.M. : "Curso Prctico de Estadstica" Ed: Cvitas. Serret Moreno-Gil J.: "Manual de Estadstica Universitaria" Ed. ESIC. Tussel F. Garn A: "Problemas de Probabilidad e Inferencia Estadstica" Ed:Tebar Flores. ** Palacios Gonzlez y otros. Ejercicios resueltos de inferencia estadstica. Delta
** Sierra, Miguel ngel. Ejercicios resueltos de estadstica. Ed. Ceura
Para saber ms o comprobar dudas: http://www.ematematicas.net/estadistica/aleatoria/index.php http://www.uam.es/personal_pdi/ciencias/mayter/docencia/sociolog/tema3.pdf http://www.eumed.net/libros/2006a/rmss/a7.htm http://delta.cs.cinvestav.mx/~francisco/prob2006/v_aleatoria.pdf http://e-stadistica.bio.ucm.es/cont_mod_1.html#modelos%20de%20probabilidad http://www.est.uc3m.es/esp/nueva_docencia/getafe/gestion_administracion_public a/estadistica_I/doc_generica/archivos/TEMA%209-VARIABLES%20ALEATORIAS.doc http://www.nebrija.es/~ralvarez/textos/ESTADISTICA/variablealeatoriaa.pdf
Garca Crdoba
28