You are on page 1of 6

Teora de la probabilidad

La teora de la probabilidad es una rama de


las matemticas que estudia los fenmenos
aleatorios y estocsticos. Los fenmenos
aleatorios se contraponen a los fenmenos
deterministas, los cuales son resultados nicos
y/o previsibles de experimentos realizados bajo
las mismas condiciones determinadas, por
ejemplo, si se calienta agua a 100 C a nivel
del mar se obtendr vapor. Los fenmenos
aleatorios, por el contrario, son aquellos que se
obtienen como resultado de experimentos
realizados, otra vez, bajo las mismas
condiciones determinadas pero como resultado
posible poseen un conjunto de alternativas, por
ejemplo, el lanzamiento de un dado o de una
moneda.
La teora de probabilidades se ocupa de
asignar un cierto nmero a cada posible
resultado que pueda ocurrir en un experimento
aleatorio, con el fin de cuantificar dichos
resultados y saber si un suceso es ms
probable que otro.
Muchos fenmenos naturales son aleatorios,
pero existen algunos como el lanzamiento de
un dado, donde el fenmeno no se repite en
las mismas condiciones, debido a que las
caractersticas del material hace que no exista
una simetra del mismo, as las repeticiones no
garantizan una probabilidad definida. En los
procesos reales que se modelizan mediante
distribuciones de probabilidad corresponden a
modelos complejos donde no se conocen a
priori todos los parmetros que intervienen;
sta es una de las razones por las cuales la
estadstica, que busca determinar estos
parmetros, no se reduce inmediatamente a la
teora de la probabilidad en s.
La teora de la probabilidad se desarroll
originalmente a partir de ciertos problemas
planteados en el contexto de juegos de azar.
Inicialmente, no exista una teora axiomtica
bien definida y las definiciones iniciales de
probabilidad se basaron en la idea intuitiva de
un cociente de ocurrencias:
Donde A es un suceso cualquiera y:
Es el nmero de veces que se ha repetido una
accin u observacin cuyo resultado puede dar
el suceso A o no-A.
Es el nmero de veces que observa A en todas
las observaciones.

Este tipo de definiciones si bien permitieron


desarrollar un gran nmero de propiedades, no
permitan deducir todos los teoremas y
resultados importantes que hoy forman parte
de la teora de la probabilidad. De hecho el
resultado anterior se puede demostrar
rigurosamente dentro del enfoque axiomtico
de la teora de la probabilidad, bajo ciertas
condiciones.
La primera axiomatizacin completa se debi a
Andri Kolmogrov (quien us dicho enfoque
por ejemplo para deducir su "ley 0-1 para
sucesos cola" y otros resultados relacionados
con la convergencia de sucesiones aleatorias).
La definicin axiomtica de la probabilidad se
basa en resultados de la teora de la medida y
en
formalizaciones
de
la
idea
de
independencia probabilstica. En este enfoque
se parte de un espacio de medida normalizada
donde es un conjunto llamado espacio de
sucesos (segn el tipo de problema puede ser
un conjunto finito, numerable o no-numerable),
es una -lgebra de subconjuntos de y es una
medida normalizada (es decir, ). Los sucesos
posibles se consideran como subconjuntos S
de eventos elementales posibles: y la
probabilidad de que cada suceso viene dada
por la medida de dicho conjunto:
,
La interpretacin de esta probabilidad es la
frecuencia promedio con la que aparece dicho
suceso si se considera una eleccin de
muestras aleatorias sobre .
La definicin anterior es complicada de
representar matemticamente ya que debiera
ser infinito. Otra manera de definir la
probabilidad es de forma axiomtica esto
estableciendo las relaciones o propiedades
que existen entre los conceptos y operaciones
que la componen.
Distribucin de probabilidad

La distribucin Normal suele conocerse como


la "campana de Gauss".
En teora de la probabilidad y estadstica, la
distribucin de probabilidad de una variable
aleatoria es una funcin que asigna a cada
suceso definido sobre la variable aleatoria la
probabilidad de que dicho suceso ocurra. La
distribucin de probabilidad est definida sobre
el conjunto de todos los sucesos, cada uno de
los sucesos es el rango de valores de la
variable aleatoria.
La
distribucin
de
probabilidad
est
completamente especificada por la funcin de
distribucin, cuyo valor en cada x real es la
probabilidad de que la variable aleatoria sea
menor o igual que x.

Para dos nmeros reales cualesquiera y tal


que , los sucesos y son mutuamente
excluyentes y su unin es el suceso , por lo
que tenemos entonces quey finalmentE

Dada una variable aleatoria , su funcin de


distribucin, , es

Distribuciones de variable discreta

Por lo tanto una vez conocida la funcin de


distribucin para todos los valores de la
variable aleatoria conoceremos completamente
la distribucin de probabilidad de la variable.
Para realizar clculos es ms cmodo conocer
la distribucin de probabilidad, y sin embargo
para ver una representacin grfica de la
probabilidad es ms prctico el uso de la
funcin de densidad.

Por simplicidad, cuando no hay lugar a


confusin, suele omitirse el subndice y se
escribe, simplemente, . Donde en la frmula
anterior:
, es la probabilidad definida sobre un
espacio de probabilidad y una medida
unitaria sobre el espacio muestral.
es la medida sobre la -lgebra de
conjuntos asociada al espacio de
probabilidad.
es el espacio muestral, o conjunto de
todos los posibles sucesos aleatorios,
sobre el que se define el espacio de
probabilidad en cuestin.
es la variable aleatoria en cuestin, es
decir, una funcin definida sobre el
espacio muestral a los nmeros reales.
Propiedades
Como consecuencia casi inmediata de la
definicin, la funcin de distribucin:

Es una funcin continua por la derecha.


Es
una
funcin
montona
no
decreciente.

Adems, cumple

Grfica de distribucin binomial.


Se denomina distribucin de variable discreta a
aquella cuya funcin de probabilidad slo toma
valores positivos en un conjunto de valores de
finito o infinito numerable. A dicha funcin se le
llama funcin de masa de probabilidad. En
este caso la distribucin de probabilidad es la
suma de la funcin de masa, por lo que
tenemos entonces que:
Y, tal como corresponde a la definicin de
distribucin de probabilidad, esta expresin
representa la suma de todas las probabilidades
desde hasta el valor .
Distribucin normal o Curva Normal
Una distribucin normal de media y
desviacin tpica se designa por N(, ).
Su grfica es la campana de Gauss:

1. En cada prueba del experimento slo son


posibles dos resultados: el suceso A (xito) y
El rea del recinto determinado por la funcin
y el eje de abscisas es igual a la unidad.
Al ser simtrica respecto al eje que pasa por x
= , deja un rea igual a 0.5 a la izquierda y
otra igual a 0.5 a la derecha.
La probabilidad equivale al rea encerrada
bajo la curva.
Distribucin normal estndar
N(0, 1)
La distribucin normal estndar, o tipificada
o reducida, es aquella que tiene por media el
valor cero, =0, y por desviacin tpica la
unidad, =1.

su contrario

2. La probabilidad del suceso A es


constante, es decir, que no vara de una
prueba a otra. Se representa por p.
3. El resultado obtenido en cada prueba es
independiente de los resultados obtenidos
anteriormente.
La distribucin binomial se suele representar
por B(n, p).
n es el nmero de pruebas de que consta el
experimento.
p es la probabilidad de xito.
La probabilidad de
representamos por q.

es

p,

la

Variable aleatoria binomial

La probabilidad de la variable X depender


del rea del recinto sombreado en la figura.
Y para calcularla utilizaremos una tabla.
Tipificacin de la variable
Para poder utilizar la tabla tenemos que
transformar la variable X que sigue una
distribucin N(, ) en otra variable Z que siga
una distribucin N(0, 1).

Distribucin binomial o de Bernoulli

La variable aleatoria binomial, X, expresa el


nmero de xitos obtenidos en cada prueba
del experimento.
La variable binomial es una variable
aleatoria discreta, slo puede tomar los
valores 0, 1, 2, 3, 4, ..., n suponiendo que se
han realizado n pruebas.
Ejemplo:
k = 6, al lanzar una moneda 10 veces y
obtener 6 caras.
La funcin de probabilidad de la
distribucin binomial, tambin denominada
funcin de la distribucin de Bernoulli, es:

Un experimento sigue el modelo de la


distribucin binomial o de Bernoulli si:

n es el nmero de pruebas.

k es el nmero de xitos.

los estudios de fiabilidad/supervivencia y los


seguros.

p es la probabilidad de xito.
q es la probabilidad de fracaso.

El nmero combinatorio
Ejemplos

Una variable sigue una distribucin de Poisson


si se cumplen las siguientes condiciones:
Los datos son conteos de eventos
(enteros no negativos, sin lmite
superior).
Todos los eventos son independientes.
La tasa promedio no cambia durante el
perodo de inters.

La ltima novela de un autor ha tenido un gran


xito, hasta el punto de que el 80% de los
lectores ya la han leido. Un grupo de 4 amigos
son aficionados a la lectura:
1Cul es la probabilidad de que el grupo
hayan leido la novela 2 personas?
n=4

Lambda = 3

p = 0.8
q = 0.2
B(4, 0.8)

Qu es una distribucin de Poisson?


La distribucin de Poisson es definida por un
parmetro: lambda (). Este parmetro es igual
a la media y la varianza. A medida que lambda
aumenta, la distribucin de Poisson se acerca
a una distribucin normal.
Utilice la distribucin de Poisson para describir
el nmero de veces que un evento ocurre en
un espacio finito de observacin. Por ejemplo,
una distribucin de Poisson puede describir el
nmero de defectos en el sistema mecnico de
un avin o el nmero de llamadas a un centro
de llamadas. La distribucin de Poisson se
utiliza con frecuencia en el control de calidad,

Lambda = 10
Qu es la tasa de ocurrencia?
La tasa de ocurrencia es igual a la media ()
dividida entre la dimensin del espacio de
observacin. Es til para comparar conteos de
Poisson recolectados en diferentes espacios
de observacin. Por ejemplo, la central
telefnica A recibe 50 llamadas telefnicas en
5 horas y la central telefnica B recibe 80
llamadas en 10 horas. Usted no puede
comparar directamente estos valores, porque
sus espacios de observacin son diferentes.
Debe calcular la tasa de ocurrencia para
comparar estos conteos. La tasa de la central
telefnica A es (50 llamadas / 5 horas) = 10
llamadas/hora. La tasa de la central telefnica
B es (80 llamadas / 10 horas) = 8
llamadas/hora.

Diferencias entre la distribucin de Poisson y la


distribucin binomial
La distribucin de Poisson es similar a la
distribucin binomial porque ambas modelan
conteos de eventos. Sin embargo, dentro de su
espacio de observacin finito, la distribucin de
Poisson no establece un lmite superior a este
conteo: una central telefnica podra recibir un
nmero infinito de llamadas en un da y no
violar los requisitos de la distribucin de
Poisson. En cambio, la distribucin binomial
establece un lmite superior en el conteo: el
nmero de eventos que usted observa no
puede exceder el nmero de ensayos que
realiza.
Si consideramos que:
1.

2.
3.
4.
5.

La esperanza de ocurrencia de un
evento en un intervalo es la misma que la
esperanza de ocurrencia del evento en
otro intervalo cualesquiera, sin importar
donde empiece el intervalo
Que las ocurrencias de los eventos son
independientes, sin importar donde
ocurran
Que la probabilidad de que ocurra un
evento en un intervalo de tiempo depende
de la longitud del intervalo
Que las condiciones del experimento no
varan, y
Que nos interesa analizar el nmero
promedio de ocurrencias en el intervalo

entonces se puede afirmar, que la variable


aleatoria mencionada en los fenmenos
descritos es una variable de Poisson.
Caractersticas
Poisson

de

la

Distribucin

de

Un modelo de probabilidad de Poisson


tiene las siguientes caractersticas:
1. El espacio muestral se genera por un
nmero muy grande (puede considerarse
infinito) de repeticiones de un experimento
cuyo modelo de probabilidad es el de

Bernoulli, con probabilidad de xito muy


pequea. Por esta razn, a la distribucin
de Poisson suele llamrsele de eventos
raros. Las repeticiones del experimento de
Bernoulli se realizan en cada uno de los
puntos de un intervalo de tiempo o
espacio.
2. El nmero de xitos en el intervalo li es
ajeno al nmero de xitos en el intervalo lk,
por lo que li lk =
3. La probabilidad de que se tengan dos o
ms xitos en el mismo punto del intervalo
es cero.
4. El nmero promedio de xitos en un
intervalo es una constante , que no
cambia de intervalo a intervalo.
Para aclarar el significado de estos 4
postulados, se presenta el siguiente ejemplo.
Ejemplo 5. 16. Anteriormente se mencion el
nmero de accidentes diarios en un cruce de
calles como un caso de fenmeno en el que
los eventos ocurren en intervalos continuos de
tiempo, donde slo importa la ocurrencia del
fenmeno, y de acuerdo a sus caractersticas
puede decirse que la variable aleatoria del
nmero
de
accidentes
diarios
puede
representarse por un modelo de Poisson. En
seguida analizamos lo razonable de los 4
postulados anteriores en esta situacin:
1. Si consideramos un lapso, tan pequeo
como se quiera, pero que para propsitos
prcticos puede ser un segundo y
tomamos como xito que ocurra un
accidente en ese lapso, tenemos que en el
intervalo de tiempo de un da hay 86,400
segundos, o sean 86,400 repeticiones de
un experimento de Bernoulli. Es obvio que
la probabilidad de xito en cada repeticin
es muy pequea.
2. Aqu, cada intervalo li puede ser un da,
por lo que es lgico suponer que el nmero
de accidentes en un da es independiente
del nmero de accidentes en otro da
cualquiera

intervalos. En el caso del modelo de


Poisson se dice que no existe contagio.

, lo
cual no ocurre, por ejemplo, con el nmero
de personas que adoptan una moda en un
da determinado, ya que una moda tiene
una etapa creciente, un apogeo y una
etapa decreciente. En estas ltimas
condiciones, se dice que existe contagio y
el modelo de probabilidad no puede
suponer
independencia
entre
los

3. Puesto que una repeticin del experimento


de Bernoulli ocurre cada segundo, es
razonable suponer que no pueden ocurrir
dos accidentes en el mismo segundo.
4. Mientras las condiciones de vialidad no
cambien en el crucero de calles, es
aceptable el supuesto de que el nmero
promedio de accidentes por da, al que
representaremos por , permanece
constante.

You might also like