You are on page 1of 0

1

APUNTES DE PROBABILIDAD Y ESTADSTICA INDICE TEMTICO


A. L. Dini 2003
APUNTES DE PROBABILIDAD Y ESTADSTICA INDICE TEMTICO..................................................1
LGEBRA COMBINATORIA............................................................................................................................3
Problemas fundamentales del lgebra combinatoria........................................................................................3
PERMUTACIONES...........................................................................................................................................3
COMBINACIONES...........................................................................................................................................3
Permutaciones con repeticin .........................................................................................................................4
VARIACIONES.................................................................................................................................................4
Ejemplos.........................................................................................................................................................4
POTENCIAS DE UN BINOMIO GENERALIZACIN DE NEWTON..........................................................5
Ejemplos.........................................................................................................................................................5
PROBABILIDAD Y ESTADSTICA PRIMERA PARTE...............................................................................6
INTRODUCCIN....................................................................................................................................................6
El azar............................................................................................................................................................6
La Estadstica y la Probabilidad .....................................................................................................................6
Frecuencia y probabilidad matemtica. La ley de los grandes nmeros. El esquema de la urna ...................6
Acotacin del factor de azar............................................................................................................................7
Procesos con azar inherente............................................................................................................................7
El azar estadstico...........................................................................................................................................8
Trgicos ejemplos ...........................................................................................................................................8
DATOS Y ESTADSTICA.........................................................................................................................................8
PRESENTACIN DE LOS DATOS TABLAS - HISTOGRAMAS ....................................................................................9
DISTRIBUCIONES CONTINUAS.............................................................................................................................10
MEDIAS Y OTROS PARMETROS DE POSICIN ......................................................................................................11
Mediana, cuartilos, percentiles y moda..........................................................................................................12
MOMENTOS DE UNA DISTRIBUCIN.....................................................................................................................12
Momentos de orden par y dispersin .............................................................................................................13
Momentos de grado superior al segundo .......................................................................................................13
Momentos de grado impar ......................................................................................................................................... 13
Momentos de grado par ......................................................................................................................................... 14
VOLVIENDO A LAS PROBABILIDADES ..................................................................................................................14
Extensin de la nocin de probabilidad .........................................................................................................15
El problema de la aguja (o del alfiler)......................................................................................................................... 15
PROBABILIDAD SIMPLE Y COMPUESTA................................................................................................................15
Probabilidades y diagramas lgicos..............................................................................................................16
Teorema de la probabilidad compuesta condicional ......................................................................................16
Demostracin general:............................................................................................................................................... 17
Teorema de Bayes (sobre la probabilidad de las causas) ...............................................................................17
Ejemplo: ................................................................................................................................................................... 18
Clculo: .................................................................................................................................................................... 18
Pruebas repetidas La distribucin binomial ................................................................................................19
Media, varianza y asimetra de la distribucin binomial .............................................................................................. 19
Clculo de M
3
para la distribucin binomial ........................................................................................................... 20
Asimetra de la distribucin binomial..................................................................................................................... 20
La distribucin de Poisson ............................................................................................................................21
Ejemplo N1.............................................................................................................................................................. 21
Ejemplo N2.............................................................................................................................................................. 21
La distribucin normal de Gauss...................................................................................................................22
Teorema de Bernouilli ............................................................................................................................................... 22
Teora de errores ....................................................................................................................................................... 24
Ejemplo: ............................................................................................................................................................... 24
Poblaciones y muestras.................................................................................................................................25
Media de medias de las muestras ........................................................................................................................... 26
Desvo standard de la media de las muestras .......................................................................................................... 26
Media y varianza de una suma de variables aleatorias independientes.......................................................................... 27
2
Ejemplo: ............................................................................................................................................................... 27
Covarianza:........................................................................................................................................................... 27
Varianza de una resta de variables independientes .................................................................................................. 28
Varianza de una muestra............................................................................................................................................ 28
3
LGEBRA COMBINATORIA
Se llama lgebra combinatoria a la parte de esta materia que estudia las posibilidades de ordenamiento y agrupa-
cin de series o colecciones de objetos. Esas posibilidades de formar grupos de objetos diferentes, iguales, similares
o repetidos son nmeros que aparecen en diversos problemas matemticos, como series de potencias, probabilidades
y estadstica.
Problemas fundamentales del lgebra combinatoria
Como coleccin tpica de objetos tomemos n bolillas numeradas del 1 a n
Enunciaremos algunos los problemas que pueden plantearse:
1) De cuntas maneras diferentes se pueden ordenar esas bolillas? - o lo que es equivalente - Cuantas series de
nmeros diferentes se podrn obtener en sucesivas operaciones de sacar de a una las bolillas hasta vaciar el bo-
lillero?
2) De cuntas maneras diferentes se pueden obtener primero m bolillas, en cualquier orden, y luego las restantes
(n-m) bolillas, tambin en cualquier orden?
3) De cuntas maneras diferentes se pueden obtener a partir de n bolillas, grupos de m bolillas diferentes entre s
considerando diferentes dos grupos con las mismas bolillas pero en diferente orden.
PERMUTACIONES
Para contestar la pregunta N1, dibujemos todas las bolillas en fila, en un orden
determinado. Supongamos que la coleccin total es de n=10 bolillas.
Adems de la disposicin de la figura (en orden numrico) Cuntas otras
maneras hay de formar la fila de bolillas?.
Razonemos con una fila de 2 bolillas: por ejemplo la 9 y la 10. Hay dos posi-
bilidades de formarla: 9,10 10,9
Cuando ponemos en juego una tercera bolilla, por ejemplo la N8, sta puede ir
adelante, en medio o detrs de cada uno de las dos disposiciones anteriores.
Son tres posibilidades para cada disposicin. Esto produce 3x2=6 posibilida-
des:
8,9,10 9,8,10 9,10,8 8,10,9 10,8,9 10,9,8
A cada uno de estos grupos de tres se les puede intercalar una cuarta bolilla al principio, entre la primera y segunda,
entre segunda y tercera y despus de la tercera. En total 4 posibilidades para cada uno de las 3x2=6 disposiciones
anteriores, o sea 4x3x2 = 24 posibilidades para una fila de cuatro bolillas.
En general, un conjunto de n elementos puede presentarse ordenado en n.(n-1).(n-2).(n-3)...2 disposiciones dife-
rentes. A estas disposiciones se las llama permutaciones de n objetos Pn y su nmero es igual a la expresin ante-
rior, llamada factorial del nmero n, expresndose por n!
Para las 10 bolillas anteriores, el nmero de disposiciones diferentes en el orden (nmero de permutaciones posi-
bles) vale P
10
=10! = 10x9x8x7x6x5x4x3x2x1 = 3628800
El concepto de factorial se generaliza para 1!=1 y para 0!=1 , para obtener unidad formal en las sucesivas operacio-
nes en las que intervengan.
COMBINACIONES
Se plantea en la pregunta 2 cuntas maneras diferentes hay de sacar una serie de m bolillas primero y luego las
restantes (n-m) sin importar el orden en cada grupo. A cada una de estas series sacadas con el mencionado criterio
se la llama arreglo, complexin (segn Boltzmann) o ms comnmente combinacin de n elementos tomados de a
m. Se considerarn dos combinaciones diferentes slo si en ambos grupos de m y n-m bolillas respectivamente hay
bolillas diferentes. Por ejemplo para n=10 y m=3, una combinacin posible sera (1,2,3)(4,5,6,7,8,9,10). No se con-
sidera diferente la (2,3,1)(10,8,9,6,7,5,4) , que slo difiere de la primera en el orden. En cambio s se contara como
diferente la (4,3,1)(10,8,9,6,7,5,2)
El nmero de arreglos posibles o combinaciones de n elementos tomados en grupos de m, est definido lgica-
mente slo para n>m, y se expresa con el smbolo C
n,m
1
2
3
4
5
6
7
8
9
10
4
Se ve que cumplen con la condicin pedida un nmero menor que el de todas las series diferentes posibles o per-
mutaciones de n elementos, que como se ha dicho vale P
n
= n!=10!. Dentro del grupo de las m bolillas, atender al
orden o numeracin crea m! (3!=6) casos diferentes, y dentro de las (n-m) restantes se crean debido a la numeracin
(n-m)! (7!) casos diferentes, que multiplican ambos a las combinaciones buscadas, para dar todas las posibles per-
mutaciones n!, es decir que C
n,m
.m!.(n-m)! = Pn, de donde Cn,m = n!/m!/(n-m)!
El nmero combinatorio de n elementos tomados en grupos de m elementos se expresa generalmente con la nota-
cin de Euler,
m)! (n m!
n!
m
n

, que para nuestro ejemplo vale

3
10
= C
10,3
=120
Se ve fcilmente que

m n
n
m! m)! (n
n!
m)! (n m!
n!
m
n
, por ejemplo C
10,3
= C
10,7
=
= 10.9.8.7.6.5.4.3.2/3.2/7.6.5.4.3.2 = 10.9.8/3.2.1 .
Ntese que el numerador es el producto de una serie de m nmeros decrecientes que empiezan con n, y el denominador es el
producto de una serie creciente de 1 hasta m . Esta forma de recordar el clculo de C
n,m
nos ser particularmente til cuando
generalicemos el concepto de combinaciones a nmeros no enteros, al calcular los trminos de potencias cualesquiera de un
binomio.
De acuerdo a la generalizacin de factorial para 0!=1!=1, es
n
1
n
y 1
0
n
=

Permutaciones con repeticin


Volviendo al nmero de combinaciones, stas se pueden entender como el nmero de permutaciones cuando hay m
y (n-m) elementos repetidos, iguales o equivalentes dentro del grupo.
En general, cuando en una poblacin de n elementos hay a,b,c,d....z, elementos repetidos, iguales o equivalentes,
(siendo n=a+b+c...+z), se razona como se hizo para las combinaciones que el nmero de permutaciones distingui-
bles es lgicamente menor que n!, ya que sta considera como factores diferentes entre s a las permutaciones entre
objetos similares o repetidos: a!.b!.c!.....z!
As entonces para obtener las permutaciones con repeticin se eliminan de las permutaciones normales las de obje-
tos similares, dividiendo por ese producto: P
n
,
a,b,c..
.= n!/a!/b!/c!/.../z!
VARIACIONES
La cuestin N 3 se resuelve averiguando cuntas series diferentes se pueden formar a partir de n bolillas, con gru-
pos de m en un orden determinado, seguida de todas las dems en cualquier orden. El nmero se llama variaciones
m arias de n elementos, y se simboliza V
n,m
. En nuestro caso se trata de variaciones ternarias de 10 elementos.
Como las (n-m) bolillas pueden presentarse en cualquier orden, pueden considerarse como elementos repetidos,
dentro de las n! permutaciones totales. As entonces el numero buscado ser (aplicando el concepto empleado para
permutaciones con repeticin) V
n,m
= n!/(n-m)! = m! C
n,m
Ejemplos
1) De cuntas maneras se pueden colocar los siete tomos de una enciclopedia en un estante?
Respuesta: 7! = 5040
2) De cuntas maneras se pueden colocar cinco bolillas en dos casilleros, colocando dos en uno y tres en el otro?
Respuesta: C
5,2
= 10
3) Cuntas maneras hay de colocar las cinco bolillas en dos casilleros?
Respuesta: C
5,0
+ C
5,1
+ C
5,2
+ C
5,3
+ C
5,4
+ C
5,5
= 1 + 5 + 10 + 10 + 5 +1 = 32
4) De cuntas maneras se pueden disponer quince soldados de un pelotn en tres grupos de 3,5 y 7?
Respuesta: 15!/3!/5!/7! = 360360
5) Y si el capitn debe ir siempre en el grupo ms numeroso?
Respuesta: 168168 (justifquese).
5
i i n
n i
0 i
b a
i
n
.

=
=

3/48
3.2.1
3/2) 1/2).( 1/2.(
3
1/2
=

=

/384 15
4.3.2.1
) 3/2).(-5/2 /2).( 1 1/2.( 1/2
4
=

=

POTENCIAS DE UN BINOMIO Generalizacin de Newton


Al hacer la potencia ensima de un binomio, se multiplica ste por si mismo n veces, o sea que es
(a+b)
n
= (a+b).(a+b)......(a+b)
n veces
Tomando el primer trmino del primer factor (a) y multiplicndolo por los restantes factores aparece como primer
trmino a
n
.b
0
una sola vez, n veces el trmino que contiene a
n-1
.b
1
y en general C
n,m
veces trminos de la forma a
n-
m
.b
m
. Teniendo en cuenta que C
n,0
=C
n,n
=1 y C
n,1
=C
n,n-1
= n, se puede generalizar el desarrollo en la frmula:
(a+b)
n
=
El desarrollo anterior, ya empleado por Tartaglia con n entero positivo, fue generalizado por Newton para n fraccio-
nario, de acuerdo a la definicin de combinacin dada al final del ttulo Combinaciones.
Por ejemplo,
El desarrollo de la potencia de un binomio elevado a exponentes no enteros no es finito: es una serie de potencias
que por supuesto coincide con el desarrollo en serie obtenido por cualquier otro mtodo , por ejemplo con el desa-
rrollo de Taylor M
c
Laurin.
Ejemplos
Por ejemplo, desarrollemos 2 con siete trminos :
(1+1)
1/2
1 + - 1/8 + 3/48 15/384 + 105/3840 945/46080 = 1,4052
La serie converge al valor del nmero irracional 1,4142... y por ser una serie alternada, la diferencia con el valor
calculado con la serie de siete trminos es inferior al valor absoluto del primer trmino despreciado, que vale
945/46080.(-11/2)/7 = -0,016. En efecto, es 1,4142-1,4052=0,012 < 0,016
Otro ejemplo: calcular el trmino de correccin relativista de la masa con la velocidad, 1/1-
2
Haciendo f=-
2
resulta 1/ 1-
2
= (f+1)
-
= 1- f + 1/8 f
2
3/48 f
3
+.... = 1+
2
+ 1/8
4
+ 3/48
6
+...
Ya que = v/c <1 (relacin entre la velocidad del mvil y la velocidad de la luz), la serie converge rpidamente.
Para =0,1 es 1/ 1-0,01 = 1,0050378, y los tres primeros trminos de la serie dan
1+ 0,005 + 0,0000125 = 1,0050125, es decir con error menor que 26 en un milln.
6
PROBABILIDAD Y ESTADSTICA PRIMERA PARTE
Introduccin
El azar
Consideremos el tpico proceso azaroso de revoleo de una moneda al aire. Se puede
saber en el momento de tirarla si caer cara o ceca? Podramos contestar, con la misma
fe en la ciencia que los fsicos de fines de siglo diecinueve, que si conocemos exacta-
mente la geometra y densidad de la pieza, la posicin inicial, medimos cuidadosamente
el impulso inicial y su punto de aplicacin, consideramos adecuadamente la resistencia
del aire y estamos seguros en qu punto de su trayectoria ser interceptada por el dorso
de la mano, estaremos en condiciones de prever cuntas vueltas dar antes de posarse, y
con ello predecir si la cara o la ceca aparecern arriba o abajo. Es decir que controlando
el tiro podremos apostar, seguros de ganar. Por supuesto que el control de todas esas
condiciones es slo posible en un laboratorio, por lo que los chicos del equipo del ba-
rrio pueden quedarse tranquilos : El arco con el sol de frente les toca a veces por esa
maldita suerte y no por decisin directa del referee, quin se limita a tirar mecnica-
mente una moneda en condiciones siempre irrepetibles y fuera de su control.
De igual manera, cuando nos jugamos unas cuntas fichas al negro el ocho confiamos que el cruppier no est en
condiciones de sincronizar el momento en que tira la bola con la posicin y velocidad de la ruleta, y que por lo tanto
no es responsable de la exaccin que representa que salga colorado el treinta y dos.
As, el azar resulta en principio algo que engloba una serie de causas complejas que renunciamos a determinar y
estudiar en detalle por difciles de precisar, porque desconocemos o porque no tenemos ganas ni tiempo.
La Estadstica y la Probabilidad
El estudio de conjunto del factor de azar revela que respeta leyes aproximadas, es decir dentro de un cierto margen
de error. El estudio de tales leyes aproximadas se llama estadstica, palabra que se deriva de estado, por ser los esta-
dos los que emplearon por primera vez las tcnicas de recuento de poblacin y bienes.
Los sucesos con componente azaroso se llaman casuales, aleatorios o estocsticos. Su resultado o contingencia no
puede determinarse con certeza absoluta y se habla en cambio de probabilidad de ocurrencia, representada con un
nmero que va desde cero (ninguna chance de que pase) a uno (certeza total de que ocurrir). As, por ejemplo, en
base a algn mtodo de muestreo de llamadas, podremos afirmar que la probabilidad de que nuestro telfono suene
en los prximos 10 minutos es 0,3 (o un treinta por ciento si preferimos) con una incertidumbre de 0,01 (1%).
Frecuencia y probabilidad matemtica. La ley de los grandes nmeros. El esquema
de la urna
La probabilidad matemtica se define como el cociente entre casos favorables (nmero de veces en que se puede
presentar un acontecimiento) dividido el nmero de casos igualmente posibles (total de veces que se puede presen-
tar o no el acontecimiento). As, la posibilidad de sacar un seis al arrojar un dado es: casos favorables = 1 , ya que
los seis puntos corresponden a una de las seis caras del dado; casos igualmente posibles = 6 (cualquiera de las caras
por igual, si el dado est bien equilibrado). O sea que la probabilidad del suceso es de 1/6. La probabilidad de obte-
ner una bolilla blanca extrada de una urna que contiene seis blancas y cuatro negras es de 6/10 =3/5
La probabilidad matemtica de ocurrencia de un acontecimiento est ligada a la frecuencia con que ste se presenta
en la prctica, tomando varias muestras a lo largo del universo o poblacin que rene todos los individuos o casos
posibles. Estas muestras se pueden tomar en el tiempo, comprobando la ocurrencia de tanto en tanto, o en el espacio,
extrayendo lotes de una poblacin total esttica.
El matemtico suizo Jacobo Bernouilli (1655-1705), postul que en el caso de una urna con bolillas blancas y ne-
gras, la frecuencia de extraccin deba diferir del valor de la probabilidad matemtica en una cantidad tan pequea
como se eligiese, con tal de efectuar un nmero suficiente de pruebas. De tal modo, en el caso de que el universo
posible no se modifique, frecuencia y probabilidad estn ligadas a travs de ese aserto, que se di en llamar la ley
7
de los grandes nmeros, trmino que no se refiere a la magnitud de las cifras puestas en juego sino a la gran can-
tidad de veces con que se presentan.
Aceptada esta ley, se comprende que el resultado de un suceso al azar se pueda modelizar con la extraccin de una
bolilla de una urna o bolillero de composicin adecuada. Por ejemplo, datos mundiales revelan que nacen un poco
ms de varones que de mujeres. La frecuencia para el nacimiento de varones es muy aproximadamente 105 varones
por cada 100 mujeres. De tal manera, una urna que podra funcionar simulando los nacimientos que ocurren en la
poblacin mundial debera cargarse con 105 bolillas negras (que representaran al sexo fuerte) y 100 bolillas blancas
(nias). En un gran nmero de extracciones, la frecuencia de extraccin de negras se acercara a 105/205, es decir un
poco ms que , remedando lo que ocurre en la realidad.
Acotacin del factor de azar
Las causas que nosotros incluimos dentro de lo que llamamos azar pueden tener diversos grados de complejidad.
Resulta que a veces van all algunas cuestiones que posiblemente podran quedar determinadas por un anlisis ms
fino del problema, pero cuyo costo no podemos afrontar o no queremos pagar.
Valga el siguiente ejemplo:
En una instalacin de iluminacin con lmparas incandescentes tenemos los siguientes datos:
1) Un registro de algunos aos nos revela que aproximadamente el 95 % duran entre 500 y 700 horas, aunque
algunas pocas se queman en seguida y excepcionalmente otras duran casi dos meses.
2) Sabemos que las lmparas se queman principalmente porque su filamento se corta, despreciando otras causas
mucho menos frecuentes, como ser la rotura accidental del bulbo por mala manipulacin o defectos del vidrio, y
ciertos problemas de suministro elctrico (cortes y sobretensin), que ocurren muy rara vez.
3) El corte del filamento se produce en los puntos en que su dimetro queda reducido por debajo de un cierto va-
lor. Son contados los casos de mala soldadura del filamento a los soportes. La uniformidad inicial del dimetro
del filamento depende del buen funcionamiento de la trefiladora del hilo de tungsteno
4) El filamento en servicio se va adelgazando porque el tungsteno se evapora lentamente a causa de la temperatu-
ra. La presin del gas inerte que llena el bulbo reduce este efecto.
Es evidente que lo dicho en 1) incluye en el azar las causas finas establecidas en los puntos siguientes, y que de
poder y querer controlar alguna de ellas en la seleccin de las lmparas instaladas obtendramos adems de una
mayor duracin (mayor promedio de vida), un menor factor de azar, representado por la dispersin de la vida de las
lmparas, que inicialmente vale 100 horas alrededor del promedio de 600. Imagnese el efecto sobre los resulta-
dos al seleccionar lmparas de un fabricante que cuidara el estado de su trefiladora (punto 3)) y ajustara con cuidado
la presin del gas inerte de la ampolla (punto 4)).
Procesos con azar inherente
El anlisis hecho hasta ahora induce a pensar que siempre el azar es un factor introducido por comodidad o desco-
nocimiento en detalle del proceso que se estudia, y que un mayor anlisis lo va acotando, transformando casualidad
en causalidad. Sin embargo muchos fenmenos estudiados a fondo tienen an una cuota de azar inherente. Por
ejemplo, en la desintegracin radiactiva, los tomos de un cierto elemento inestable van transmutndose individual-
mente en elementos ms livianos, al expulsar de su ncleo partculas elementales. A lo que se sabe hasta este mo-
mento, este proceso es absolutamente aleatorio, no pudindose determinar cul de los tomos del material en cues-
tin, todos ellos idnticos entre s, ser el prximo en emitir una partcula (una parte de su ncleo). Ms bien est
establecido por leyes estadsticas cuntos sern los que aproximadamente lo harn en el prximo minuto. Resulta
as que la aleatoriedad es en este caso una parte insoslayable del proceso ya que no se ha encontrado causa aparente
que determine que sea uno y no otro tomo el que primero decaiga. Muchos otros fenmenos a microescala como el
descripto se explican slo admitiendo que regulan su ocurrencia funciones de probabilidad.
Los complejos procesos mentales, como los volitivos, impredecibles a ciencia cierta an por los neurlogos y psi-
clogos ms atrevidos, pueden sin embargo estudiarse como hechos que ocurren colectivamente con determinada
probabilidad bajo ciertas circunstancias. As estadsticamente se pueden predecir, siempre dentro de ciertos lmites
de imprecisin o dispersin, los efectos de la propaganda sobre la demanda general de un cierto producto, o la incli-
nacin de los gustos de los jvenes de una comunidad por una determinada moda.
8
El azar estadstico
Tambin, hay procesos que tienen una ocurrencia y desarrollo ligado a una gran cantidad de otros acontecimientos
anteriores relacionados o no entre s, y que resultan absolutamente imposibles de desentraar por su complejidad y
nmero, por ms que pudieran responder en ltimo caso a relaciones causa-efecto. Por ejemplo, se sabe que la inte-
raccin mecnica en el espacio de slo tres cuerpos es un problema ya harto complicado de resolver por ms que las
relaciones causa-efecto sean las sencillas leyes de la mecnica clsica. Quin se atrevera siquiera a abordar por
este mtodo la interaccin de millones de molculas en un botelln de gas? Slo mtodos estadsticos dan en este
caso un resultado de conjunto muy ajustado, prediciendo variables macroscpicas como presin, temperatura y
funciones de distribucin de velocidades de las molculas, es decir qu porcentaje del total de molculas tienen
velocidades comprendidas en un intervalo dado.
Veremos que la poblacin de una nacin no se comporta a escala estadstica muy diferentemente que la de las mol-
culas de un litro de gas, aunque sea bastante menor en nmero y muy diferente en naturaleza que sta. Desde este
punto de vista, la estadstica es una herramienta que nivela y rebaja de categora al individuo, y sus conclusiones
deben aplicarse a la poblacin estudiada en general, y no deben recaer sobre grupos o personas, a riesgo de trans-
formar en verdad la humorada del poeta Trilussa:
Sabis qu es la estadstica? Una cosa
con lo que se hace la cuenta general
de los que nacen, van al hospital,
a la curia, a la crcel o a la fosa.
Ms para mi, la parte ms curiosa
es la que da el promedio individual
en que todo se parte por igual
hasta en la poblacin menesterosa.
Por ejemplo: resulta sin engao,
que segn la estadstica del ao
te toca un pollo y medio cada mes.
Y aunque el pollo en tu mesa se halle ausente
entras en la estadstica igualmente,
porque hay alguno que se come tres.
Trgicos ejemplos
Predecir con seguridad que nuestro vecinito R... se quemar con una caita voladora en las prximas fiestas es im-
posible. De hecho, si pudiramos slo entreverlo con alguna certeza, adems de la alerta e inquietud que la sensatez
nos hace sentir, correramos a prevenirlo, a rogar a los padres que no le den plata o a secuestrarle los cohetes ya
comprados al quiosquero inconsciente. Pero a nivel estadstico, sabemos que inevitablemente, con la educacin
impartida a los nios, a los padres, y la condescendencia de mayores y autoridades ante la venta de pirotecnia, esa
noche los pobres mdicos de la guardia precautoriamente reforzada del Instituto del Quemado, se esforzarn ante las
manitas llagadas por el fuego y los ojitos lastimados por las chispas de varios chicos, que se llamarn P...., o T....,. o
H......, y quizs tambin est el pobre R...., ya que pertenece a la poblacin de nios que juegan con fuego, a esa
poblacin que se llama de riesgo, por tener una gran exposicin al peligro.
Otro
Antes del desembarco en Normanda, los generales que iban a dirigir la operacin (bien lejos
del frente) calcularon aproximadamente el alto porcentaje de mortandad entre atacantes y ata-
cados. Estas macabras anticipaciones eran fruto de sus estudios estratgicos, juegos de guerra,
maniobras de campo y, por supuesto, estudios estadsticos de datos de contiendas anteriores.
As, antes de la invasin ya tenan preparadas las cartas de condolencia, ms de la mitad de las
cules deberan ser enviadas de seguro. Al tope de la montaa de sobres estaba la dirigida a la
posible futura viuda del soldado Adams, quin el 6 de junio de 1944 salt a la playa desde la
barcaza de desembarco N32.
Datos y estadstica
El registro de hechos da origen a la estadstica, que comprende las tcnicas de tratamiento de cantidades variables de
datos que se generan en muestreos, censos, recuentos e inventarios. La recoleccin de datos fu siempre una activi-
dad importante de gobiernos y estados. Su objeto, a veces cumplido y otras no, es el de estudiarlos en conjunto con
ciertas tcnicas, sacando ciertos nmeros globales llamados ndices. ndices de poblacin, de cultivos, riquezas, etc.
Los censos, por ejemplo, estuvieron siempre a la orden del da. Recordemos el que orden Csar Augusto en el ao
1 de nuestra era, que hizo que la Virgen Mara recalara en Beln y all naciera el Salvador. Uno de los propsitos
9
principales de los censos es el de ver la evolucin y distribucin de la poblacin, para prever recursos civiles y mi-
litares, planes de conquista, defensa y desarrollo, y sobre todo controlar el pago de impuestos.
Qu hacer con varios miles de planillas con nombres y apellidos, sexo, religin, nacionalidad, domicilio, ocupa-
cin, etc? Hasta hace un par de siglos, los recuentos generaban nmeros que se utilizaban en forma muy limitada.
Hoy en da, las masas de datos se ordenan en bases de datos, que son tablas con registros y campos. Hay tantos re-
gistros como individuos, y tantos campos como atributos o categoras se quieran investigar. Cualquiera sabe que
metiendo la base de datos en una computadora estamos en condiciones de clasificar por atributos, y extraer las ms
variadas conclusiones. Por ejemplo, saber cuntas mujeres que se dedican a trabajos manuales hay en Santa Rosa, o
cuntos panaderos japoneses hay en Rosario. Se pueden clasificar por edades, por sexo, por religin, etc.
Los ndices principales que se extraen de la masa de datos de recuentos y muestreos son:
1) El nmero de individuos.
2) El promedio de los atributos medibles numricamente (edad, nmero de hijos, ingresos, bienes, et.). Se expresa
en cantidad promedio per cpita. Como se explicar luego, no slo se usa la media aritmtica o simple prome-
dio, sino que a veces resultan preferibles la media geomtrica, armnica o cuadrtica.
3) La distribucin de las cifras de los atributos, lo que permite determinar cosas tales como el porcentaje de la
poblacin que gana entre 500 y 600 $/mes, o que est entre 50 y 55 aos de edad.
4) La dispersin de las cifras alrededor de la media. Se cuantifica este atributo con el valor de los momentos de
orden par, como se explicar ms adelante.
5) La forma de la distribucin : simtrica o asimtrica alrededor de la media. Esta caracterstica se mide a travs de
los momentos de orden impar, segn se ver despus.
6) Otros ndices de comparacin con muestreos anteriores, por ejemplo la tendencia al crecimiento o decreci-
miento de los valores de los atributos, estudiados a travs de regresiones sobre series de tiempo.
7) Las relaciones que puede haber entre valores de los distintos atributos (medibles con cifras o no). Por ejemplo
cmo vara el ingreso promedio per cpita con la edad, el sexo o la nacionalidad. Se evalan tales posibles de-
pendencias entre atributos mediante estudios de correlacin. segn se explicar.
Presentacin de los datos Tablas - Histogramas
Supongamos que se nos encomienda un informe de poblacin del pueblo Caada Chica, de 1257 habitantes. El
archivo general del censo consta de 1257 registros de siete campos cada uno (nombre y apellido, fecha de naci-
miento, sexo, profesin, estado civil, nmero de hijos, domicilio). De l extractamos la columna de edades, suma-
mos todas las edades y dividimos por el nmero de habitantes. Eso nos da la media aritmtica de la poblacin, en
aos promedio por habitante.
Luego ordenamos la lista por edades y contamos la cantidad de habitantes que tienen hasta 10 aos de edad, empe-
zando por el recin nacido Ariel Farina, de solo nueve das. Luego hasta veinte aos, hasta treinta,... etc. hasta llegar
a los ms viejos: el domador Tefilo Morales, de 90, aos, la partera Alma Ledesma, de 91 aos y la seora Ludmila
Srensen, una sueca de 96 aos.
Terminamos as la tabla colocando a estos tres ancianos en la categora ms alta, la de los que tienen entre 90 y 100
aos. La categora de 100 a 110 est vaca, pero la incluimos igual en nuestra tabla, que queda as:
Categora de edad
(aos)
Nmero de personas
(ambos sexos)
Poblacin
acumulada
0-10 53 53
10-20 98 151
20-30 124 275
30-40 267 542
40-50 350 892
50-60 200 1092
60-70 120 1212
70-80 30 1242
80-90 12 1254
90-100 3 1257
100-110 0 1257
TOTAL 1257 -----------
10
La representacin de los datos anteriores en el grfico cartesiano que se presenta a continuacin se llama diagrama
de bastones o histograma (del griego hystos = mstil y gramos = red).
Para afinar nuestro anlisis podramos elegir intervalos ms estrechos, por ejemplo de cinco en cinco aos, lo que
nos habra proporcionado un histograma con un nmero doble de categoras y bastones. El aumento del nmero de
categoras (de intervalos cada vez menores), va adelgazando los bastones y su altura, que es proporcional al nmero
de individuos por categora.
Distribuciones continuas
La variable tiempo, que se representa en abscisas, es una variable continua. Quiere decir que admite una subdivi-
sin en intervalos tan pequeos como se quiera. Se puede as pensar en llegar al lmite de tomar categoras infinita-
mente pequeas, que se confunden con un instante en vez de un intervalo de edad. Pero qu valor de la funcin
corresponde a un instante? Cuntas personas tienen una edad de 23 aos, nueve meses, siete das, veintitrs horas,
treinta minutos y doce segundos con veintinueve dcimas? Un bastn de ancho nulo tiene tambin altura nula, as
que podramos contestar que ninguna. El histograma de categoras nulas carece de sentido. Pero si en vez de tomar
como funcin la cantidad de personas, tomamos el cociente entre personas e intervalo, trabajaremos con una densi-
dad de frecuencia, o sea cantidad de individuos por unidad de tiempo. Transformamos as una funcin de distribu-
cin discontinua en otra continua.
Entonces la densidad de frecuencia, o en nuestro ejemplo el nmero de casos divido el intervalo (individuos por
unidad de tiempo), es una cantidad que puede representarse cualquiera sea al ancho del intervalo elegido. En parti-
cular, haciendo tender a cero el intervalo, se llega a trabajar con el tiempo en abscisas y una funcin de frecuencia
continua en ordenadas. Dicha funcin se define matemticamente como h(t) = dH(t)/dt, siendo dH(t) la cantidad
de habitantes con edades comprendidas en el intervalo entre t y t+ t aos cuando t 0
El grfico muestra la funcin de distribucin de densidad de edades h(t) en funcin de la edad t. El rea encerrada
entre dos abscisas de la curva mide la cantidad de habitantes en el intervalo delimitado por las mismas.
DISTRIBUCIN DE EDADES
0
100
200
300
400
0 20 60 80 100 120
edad (aos)
h
a
b
i
t
a
n
t
e
s
/
e
d
a
d

(
H
/
a

o
)
4
1
,
6
media
mediana
moda
DISTRIBUCIN DE EDADES
0
100
200
300
400
0-10 10-20 20-30 30-4040-5050-60 60-70 70-80 80-9090-100 100-110
categora (aos)
4
1
,
6
N


d
e

h
a
b
i
t
a
n
t
e
s

p
o
r

c
a
t
e
g
o
r

a
11
La integral de la funcin densidad de frecuencia desde el origen hasta un valor t es H(t) =
o

t
h(t) dt, y representa
la cantidad de habitantes que hay entre cero y la edad t . Se llama a H(t) frecuencia acumulada porque incluye o
acumula los habitantes de todas las edades desde cero hasta t . El rea sombreada en el grfico superior vale
40

60
h(t)
dt, es decir la cantidad de personas que tienen entre cuarenta y sesenta aos de edad (550), y coincide con la dife-
rencia de ordenadas de la funcin acumulada H(60)-H(40) = 1092 542 = 550 personas, segn se ve en el grfico
que sigue.
Medias y otros parmetros de posicin
Se vio que la media aritmtica de todos los valores se calcula sumando la edad de todos los habitantes y divi-
dindola por el nmero de ellos. Como no tenemos a mano los resultados de detalle del censo y si en cambio los de
la tabla resumen, trabajaremos con ella. La misma simplifica la distribucin, considerando que los 53 habitantes
cuyas edades varan entre cero y diez aos se pueden reemplazar por un nmero igual de personas con una edad
promedio igual al valor medio del intervalo, esto es cinco aos de edad. De la misma manera, los 98 jvenes de
entre 10 y 20 se meten en la estadstica como 98 personas de edad promedio de quince aos, y as sucesivamente.
Seamos conscientes que como toda simplificacin, la llevada a cabo recin introduce una imprecisin o error al
ignorar la distribucin propia dentro de cada categora. El promedio de esta distribucin categorizada de diez en diez
aos, sale de sumar los productos de la cantidad de personas de cada intervalo por la edad promedio representativa
del dicho intervalo, todo esto dividido el numero total de personas:
(53x5 + 98x15 + 124x25 + ..... + 3x95) / (53+98+124+....+3) = 41,6 aos. El numerador de dicha fraccin es lo que
en mecnica se llama momento de primer orden de una funcin con respecto al origen, y la media aritmtica
viene a ser el centro de gravedad de la distribucin.
Ya se mencion que adems de la media aritmtica o simple promedio, se usan como indicadores otras medias: la
geomtrica, la armnica y la cuadrtica o valor eficaz, llamada tambin por los norteamericanos RMS (root mean
square = raz del valor cuadrtico medio)
Para una serie de n nmeros a
1
, a
2
, a
3
,... a
n
, se tiene:
media aritmtica (a
i
) = M(a
i
) = (
=1...n
a
i
)/ n
media geomtrica (a
i
) = G(a
i
) = (a
1
. a
2
. a
3
.....a
n
,)
1/n
media armnica (a
i
) = H(a
i
) = n / (
=1...n
1/a
i
)
media cuadrtica (a
i
) = Ef (a
i
) = RMS(a
i
) = (
=1...n
a
i
2
/ n)

Para la sucesin 1,2,3,4,5,6,7,8,9,10 . Comprubese que M=5,5 , G=4,529 , H=3,414 , Ef=6,205


Cuando los nmeros difieren poco entre s, los valores de las varias medias tienden a acercarse.
Ejemplo: El dimetro de un lote de diez cigarros est dado por la serie siguiente (en cm):
2.05 1.9 1.89 2.12 1.95 2.01 1.8 1.92 2.1 2.2
Resulta que (comprubese):
M= 1.994 media aritmtica
G= 1.991 media geomtrica
H= 1.987 media armnica
Ef= 1.997 media cuadrtica
La media cuadrtica es muy sensible a algn valor que se separe mucho del resto, segn
se ve en la serie modificada de la anterior:
DISTRIBUCIN DE EDADES ACUMULADA
0
200
400
542
800
1092
1200
1400
0 20 60 80 100 120
edad (aos)
f
r
e
c
u
e
n
c
i
a

a
c
u
m
(
H
/
a

o
)
4
1
,
6
FUMAR ES PERJUDICIAL PARA LA SALUD
12
2.05 1.9 1.89 2.12 1.95 7 1.8 1.92 2.1 2.2
M= 2.493 media aritmtica
G= 2.255 media geomtrica
H= 2.138 media armnica
Ef= 2.913 media cuadrtica
Mediana, cuartilos, percentiles y moda
Se llama mediana al valor de la abscisa o variable que separa en partes iguales el nmero de observaciones superio-
res e inferiores.
La serie de datos ordenada de menor a mayor es:
1.8 1.89 1.9 1.92 1.95 2.01 2.05 2.1 2.12 2.2
Por ser par el nmero de datos, hay dos valores centrales, y la mediana se aproxima entonces al promedio entre
ellos, es decir 1.98 (recordemos que la media aritmtica es 1,994)
La influencia de valores extremos se hace sentir menos en la mediana que en la media, por ejemplo si entre los di-
metros de los cigarros se computara uno fuera de serie de 2,5 cm, el promedio de la serie sera de 2.04 , mientras que
el de la mediana pasara a 2.01
En el caso de una distribucin, como la de edades de Caada Chica, la mediana se sita (ver la tabla)
entre los valores 892 y 1092, que corresponden respectivamente a las categoras centradas en 45 y 55 aos, o sea que
se puede tomar como mediana de la distribucin el valor 50 aos. La ubicacin de la mediana est indicada en el
grfico de la distribucin continua con lnea de puntos.
Interesa a veces conocer adems del valor de la variable que separa partes iguales de la poblacin ordenada, la que
separa cuartos :el primero del segundo, el segundo del tercero y el tercero del cuarto.. Estos valores de la variable se
llaman cuartilos primero, segundo y tercero respectivamente. Lgicamente, el segundo cuartilo coincide con la me-
diana. Por ejemplo, el tercer cuartilo de nuestro ejemplo es la abscisa que corresponde a una poblacin acumulada
de x 1257 = 942.75 . Haciendo una interpolacin lineal, a este valor acumulado le corresponde una abscisa de 45
+ 5 x (942.75-892)/(1092-892) = 46,27 , que es el tercer cuartilo.
Generalizando el concepto anterior a cualquier fraccin o porcentaje del acumulado, se definen as los percentiles de
cualquier valor. Por supuesto, el tercer cuartilo es el percentil correspondiente al 75%
Moda o dominante es el valor de la variable que corresponde a mxima frecuencia, o sea la abscisa del valor m-
ximo de la distribucin. Para la distribucin de Caada Chica, la moda corresponde al valor medio de la categora
del bastn de mayor altura (350 H/ao), esto es 45 aos. Se la ha indicado en el grfico de la distribucin continua
con lnea de trazos.
Media, mediana y moda coinciden slo en el caso de una distribucin simtrica. En cambio, en el caso de una
distribucin asimtrica como la del ejemplo, se sitan hacia el lado de la cola en el siguiente orden: moda, mediana
y media.
Momentos de una distribucin
En general, el momento centrado de grado k de una serie de N valores a
i
(con i =1,2...n), est dado por
M M
k
=
i
(a
i
-m)
k
siendo m = (
i
a
i
)/N la media aritmtica
Para una distribucin discontinua de n bastones de peso p
i
y abscisas x
i
(con i =1,2...n), el momento centrado de
grado k est dado por M M
k
=
i
p
i
.(x
i
-m)
k
siendo m = (
i
p
i
.x
i
)/N la media aritmtica.
Para una distribucin continua de densidad de frecuencia f(x)=dp/dx , el momento centrado de grado k viene de la
expresin anterior, cambiando la funcin discreta p
i
de la variable x
i
por la diferencial dp=f(x).dx y la sumatoria por
una integral entre los lmites de existencia de f(x), (en general - a +), vale decir que
M M
k
=
-

+
f(x).(x-m)
k
.dx , siendo m =
-

+
x. f(x).dx/
-

+
f(x).dx la media aritmtica.
Ejercicio: Demostrar que el momento centrado de primer orden es nulo:
Demostracin: M M
1centr
=
-

+
f(x).(x-m).dx =
-

+
x. f(x). dx -m
-

+
f(x).dx , pero siendo el segundo trmino
igual a
-

+
x. f(x).dx, por definicin de media aritmtica dada en el prrafo anterior, es M M
1centr
= 0.
Los momentos son importantes indicadores de la forma de una distribucin (achatada, puntiaguda, simtrica o
asimtrica).
13
Momentos de orden par y dispersin
Veremos primeramente el momento de segundo orden, llamado en mecnica momento de inercia, cuyo valor
para una agrupacin de masas se calcula multiplicando el valor de cada una de ellas por el cuadrado de la distancia
a un determinado eje o punto, que se toma como referencia. Para un conjunto de datos categorizados en una distri-
bucin discontinua, el momento de segundo orden con respecto al origen se calcula sumando todos los productos
formados por los valores de cada categora y la abscisa media correspondiente a esa categora al cuadrado. Si la
abscisa se toma con respecto a la media, se obtiene as un momento de segundo orden centrado. El valor del mo-
mento centrado de segundo orden es sensible a la dispersin de la poblacin con respecto a la media. Al figurar
diferencias de abscisas al cuadrado (siempre positivas) este parmetro no registra si la dispersin es simtrica o
asimtrica con respecto al centro.
Volviendo nuevamente a la distribucin de poblacin del ejemplo, cuya media vale m = 41.6 , tenemos:
x (H/ao) (x-m)
2
h (H) h.(x-m)
2
5 1339.20 53 70977.54
15 707.30 98 69315.17
25 75.40 124 34149.14
35 43.50 267 11613.14
45 11.59 350 4057.75
55 179.69 200 35938.44
65 547.79 120 65734.90
75 1115.89 30 33476.69
85 1883.99 12 22607.88
95 2852.09 3 8556.269
TOTAL 1257 356426.89
De acuerdo a los clculos resumidos en la tabla anterior, el momento centrado de segundo orden es M
2c
=356426.89
En mecnica se usa el radio de inercia, que es la distancia i a la que se debera poner toda la masa concentrada N
para obtener el mismo momento de inercia centrado M
2c
del cuerpo en cuestin, as M
2c
=N.i
2
de donde i=(M
2c
/N)

En estadstica hay algo anlogo al radio de inercia, que se llama desvo standard , simbolizado universalmente
con la letra , y que en nuestro caso de vale = (356426.89/1257)

= 16.84 . Este nmero representa la diferencia


de edad con la media que debera presentar una poblacin ficticia uniforme del mismo nmero de habitantes (1257
H) para lograr la misma dispersin que la distribucin real.
Se usa tambin en estadstica como medida de la dispersin de poblaciones el cuadrado del desvo standard, que
se llama varianza. La varianza coincide con el momento de segundo orden cuando N=
i
p
i
=1
En una distribucin discontinua, el momento centrado de segundo orden es , para N=
i
p
i,
M M
1
= Nm =
i
p
i
x
i
M M
2centr
=
i
p
i
.(x
i
-m)
2
, y tomando (x
i
m

)
2
= x
i
2
2 x
i
m + m
2
, resulta:
M M
2centr
=
i
p
i
.x
i
2
2 m.
i
p
i
x
i
+ m
2

i
p
i
= M M
2

2 m
2
N

+ m
2
N = M M
2

M M
1
2
/N

(Teorema de Steiner)
Ejemplo: Volviendo al ejemplo del dimetro del lote de diez cigarros, que est dado por la serie siguiente (en cm):
2.05 1.9 1.89 2.12 1.95 2.01 1.8 1.92 2.1 2.2
Habamos ya calculado la media aritmtica de la serie de valores con:
M M
1
= (2.05+1.9+1.89+2.12+1.95+2.01+1.8+1.92+2.1+2.2) = 19.94 , siendo la media m=M M
1
/N =19.94/10 = 1.994
El momento centrado de segundo orden resulta :
M M
2centr
= [(2.05-1.994)
2
+(1.9-1.994)
2
+(1.891.994)
2
+(2.12-1.994)
2
+ (1.95-1.994)
2
+(2.01-1.994)
2
+(1.8-1.994)
2
+
+(1.92-1.994)
2
+(2.1-1.994)
2
+(2.2-1.994)
2
] = 0.138
O tambin aplicando el teorema de Steiner es
M M
2
= (2.05
2
+1.9
2
+1.89
2
+2.12
2
+1.95
2
+2.01
2
+1.8
2
+1.92
2
+2.1
2
+2.2
2
) = 39.898
M M
2centr
= M M
2

M M
1
2
/N = 39.898 397.60/10 = 0.138
La varianza es s
2
=0.138/10 = 0.0138 , y su raz cuadrada es igual al desvo standard s = (0.0138)

= 0,117
Una varianza mayor perteneciente a otra muestra de igual nmero de cigarros extrada en otro momento podra in-
terpretarse consecuencia de algn tipo de desajuste en la mquina, que hace que los cigarros salgan ms desparejos.
Momentos de grado superior al segundo
Momentos de grado impar
Los momentos de centrados de tercer orden, y en general los de grado impar, son nulos en distribuciones simtricas
con respecto a su media. Segn la figura figura, para k impar es (x-m)
k
= -(m-x)
k
entonces es:
14
M M
kcentr
=
m


f(x).(x-m)
k
.d(x) +
-


m
f(x).(m-x)
k
.d(x) =
m


f(x).(x-m)
k
.d(x) -
-


m
f(x).(x-m)
k
.d(x)
En virtud de la simetra de f(x) alrededor de m las dos integrales tienen el mismo valor, por lo que su resta es cero,
por lo tanto M M
kcentr
= 0 para k par y f(x) simtrica.
Contrario sensu, resulta fcil darse cuenta que la
asimetra genera momentos de orden impar no
nulos, ya que los valores absolutos de las inte-
grales primera y segunda (a la derecha y a la
izquierda de la media respectivamente) son
diferentes. El signo es el de la integral de mayor
valor absoluto. As, en una distribucin ms
extendida hacia la derecha de la media, el mo-
mento impar es positivo, y negativo si la cola de la distribucin se
extiende ms hacia al izquierda de la media.
A continuacin se presenta la tabla de clculo del momento de tercer orden de la distribucin de poblacin de Caa-
da Chica:
h (x-m)
3
h.(x-m)
3
53 -49008,07702 2597428,082
98 -18810,62808 -1843441,552
124 -4570,219713 -566707,2444
267 -286,8519183 -76589,4622
350 39,47530316 13816,35611
200 2408,761952 481752,3904
120 12821,00803 1538520,963
30 37276,21353 1118286,406
12 81774,37846 981292,5415
3 152315,5028 456946,5085
0 254899,5866 0
M3 = -493551,1747
El valor negativo del momento de tercer orden indica que la distribucin se vuelca ms hacia la izquierda, por ms
que en el histograma no aparezca tan claro este efecto.
En una distribucin discontinua, el momento centrado de tercer orden es M M
3centr
=
i
p
i
.(x
i
-M M
1
)
3
, y tomando (x
i
-
M M
1
)
3
= x
i
3
- 3 x
i
2
M M
1
+3 x
i
M M
1
2
- M M
1
3
, resulta:
M M
3centr
=
i
p
i
. x
i
3
- 3 M M
1

i
p
i
x
i
2
+3 M M
1
2

i
p
i
x
i
- m
3

i
p
i
=
M M
3centr
= M M
3
- 3 M M
1
M M
2
+3 M M
1
2
M M
1
- M M
1
3
= M M
3
- 3 M M
1
M M
2
+2 M M
1
3
Momentos de grado par
Los momentos de grado par superiores al segundo, por ejemplo el de cuarto grado, amplifican la dispersin o
aplastamiento de la distribucin. Generalmente se usan comparando su valor con la distribucin normal de Gauss,
que estudiaremos luego.
Volviendo a las probabilidades
Vimos que la probabilidad matemtica de ocurrencia de un suceso se define como cociente entre el nmero de casos
favorables a que se presente dicho acontecimiento y el nmero de casos igualmente posibles o probables. Para sal-
var la aparente recurrencia de la definicin anterior, digamos que caso igualmente probable a aqul que no presenta
ninguna condicin que lo haga preferible o favorito frente a otros.
Al afirmar que los casos posibles al tirar un dado son seis, estamos tcitamente admitiendo que el dado est perfec-
tamente equilibrado, y que el mecanismo de tirarlo incluye factores de azar impredecibles e incontrolables que no
hacen pensar en ninguna tendencia.
Vimos tambin que la ley de los grandes nmeros permite asimilar frecuencia con probabilidad cuando las prue-
bas se realizan un nmero de veces indefinidamente grande. As, si la cantidad de veces que sale ceca al tirar un
milln de veces una moneda es de 796803 , podremos afirmar con seguridad casi absoluta que la moneda no est
equilibrada. La mayora de las veces la experiencia no es tan concluyente como la recin descripta, y en vez de la
dx
dp = f(x).dx
m
x-m
m-x
dp
Cuando k es impar la integral desde m hasta de
f(x) (x-m)
k
dx es de signo contrario a la de - hasta m,
ya que (x-m)
k
= - (m-x)
k
, por lo tanto la suma de
ambas integrales (momento de orden k) es nula
f(x)
Minpar > 0
Minpar < 0
15
afirmacin se puede dar slo una estimacin de la probabilidad de que nuestra hiptesis sea la correcta. Las tcnicas
de ensayos de hiptesis de las que hablaremos ms adelante cumplen este cometido.
Extensin de la nocin de probabilidad
Hay hechos en los que los casos (posibles y favorables) estn representados por variables continuas, en vez de n-
meros naturales. Valga el famoso ejemplo de la aguja atribuido al clebre naturalista francs Georges-Louis Le-
clerc de Buffon (1707-1788):
El problema de la aguja (o del alfiler)
Un alfiler de longitud l se deja caer al azar sobre una pgina con
renglones separados por una distancia a. La longitud del alfiler es
menor que la distancia entre renglones, es decir l l < a. Cul es la
probabilidad de que el alfiler se ubique cortando o tocando algn
rengln?
Los casos de este problema son
las posiciones del alfiler, cada
una de las cuales puede expre-
sarse con dos nmeros: la dis-
tancia x del centro del alfiler al
rengln ms prximo (la posi-
cin a lo largo de los renglones
no interesa) , y su orientacin,
medida por el ngulo que forma con una normal cualquiera a los
renglones.
As, los casos posibles estn representados por la suma de todos los
productos entre valores de x , posibles, o sea dentro de los intervalos 0 x a/2 y 0 /2. Como se trata de varia-
bles continuas, la suma se transforma en integral de diferenciales, o sea que el universo de casos posibles es:
Casos posibles =
x=o


x=a/2
=o


=/2 /2
d. .dx = a./4 /4
Los casos favorables estn representados por las posiciones en las que el alfiler toca algn rengln, para lo cual su
centro no puede estar ms all de la distancia l/2.cos , o sea 0 x l/2.cos con 0 /2.
De tal manera, la totalidad de los casos favorables viene dado por :
Casos favorables =
x=o


x= l l/2

cos
=o


= /2
d. .dx =
= l l/2
=o


= /2
cos d = = l l/2
Entonces, la probabilidad de que el alfiler caiga sobre un rengln es l l/2/ /a/ 4 / 4 = 2 2 l l / /a/ /
En la figura de la derecha se reproducen los resultados de arrojar 30 alfileres de 15,5 mm de largo sobre una hoja
con paralelas a 20 mm , contndose 14 alfileres que atraviesan o apoyan sobre renglones. La probabilidad experi-
mental o frecuencia resulta as f = 14/30 =0,47 . De acuerdo al clculo anterior el valor matemtico de la probabili-
dad resulta p=2l l /a/ = 2.15,5/20/3,1416 = 0,493
Probabilidad simple y compuesta
La estrecha vinculacin entre estadstica y la teora de las probabilidades aconseja estudiar algunos aspectos de sta
en detalle : Examinemos algunos ejemplos:
Ejemplo 1: Cul es la probabilidad de obtener un seis arrojando dos dados?
Los casos favorables son: 1 y 5 2 y 4 3 y 3 4 y 2 5 y 1. En total 5 casos favorables
Los casos posibles son 1 y 1 1 y 2 1 y 3 - 1 y 4 1 y 5 1 y 6
2 y 1 2 y 2 2 y 3 - 2 y 4 2 y 5 2 y 6
3 y 1 3 y 2 3 y 3 - 3 y 4 3 y 5 3 y 6
4 y 1 4 y 2 4 y 3 - 4 y 4 4 y 5 4 y 6
5 y 1 5 y 2 5 y 3 - 5 y 4 5 y 5 5 y 6
6 y 1 6 y 2 6 y 3 - 6 y 4 6 y 5 6 y 6
En total 36 casos posibles, por lo que la probabilidad resulta entonces 5/36
l
a
x

El problema de Buffon
16
Ejemplo 2: Dos dados son distinguibles entre s, por ejemplo de diferente color Cul es la probabilidad de obtener
un 1 en el primer dado y un 5 en el segundo,?
Casos favorables : 1 ; Casos posibles : 36 ; la probabilidad buscada vale 1/36.
Esta probabilidad es la misma que la de sacar dos nmeros cualesquiera en cualquier orden, o si se prefiere, de sacar
una secuencia de dos nmeros determinados arrojando un mismo dado dos veces, ya que el resultado de la primera
prueba no afectar a la de la segunda sucesiva, y tambin lo que salga en el primer dado no afecta a lo que sale en el
segundo cuando se tiran dos al mismo tiempo.
Los sucesos de los casos anteriores se pueden considerar como combinacin de sucesos simples: por ejemplo, el de
sacar un seis con dos dados puede descomponerse en cinco sucesos excluyentes que pueden ocurrir indistintamente,
cada uno de ellos formado por dos sucesos que tienen que ocurrir en determinado orden, es decir que:
Cinco sucesos que pueden ocurrir indistintamente, separados por la conjuncin disyuntiva o, a saber:
1 y 5 o 2 y 4 o 3 y 3 o 4 y 2 o 5 y 1
cada uno de ellos formados por dos sucesos independientes que deben ocurrir juntos, separados por la conjuncin
copulativa y , por ejemplo 4 y 2. La probabilidad de que salga un cuatro es 1/6 y la probabilidad de que salga un
dos es tambin 1/6, pero ya calculamos que la probabilidad de que salga la combinada 2 y 4 es 1/36, que es el pro-
ducto de 1/6x1/6.
Se demuestra que en general, como en este caso, la probabilidad de ocurrencia de un suceso compuesto por una serie
de eventos ms simples sin conexin entre s es el producto de las probabilidades individuales de todos ellos. En el
lenguaje corriente, esta condicin se expresa con la conjuncin copulativa y: La probabilidad de sacar un cuatro y
(producto!) un dos tirando un dado dos veces es 1/6 x 1/6 = 1/36
Ahora bien: en el universo de todos los sucesos posibles, en nuestro caso 36, la cantidad de sucesos que deben ocu-
rrir de alguna forma para formar un seis es la suma de todas las combinaciones posibles que den ese nmero, es
decir cinco combinaciones, cada una de las cuales tiene una probabilidad individual de 1/36. El resultado obtenido
antes de 5/36 se puede considerar as como la suma de cinco probabilidades individuales de valor 1/36
Se demuestra que en general, como en este caso, la probabilidad de un suceso compuesto por una serie de eventos
ms simples independientes que deben ocurrir indistintamente es la suma de las probabilidades individuales de
todos ellos. En el lenguaje corriente, esta condicin de ocurrencia se expresa con la conjuncin disyuntiva o: La
probabilidad de sacar un 4 o (suma!) un 2 tirando un dado dos veces es 1/6 + 1/6 = 1/3
Ejemplo: Cul es la probabilidad de sacar flor en el truco?. Respuesta: Sacar flor significa sacar tres cartas seguidas del mismo palo. El truco
se juega con una baraja de 40 cartas, entre las que hay 10 cartas de cada palo. La probabilidad de sacar una copa y otra copa y otra copa ms es el
producto de las probabilidades independientes, es decir 10/40 x 9/39 x 8/38 = 0.01214
Probabilidades y diagramas lgicos
Se pueden usar con ventajas en el clculo de probabilidades los dia-
gramas lgicos de Venn (atribuidos al lgico britnico John Venn (...-
1923), en los que se representan el universo de todos los hechos posi-
bles y cada uno de estos hechos en particular con una superficie ce-
rrada (en general el universo con un cuadrado y los hechos con cr-
culos).
En la figura se representan los sucesos A y B, con sendos crculos en el cuadrado del universo posible.
Hay conjuncin o interseccin de dos acontecimientos cuando se presentan juntos AyB . Con el lenguaje simblico
la conjuncin se escribe A.B o A B
Hay disyuncin de dos acontecimientos cuando se presentan uno u otro, o los dos. La disyuncin se representa de
AyB se representa con A B
La negacin de un acontecimiento es el evento contrario a su presentacin: o sea cuando no se produce. La nnega-
cin de A se indica con A
El resultado 0 se aplica a un acontecimiento que no se presenta y U cuando se presenta.
De tal modo, se verifica claramente que A A=0 y A A=U
Teorema de la probabilidad compuesta condicional
Sean dos bolilleros con 10 bolillas cada uno de tres colores diferentes.
A B
B A
A B
A
B
A

B
17
El primero con 3 bolillas verdes, 2 bolillas negras y 5 bolillas rojas
El segundo con 7 bolillas verdes, 1 bolilla negra y 2 bolillas rojas
Llamemos R
1
al suceso de sacar una bolilla roja del primer bolillero y V
2
al de extraer una bolilla verde del segundo
bolillero.
Est claro que son sucesos independientes, ya que la ocurrencia del uno no influye en la del otro.
Ya vimos que la probabilidad compuesta de que ocurran estos dos hechos es
p(R
1
V
2
) =p(R
1
).p(V
2
)=5/10.7/10 = 0,35
Pero ahora compliquemos un poco la cosa: Saquemos una bolilla al azar del primer bolillero e introduzcmosla sin
ver su color en el segundo. Cul ser la probabilidad de extraer una verde de ste segundo bolillero despus de
haber practicado la introduccin mencionada? Desde ya que ahora no puede hablarse de sucesos independientes, ya
que la composicin del segundo bolillero depende del color de la bolilla introducida, que a su vez proviene del pri-
mer bolillero.
Si sta fu roja, la probabilidad de sacar una verde ser (atencin a la notacin) p
R1
(V
2
)=7/11 , y la probabilidad
condicional total ser p(R
1
V
2
) = p(R
1
). p
R1
(V
2
) = (5/10.7/11) = 35/110 = 7/55
La probabilidad de sacar una roja del primer bolillero, cargado con una bolilla al azar del segundo es p(V
2
R
1
) =
p(V
2
). p
V2
(R
1
) = 7/10.5/11 = 35/110 = 7/55 = p(R
1
). p
R1
(V
2
) = p(R
1
V
2
), es decir igual que antes.
En general se demuestra que existe esta relacin recproca : p(A).p
A
(B) = p(B).p
B
(A)
Demostracin general:
Consideremos que dos acontecimientos mutuamente excluyentes A y B pueden producirse un nmero total de veces
N de la siguiente manera , con N = a+b+c+d
A B se presenta a veces de donde p(A B) = a /N
A B se presenta b veces de donde p(A B) = b /N
A B se presenta c veces de donde p(A B) = c /N
A B se presenta d veces de donde p(A B) = d /N
Como el acontecimiento A est presente slo en A B y A B (y no en A B y/o A B),
su probabilidad de ocurrencia es p(A) = p(A B) + p(A B) = (a+b)/N (1)
Si se ha producido A sabemos que hay en total (a+b) casos entre los que puede haberse pro-
ducido el B. Los casos posibles de que se produzca el B son a y c, pero quedando c descartado porque es el nmero
de casos posibles en los que B se presenta acompaado con A y no con A. As que los casos posible son nueva-
mente a, de donde p
A
(B)=a/(a+b) (2)
De (1) y (2) es p(A).p
A
(B) = (a+b)/N. a/(a+b) = a/N = p(A B) = p(A).p(B) (3)
De la misma forma, podemos decir que como el acontecimiento B est presente slo en A B y A B (y no en
A B y/o A B), su probabilidad de ocurrencia es p(B) = p(A B) + p(A B) = (a+c)/N (4)
Si se ha producido B sabemos que hay un total de (a+c) casos entre los que puede haberse producido el A. Los casos
posibles de que se produzca el A son a y b, pero quedando b descartado porque es el nmero de casos en los que A
se presenta acompaado con B y no con B. As que los casos posibles son nuevamente a, de donde:
p
B
(A)=a/(a+c) (5)
De (4) y (5) es p(B).p
B
(A) = (a+c)/N. a/(a+c) = a/N = p(A B) = p(A).p(B) (6)
De (3) y (6) se deduce que p(A).p
A
(B) = p(B).p
B
(A) , que era lo que se quera demostrar.
Teorema de Bayes (sobre la probabilidad de las causas)
El telogo y matemtico ingls Toms Bayes (1702-1761) estableci una importante relacin basada en las siguien-
tes ecuaciones, derivadas a su vez de la igualdad anterior:
p
B
(A) = p(A).p
A
(B) / p(B), vlida para p(B)0 (1)
A B
B A
A B
A
B
A

18
Considerando que el suceso A se deba a la serie de n causas independientes entre s A
1
, A
2
...A
n
, podremos escribir
que A = A
1
A
2
A
3
... A
n
(2)
Si consideramos que hay una acontecimiento B que se debe a alguna/s de las causas A
i
, podremos poner que B =
A
A
B = (A
1

A1
B)

(A
2

A2
B)

(A
3

A3
B)

... (A
n

An
B) (3)
y aplicando probabilidades resulta:
p(B) = p(A
1
).p(
A1
B)

+ p(A
2
).p(
A2
B) + p(A
3
).p(
A3
B) +...+ p(A
n
).p(
An
B) =
i=1..n
p(A
i
).p(
Ai
B) (4)
De (1) aplicado al caso genrico i es p
B
(A
i
) = p(A
i
).p
A
(B
i
) / p(B), y reemplazando p(B) por el desarrollo (4) resulta
la frmula de Bayes : p
B
(A
i
) = p(A
i
).p
Ai
(B) /
i=1..n
p(A
i
).p
Ai
(B) (5) donde:
p(A
i
) es la probabilidad de que ocurra la causa A
i
a priori, es decir sin que tenga que ver ningn otro evento condi-
cionante.
p
B
(A
i
) es la probabilidad de que ocurra la causa A
i
a posteriori, es decir cuando antes ha ocurrido el evento B
p
Ai
(B) es la probabilidad de que ocurra el evento B a posteriori de la causa A
i
Ejemplo:
En una eleccin universitaria, votan 10 electores de cada uno de los tres claustros ms importantes para elegir rector
entre dos candidatos: el Dr. Camilo y el Licenciado Pepone. Todos se sabe en el ambiente universitario, as que
conociendo la identidad de cada uno de los 30 electores y sus respectivas preferencias por un determinado candida-
to, el recuento de votos es mera frmula, ya que el resultado de la votacin se conoce extraoficialmente antes del
escrutinio:
urna N / Candidato a decano Dr. Camilo Lic. Pepone TOTAL
1 (Ciencias) 4 6 10
2 (Filosofa) 5 5 10
3 (Derecho) 3 7 10
El recuento se comenz tomando una urna al azar, sacndose de a uno lo votos de adentro. Los primero tres fueron:
Primer voto = Dr. Camilo
Segundo voto = Dr. Camilo
Tercer voto = Lic. Pepone
En ese momento, el profesor de Estadstica Ing. O. Mermoz hizo rpidamente un clculo que le indicaba que lo ms
probable era que la urna que se estaba escrutando fuera de Filosofa (A
2
). A ver qu les parece el algoritmo emplea-
do:
Clculo:
Las probabilidades a priori (antes de conocer el resultado) son 1/3 para cada urna, ya que ellas son idnticas. As
entonces es p(A
1
) = 1/3 ; p(A
2
) =1/3 ; p(A
3
) = 1/3
Las probabilidades de que se produzca el evento compuesto en cada urna son:
p
A1
(B) = 4/10.3/9.6/8 = 0.1
p
A2
(B) = 5/10.4/9.5/8 = 0.139
p
A3
(B) = 3/10.2/9.7/8 = 0.058
Adems es
i=1..n
p(A
i
).p(
Ai
B) = 1/3x 0.1 + 1/3 x 0.139 + 1/3 x 0.058 = 0.099
Y ahora estamos en condiciones de aplicar la frmula final para cada urna,
p
B
(A
i
) = p(A
i
).p
Ai
(B) /
i=1..n
p(A
i
).p
Ai
(B), que nos da:
p
B
(A
1
) = 0.1/3/0.099 = 0.336
p
B
(A
2
) = 0.139/3/0.099 = 0.467
p
B
(A
3
) = 0.058/3/0.099 = 0.196
Nota: Los personajes del ejemplo son de ficcin, menos el Ing. Osvaldo Mermoz, que tiene una brillante trayectoria como docente y
profesional, y del que me honra haber sido su alumno en el Colegio Nacional de Buenos Aires y en la Facultad de Ingeniera, donde all
por el ao 1957 enseaba entre otras cosas el teorema de Bayes a un grupo de futuros ingenieros.
19
Pruebas repetidas La distribucin binomial
Qu probabilidad hay al tirar m veces un dado de que salga un evento determinado, por ejemplo un as un nmero n
de veces? (por supuesto que m>n)
La probabilidad de sacar un nmero determinado (un as en particular) en cada tiro de dados (suceso simple inde-
pendiente) es 1/6.
La probabilidad de sacar n nmeros determinados (n ases, por ejemplo) en n tiros es p=(1/6)
n
, ya que son sucesos
independientes.
La probabilidad de no sacar algn nmero determinado en un tiro es (1-p) = (1-1/6) = 5/6, y la probabilidad de no
sacar el nmero elegido los restantes m-n tiros es (1-1/6)
(m-n)
As, interesa el suceso que consiste en un xito seguido de un no xito o fracaso. Este suceso tendr una
probabilidad compuesta de p
n
.(1-p)
(m-n)
, en nuestro caso (1/6)
n
.(1-1/6)
(m-n)
Por ejemplo, sea m=12 veces , n=4, es decir que salgan 4 ases seguidos, y que despus no salgan ms ases en los
siguientes 8 tiros
La probabilidad de este suceso es (1/6)
4
.(5/6)
8
Algunas posibles secuencias seran:
1,1,1,1,5,6,2,6,4,5,3,3 1,1,1,1,5,2,6,4,6,3,3,5 1,1,1,1,3,2,3,2,6,4,2,4.... y muchas ms.
Pero lo que se ha planteado es la cantidad de xitos sin tener en cuenta el orden de aparicin, y eso sin individualizar
a los fracasos, todos los cuales son equivalentes. Es decir que los acontecimientos tomados en consideracin (todos
ellos de probabilidad (1/6)
4
.(5/6)
8
) seran del tipo:
1,1,1,1,f,f,f,f,f,f,f,f 1,1,f,f,1,f,f,f,1,f,f,f f,f,1,1,1f,f,f,1,f,f,f f,1,1,f,f,f,f,1,f,f,f,1
Cuntos grupos podemos formar? Nuestros estudios de anlisis combinatorio nos permiten afirmar que cualquiera
de las series de 12 elementos en cuestin se pueden disponer de 12! maneras distintas, en las que no interesa el or-
den de los grupos de 4 aciertos y 8 fracasos, as que interesan slo 12!/4!/8! = combinaciones de 12 elementos to-
mados de a 4, o de a 8, o sea C
12,4
= C
12,8
= 495. De tal manera la probabilidad de que se repita un nmero cualquie-
ra (del uno al seis) 4 veces en 12 tiros vale 495 x (1/6)
4
x (5/6)
8
= 0.0888
En la figura adjunta se representa P
12,n
= C
12,n.
(1/6)
n
x
(5/6)
(12-n)
para n de 0 a 12, de acuerdo a la siguiente tabla
de valores.
n P12,n n P12,n
0 0,112156655 7 0,001136999
1 0,269175971 8 0,000142125
2 0,296093569 9 1,26333E-05
3 0,197395712 10 7,58E-07
4 0,088828071 11 2,75636E-08
5 0,028424983 12 4,59394E-10
6 0,006632496 Suma 1
Como es lgico, son bajas las probabilidades de obtener cero ases y la de obtener todos ases en doce tiros. El m-
ximo de probabilidad (0,296) corresponde a dos xitos en doce tiros.
La distribucin de P
m,n,p
= C
mn
p
n
q
(m-n)
se llama binomial, porque tiene la forma de los trminos del desarrollo de
Newton para las potencias del binomio, es decir (a+b)
n
=
i=0...n
C
n,i
a
i
.b
(n-i)
. Desde ya que la suma de todas las
probabilidades es la certeza, puesto que
n=0...m
C
mn
p
n
q
(m-n)
= (p+q)
m
= 1
La forma de la distribucin binomial depende de los
valores de p,q y m. , como veremos a continuacin. En la
figura de la derecha se ve la forma de P
50,n
Media, varianza y asimetra de la distribucin binomial
Por definicin, la media de P
m,n,p
= C
mn
p
n
q
(m-n)
es
media (P
m,n,p
) =
n=0...m
n.C
mn
p
n
q
(m-n)
= M
1
(P
n,m,p
), y
coincide con el momento de primer orden M M
1
, ya que

n=0...m
C
mn
p
n
q
(m-n)
= 1
Comenzando la sumatoria en n=1, ya que el primer trmino, para n=0, es nulo, la expresin de la media se trans-
forma en M M
1
(P
m,n,p
) =
n=1...m
n.m!/n!/(m-n)! p
n
.q
(m-n)
=
0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
0 5 10 15
n
P
1
2
,
n
,
1
/
6
0
0,02
0,04
0,06
0,08
0,1
0,12
0,14
0,16
0 5 10 15 20
n
P
5
0
,
n
,
1
/
6
20
=
n=1...m
m.(m-1)!/(n-1)!/(m-n)! p
(n-1)
q
(m-n)
.p = m.p
n=1...m
.(m-1)!/(n-1)!/(m-n)! p
(n-1)
q
(m-n)
y dado que (m-1)!/(n-1)!/(m-n)! = (m-1)!/(n-1)!/[(m-1)-(n-1)]! = C
(m-1),(n-1)
, la sumatoria anterior

n=1...m
C
(m-1),(n-1)
p
(n-1)
q
(m-n)
representa la suma de todas las probabilidades, es decir la unidad, y entonces es M M
1
(P
m,n,p
) = m.p .
Para la primera distribucin es M M
1
(P
n,12, 1/6
) = 12/6=2 y para la segunda resulta M M
1
(P
n,50, 1/6
) = 50/6=8
1
/
3
El momento de segundo orden de una binomial con respecto al origen (es decir no centrado) es
M M
2
(P
n,m,p
) =
n=0...m
n
2
.C
mn
p
n
q
(m-n)
= = m.p.
n=1...m
n.(m-1)!/(n-1)!/(m-n)! p
n-1
.q
(m-n)
=
= m.p.
n=1...m
(n-1).(m-1)!/(n-1)!/(m-n)! p
n-1
.q
(m-n)
+ m.p.
n=1...m
(m-1)!/(n-1)!/(m-n)! p
(n-1)
.q
(m-n)
=
= m.p.
n=1...m
(n-1).C
(m-1),(n-1)
p
n-1
.q
(m-n)
+ m.p.
n=1...m
(m-1)!/(n-1)!/(m-n)! p
(n-1)
.q
(m-n)
pero notemos que la sumatoria
n=1...m
(n-1).C
(m-1),(n-1)
p
n-1
.q
(m-n)
representa el momento de primer orden de la varia-
ble (n-1), por lo que vale (m-1).p, y la segunda sumatoria vale (p+q)
(m-1)
=1, as que entonces:
M M
2
(P
n,m,p
) = mp [(m-1).p+1]=m
2
.p
2
-m.p
2
+m.p = m.p.(1-p)+ m
2
.p
2
= m.p.q+ m
2
.p
2
La varianza (o momento centrado de segundo orden) de la distribucin binomial es:
var (P
m,n,p
) = M M
2centr
(P
n,m,p
) =
n=0...m
(n-mp)
2
. C
mn
p
n
.q
(m-n)
=
= ( ( n=0...m
n
2
.C
mn
p
n
.q
(m-n)
) 2.m.p. .
n=0...m
n.C
mn
p
n
q
(m-n)
+m
2
p
2

n=0...m
C
mn
p
n
q
(m-n)
=
= M M
2
(P
n,m,p
) 2.m.p. M M
1
(P
n,m,p
) + m
2
p
2
, y reemplazando los momentos por las expresiones halladas antes, re-
sulta que var (P
m,n,p
) = m.p.q+ m
2
.p
2
2. m
2
.p
2
+ m
2
p
2
= m.p.q
Clculo de M
3
para la distribucin binomial
Se vi que para una distribucin discontinua o discreta es M
3centr
= M
3
- 3 M
1
M
2
+2 M
1
3
=
=
i
p
i
. x
i
3
- 3 M M
1

i
p
i
. x
i
2
+ 2 M M
1
3
Por definicin es M M
3
(P
n,m,p
) =
n=0...m
n
3
.C
mn
p
n
q
(m-n)
. Con un procedimiento anlogo al que ya usamos ante-
riormente para calcular M
2
, ponemos n.(n-1).(n-2) =n
3
-3n
2
+2n, de donde n
3
= [n.(n-1).(n-2)] +3n
2
-2n y entonces
es
M
3
(P
n,m,p
) =
n=0...m
[n.(n-1).(n-2) +3n
2
-2n].C
mn
p
n
q
(m-n)
pero siendo n.(n-1).(n-2) C
mn
=
= n.(n-1).(n-2) m.(m-1).(m-2).(m-3)!/(m-n)!/n/(n-1)/(n-2)/(n-3)! =
= m.(m-1).(m-2).(m-3)! /[(m-3)-(n-3)]! /(n-3)! =
= m.(m-1).(m-2) C
(m-3)(n-3)
resulta claramente
n=0...m
n.(n-1).(n-2) C
mn
p
n
q
(m-n)
= m.(m-1).(m-2) p
3
{
n=3...m
C
(m-3)(n-3)
p
(n-3)
q
(m-n)
} , y como la
expresin entre llaves vale 1, podemos poner
M
3
(P
n,m,p
) = m.(m-1).(m-2) p
3
+ 3 n
2

n=0...m
C
mn
p
n
q
(m-n)
- 2n
n=0...m
C
mn
p
n
q
(m-n)
=
= m.(m-1).(m-2) p
3
+ 3 M
2
- 2M
1
Recordando que M
1
= m.p y que M
2
= m.p.q+ m
2
.p
2
, resulta :
M
3
(P
n,m,p
) = m
3
.p
3
-3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p
El momento centrado de tercer orden resulta entonces M
3centr
= M
3
- 3 M
1
M
2
+2 M
1
3
=
= m
3
.p
3
-3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p - 3 m
2
.p
2
.q -3 m
3
.p
3
+ 2 m
3
.p
3
=
= -3m
2
.p
3
+2.m.p
3
+ 3.m.p.q+ 3.m
2
.p
2
- 2.m.p - 3 m
2
.p
2
.q =
= -3m
2
.p
2
(1-q) +2.m.p
3
+ 3.m
2
.p
2
- 2.m.p- 3 m
2
.p
2
.q + 3.m.p.q = 2.m.p
3
- 2.m.p + 3.m.p.q =
= 2.m.p(1-q)
2
- 2.m.p + 3.m.p.q = mpq (2q-1) = mpq (q-p)
Asimetra de la distribucin binomial
Generalmente se toma como medida de la asimetra al valor de M
3centr
= mpq (q-p) referido a una medida de la
dispersin, por ejemplo al desvo standard s=(mpq)

, es decir al cociente:
asim = M
3centr
/s = (q-p)/ (mpq)

Vemos entonces que la asimetra de una distribucin binomial reside en la diferencia entre p y q y el valor de m .
La distribucin resulta as muy asimtrica para p<< y/o m pequeo, tendiendo a una curva simtrica cuando p
y/o m es grande.
Por ejemplo es asim (P
12,n,1/6
) = (5/6 - 1/6) / (12. 5/6. 1/6)

= 0, 516
21
En cambio es menor asim (P
50,n,1/6
) = (5/6 - 1/6)/ (50. 5/6. 1/6)

= 0, 253
y mucho menor an asim (P
100,n,1/6
) = (5/6 - 1/6)/ (100. 5/6. 1/6)

= 0, 179
La distribucin de Poisson
El matemtico y fsico francs Simon-Denis Poisson, (1781-1840), dedujo a partir de la frmula de la binomial,
una distribucin discreta de gran utilidad, vlida cuando la probabilidad de un suceso p es muy pequea y el nmero
de acontecimientos m es muy grande.
Partamos de la expresin de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
. Haremos uso de la formula
aproximada de Stirling para el factorial m! (2 m)

m
m
.e
-m
, vlida para m grande.
Reemplazada dicha aproximacin en la anterior nos da:
P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
= (2 m)

m
m
.e
-m
/n!/ (2( (m-n))

/(m-n)
(m-n)
/e
-m+n
p
n
q
m-n
Introducimos ahora un nmero finito tal que lim
m
(mp) = (ntese que p tiende a cero cuando m tiende a infi-
nito, as que el lmite anterior es un nmero acotado)
Se puede escribir la probabilidad como:
P(m,n,p) =(mp)
n
/n!.[m/(m-n)]

m
(m-n)
/(m-n)
(m-n)
.e
-n
(1-mp/m)
(m-n)
=
=(mp)
n
/n! (1-mp/m)
m
.e
-n
[m/(m-n)]

/(1-p)
n
/(1-n/m)
m
/(1-n/m)
-n
Ahora pasemos la expresin de la probabilidad al lmite para m , para lo cual debemos recordar que
lim
m
(1+1/m)
m
= e = 2.7182...,
lim
m
(mp)
n
/n! =
n
/n!
lim
m
(1-mp/m)
m
= lim
m
{[1+1/(m /( /()]
m/(-) )
} }
() ()
= =e

lim
m
[m/(m-n)]

= 1
lim
m
(1-n/m)
m
={[1+1/(-m/n)]
m/n
}
-n
= e
-n
lim
m
(1-n/m)
n
= 1
Entonces es lim
m
P(m,n,p<<1) =
n
e

/n!
Su valor medio y varianza valen lo mismo que para la binomial : media P(m,n,p<<1) = = mp =

2
= mpq = q ya que p 0 y q 1
Ejemplo N1
Despus de pasar por un mantenimiento integral, el avin monomotor DLDL presenta un promedio de una falla
cada 10000 horas de vuelo.
Cul es la probabilidad de que en las prximas mil horas se produzcan ninguna, una, dos, tres, cuatro, cinco y seis
fallas en un DLDL recin salido del taller?
De los datos se deduce que p=0,0001; m=1000 ; = = = =m.p = 1000x0,0001 = 0, 1; n=1,2,3,4,5,6
La probabilidad pedida vale pues:
P(m,n,p) =
n
e

/n!
P(1000,n,10
-4
) = (0,1) 0,1)
n
e
0, 0,1 1
/n!
n
n
e

/n!
0 0.904837418
1 0.090483742
2 0.004524187
3 0.000150806
4 3.77016E-06
5 7.54031E-08
6 1.25672E-09
Aplicando la binomial, el resultado para n=2 es p(2) =C
1000,2
(10
-4
)
2
.(1-10
-4
)
998
= 499500.10
-8
. 0,90501=
= 0.004520544. Como se ve, la estadstica de Poisson resulta casi tan exacta como la binomial, a la vez que mucho
ms fcil de calcular.
Ejemplo N2
Una lnea de colectivos tiene un total de 50 coches. Cada unidad debe parar por inconvenientes mecnicos en pro-
medio un da cada 30 das para efectuar reparaciones. El taller cuenta con lugar para atender hasta tres colectivos
simultneamente. Determinar la probabilidad de que en un da haya ms de tres colectivos fuera de servicio, es decir
que haya unidades esperando fuera del taller.
En el caso planteado es p=1/30 ; m=50 ; =mp=5/3
Estadstica de Poisson
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6
n
p
(
n
)
22
La probabilidad de que haya en un instante cualquiera exactamente n colectivos en reparacin es:
P(50,n,1/30) =
n
e

/n! = (5/3)
n
e
-(5/3)
/n!
La probabilidad de que haya hasta n vehculos (1, o 2, o 3,...o n) en taller en un da cualquiera es la suma de la pro-
babilidad de cada caso, de 0 a n, es decir k=1,2...n
n
e

/n!.
Y la probabilidad de que haya ms de n colectivos es la complementaria a la anterior, o sea la probabilidad de que
no haya hasta n coches en taller, es decir {1- k=1,2...n
n
e

/n!}
n
n
e

/n! k=1,2...n
n
e

/n! 1- k=1,2...n
n
e

/n!
0 0,188875603 0,188875603 0,811124397
1 0,314792671 0,503668274 0,496331726
2 0,262327226 0,7659955 0,2340045
3 0,145737348 0,911732848 0,088267152
4 0,060723895 0,972456743 0,027543257
5 0,020241298 0,992698042 0,007301958
6 0,005622583 0,998320624 0,001679376
7 0,00133871 0,999659335 0,000340665
8 0,000278898 0,999938233 6,17674E-05
9 5,16478E-05 0,99998988 1,01197E-05
10 8,60796E-06 0,999998488 1,51171E-06
De la tabla surge que la probabilidad de que en un da cualquiera haya exactamente tres vehculos en reparacin es
0,146. La de que haya hasta tres colectivos en el taller es 0,912 . Y la probabilidad de que haya alguno/s coches
esperando afuera del taller es de 1- 0,912 = 0,088
Estas probabilidades pueden traducirse a frecuencias esperadas, es decir que se esperan 0,088 posibilidades de encontrar cola de espera en el
taller en un da cualquiera . La inversa 1/0,088 =11,36 es el lapso en das en los que se producir en promedio el acontecimiento en cuestin. As
dirn los choferes, bastante enojados: Cada 11 o 12 das en promedio hay alguno que llega con el colectivo descompuesto y tiene que esperar
que se desocupe un lugar en el taller, hasta el da siguiente. Que quede bien claro que esto no significa que cada 11,36 das exactamente hay una
espera fuera del taller: se trata de promedios y bien puede ocurrir que se presenten dos das seguidos con cola, que luego se compensarn con
perodos ms largos que 11,32 das, sin que se produzcan colas.
Cuestin: Qu significa la probabilidad 1-p(3) = 1-0,146 = 0,854? Respuesta: es la probabilidad de que no haya exactamente tres vehculos en
taller: incluye pus los casos en los que hay 0, 1 o 2 o ms de tres.
La distribucin normal de Gauss
Para m y n grandes, la binomial se transforma en la famosa distribucin acampanada que Carl Friedrich Gauss
(1777-1855) aplicara en la teora de errores, y que se basa en el teorema de Jacobo Bernouilli (1655- 1705) que
expondremos a continuacin.
Teorema de Bernouilli
Partiendo pus como antes, de la expresin de la probabilidad binomial P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
. haremos
uso de la formula aproximada de Stirling para el factorial m! (2 m)

m
m
.e
-m
, y tambin, haciendo la suposicin
de que n y (m-n) son tambin nmeros bastante superiores a la unidad, ser adecuado poner n! (2 n)

n
n
.e
-n
. y
tambin (m-n)! (2 (m-n))

(m-n)
(m-n)
.e
-(m-n)
Reemplazadas dichas aproximaciones en la frmula de la binomial resulta:
P(m,n,p) = m!/n!/(m-n)! p
n
q
m-n
= (2 m)

m
m
.e
-m
/[(2 n)

n
n
.e
-n
]/[(2 (m-n))

(m-n)
(m-n)
.e
-(m-n)
]p
n
q
m-n
=
= m

m
m
.e
-m
/ [n

n
n
.e
-n
]/(2 (m-n))

/(m-n)
(m-n)
/e
-(m-n)
p
n
q
m-n
= m

m
m
/(2 (m-n) m)

(p/n)
n
(q/(m-n))
m-n
Llamando a=n , b=m-n es a+b=m la anterior queda:
P(m,n,p) = (m

/(2 ab)

) (mp/a)
a
(mq/b)
b
Ahora bien, teniendo en cuenta que el mximo de probabilidad P
mx
se produce en una binomial cuando n=mp=a y
consecuentemente cuando m.q=m(1-p)=m-mp= m-a =b, entonces a.b= m
2
pq y as resulta P
mx
= (m

/(2 ab)

) =
(1/(2 mpq)

) , pudindose expresar P(m,n,p) en funcin de P


mx
de la siguiente manera:
P(m,a,p)= P
mx
(mp/a)
a
(mq/b)
b
= (1/(2 mpq)

) (mp/a)
a
(mq/b)
b
Fuera del punto de mxima probabilidad, la variable a se puede poner en base un parmetro x tal que
a =mp+m

x y por lo tanto b = m-a = m-mp-m

x = mq-m

x
Resulta as que la nueva variable x=(n mp)/m

, es una medida de la distancia entre n y mp, siendo esta ltima la


media de la distribucin, es decir que x mide la distancia de la abscisa n al centro de la distribucin..
Aplicando logaritmos a A=(mp/a)
a
y B=(mq/b)
b
, se tiene:
Distribucin de Poisson
0
0.2
0.4
0.6
0.8
1
0 2 4 6 8 10
n
p
(
n
)
ln e-l/n! acumulado 1-acumulado
23
log
e
A = a.log
e
(mp/a) = a.log
e
(1-m

x /a) y usando los dos primeros trminos de la serie de potencias del logarit-
mo, a saber log
e
(1-m

/a x) = - m

/a.x - m/2/a
2
.x
2
, queda log
e
A = - m

.x - m/2/a.x
2
log
e
B = b.log
e
(mq/b) = a.log
e
(1+m

x/b) y usando los dos primeros trminos de la serie de potencias del logarit-
mo, a saber log
e
(1+m

/b x) = + m

/b.x - m/2/b
2
.x
2
, queda log
e
B = + m

.x - m/2/b.x
2
log
e
A + log
e
B = -x
2
/2(m/a+m/b) . Ahora bien, si consideramos que las frmulas que estamos deduciendo valen
para m grande, se puede aproximar a=m.p y b=m.q , con lo cual la anterior queda, multiplicando y dividiendo sus
trminos respectivamente por p y q:
log
e
A + log
e
B = -x
2
/2[(pm/p/a)+(qm/q/b)] =-
x
2
/2(1/p+1/q) = -x
2
/2/p/q , de donde
A.B = exp(-x
2
/2/p/q)
Resulta as que P(m,x,p) = P
mx
(mp/a)
a
(mq/b)
b
=
= (1/(2 mpq)

) exp(-x
2
/2/p/q)
Recordando que mpq =
2
es la varianza de la dis-
tribucin, y que x=(n M
1
)/m

es una variable
reducida al centro de la distribucin, podemos ex-
presar la frmula anterior en base a una nueva va-
riable y que reduzca la variable original n al centro
mp y tenga varianza unitaria, haciendo y
2
= x
2
/p/q =
(n M
1
)
2
/(mpq) = (n M
1
)
2
/
2
con lo cual es:
P(y) = (1/(2 )

) exp(-y
2
/2)
En los grficos adjuntos se representan acuerdo al clculo que figura en la planilla, las siguientes funciones para
y=(x M
1
)
2
/
2
con M
1
=8 ;
2
=2
f(x) = (1/(2 )

) exp(-(x M
1
)
2
/
2
/2)
acum f(x) = F(x) =
o

x
f(x).dx
f(y) = (1/(2 )

) exp(-y
2
/2)
acum f(y) = F(y) =
y=-7

y
f(y).dy
y=-

y
f(y).dy
La distribucin normal f(y) proviene, como demuestra el teorema de Bernouilli recin visto, de una distribucin de
pruebas repetidas tipo binomial discreta, cuando tanto el nmero de pruebas m como el de aciertos n tienden a valo-
res muy grandes. En tal caso, la variable y y la funcin de probabilidad f(y) son continuas, es decir que pueden to-
mar valores no slo enteros o fraccionarios sino reales cualesquiera.
La funcin acumulada F(b)-F(a) =
a

b
f(y).dy para y=(x-M
1
)/ , representada por el rea bajo la curva f(y) entre
abscisas y=a e y=b, significa la probabilidad de que el fenmeno de probabilidad p, media M
1
y desvo standard
est entre lmites a y b. La integral f(y).dy no tiene una funcin primitiva F(y) expresable analticamente. Su valor
se calcula por mtodos numricos . Sin embargo, se puede demostrar analticamente que F(- )-F( ) =1, cosa que
era de suponer, ya que ella representa todas las posibilidades de ocurrencia. Por ltimo, digamos que f(y) tiene un
Normal M=8 ,
2
=2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x

funci n de densi dad probabi l i dad acumul ada
Normal reducida M=8 ,
2 2
=2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
-7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8
y = (x- M )/ s
funci n de densi dad probabi l i dad acumul ada
x f[(x-M)/ ) F(x)=acum f(x) y=(x-M)/ f(y) F(y)=acum f(y)
0 6.70491E-05 3.1753E-05 -5.656147143 5E-08 3.18728E-08
1 0.000437106 0.00023311 -4.949040362 2E-06 7.25104E-07
2 0.00221925 0.001352185 -4.24193358 5E-05 1.88613E-05
3 0.008775111 0.006218449 -3.534826799 8E-04 0.000309287
4 0.027022489 0.022777071 -2.827720018 0.007 0.003170799
5 0.064807377 0.066872012 -2.120613237 0.042 0.020647942
6 0.121045855 0.158776275 -1.413506456 0.147 0.087476879
7 0.176076655 0.308713588 -0.706399674 0.311 0.24931995
8 0.199471115 0.500199472 0.000707107 0.399 0.500270043
9 0.175988639 0.691638478 0.707813888 0.311 0.751110289
10 0.12092487 0.841465695 1.414920669 0.147 0.912739735
11 0.064710239 0.933257506 2.12202745 0.042 0.979420296
12 0.026968498 0.97727692 2.829134232 0.007 0.996842507
13 0.008753201 0.993799079 3.536241013 8E-04 0.999692324
14 0.002212603 0.998652247 4.243347794 5E-05 0.999981284
15 0.000435578 0.999767763 4.950454575 2E-06 0.999999311
24
mximo en y=0, es lim
y
f(y)=0, y que es simtrica con respecto al eje de ordenadas, cosa que no slo se deduce
matemticamente al obtener f(y)=f(-y) , sino porque sabemos que como la binomial de la que se deriva, tiende a ser
simtrica en la medida que el nmero de casos m tiende a infinito. Adems debe tenerse presente que la variable
reducida y=(x-M
1
)/ tiene media nula y desvo standard unitario.
Teora de errores
Cuando se efectan varias mediciones de una misma magnitud, se
genera en general una serie de cifras que no coinciden exactamente.
Estas diferencias con el verdadero valor, se deben a varias causas. Por
ejemplo, a errores de operacin: no hacer coincidir bien los orgenes
de la regla y el objeto a medir, o no fijarse bien si el extremo est bien
alineado con una u otra rayita de la regla. Cuando se mide una longi-
tud mayor a la de la regla, se cometen errores si no se alnean debida-
mente las posiciones sucesivas de sta sobre el objeto. Un error de
operacin tpico es el de paralaje: cuando la divisin de la regla est
alineada con una visual no perpendicular a la dimensin que se desea
medir. En general, estos errores (que se llaman sistemticos) se pueden
detectar y corregir o controlar. Sin embargo, se llega a un punto en que
la eliminacin de esos factores sistemticos o controlables, deja un
residuo de errores incontrolables o si se prefiere regidos por lo que
denominamos oportunamente como procesos azarosos . Dichos
errores se llaman accidentales.
Los errores accidentales estn sujetos a las siguientes leyes experimentales:
a) Los errores accidentales son tanto ms frecuentes cunto ms pequeos.
b) Su promedio numrico tiende a cero al aumentar el nmero de observaciones.
c) El nmero de errores superior a cierto nmero es sensiblemente nulo.
Los puntos a), b) y c) anteriores estn contenidos en la afirmacin de que los errores accidentales se distribuyen
segn una funcin normal como la recin estudiada. Por ser Gauss quin descubri semejante cosa, la distribucin
expresada por la frmula de Bernouilli se llama generalmente curva de Gauss.
Ejemplo:
Se efectan ciento noventa y ocho mediciones del largo de un perno, que arrojan los siguiente valores (cm):
19,98 20,25 20,15 19,65 20,09 19,92 20,02 20,11 19,76
20,21 20,18 19,98 19,79 19,98 19,97 19,94 20,19 19,88
20,03 19,96 19,97 19,90 20,04 19,88 20,12 19,95 20,27
19,75 19,83 19,89 20,23 20,04 19,92 20,08 19,97 19,64
20,19 19,83 19,80 19,94 19,90 19,80 19,97 19,94 19,91
19,96 20,16 19,94 20,03 19,73 20,33 20,21 20,01 20,14
19,80 20,09 19,60 20,38 19,84 20,01 19,93 20,09 19,91
19,89 20,34 19,92 19,88 19,93 20,03 20,09 20,07 20,24
19,99 20,02 19,88 19,91 19,95 20,09 19,84 19,98 20,02
20,16 19,91 19,93 20,08 20,16 19,95 19,89 19,77 20,07
19,86 20,14 20,25 19,88 20,10 20,26 20,04 20,08 19,74
19,59 20,08 20,06 20,24 19,86 19,96 20,11 19,92 20,28
20,15 20,11 19,81 20,29 20,20 19,74 19,96 19,93 19,93
19,95 20,03 20,11 20,10 20,21 19,87 19,81 20,13 19,86
20,09 20,21 19,83 19,64 19,90 19,96 20,13 20,18 19,92
19,81 19,86 19,94 19,73 19,97 20,11 19,72 20,02 20,03
19,97 19,57 20,14 20,22 20,28 20,28 20,01 20,12 20,03
20,34 19,86 20,11 19,84 19,79 20,26 19,83 19,97 19,80
19,89 19,91 19,93 19,87 19,82 19,94 20,03 19,71 20,06
20,17 20,29 19,93 19,88 19,85 20,01 20,01 19,97 19,92
20,02 20,01 20,08 20,09 19,94 19,86 20,03 20,24 20,27
20,04 20,08 19,72 20,11 19,74 20,03 20,17 20,06 19,94
La media es M
1
=19,99 cm y el desvo standard = 0,16 cm
A continuacin se representan el histograma real, y la comparacin entre funciones experimental y normal
ERROR DE PARALAJE:
Cunto mide el lpiz?
Comparacin de distribuciones
0
0, 05
0,1
0, 15
0,2
0, 25
0,3
0, 35
0,4
0, 45
-4 -2 0 2 4
variable reducida
Normal Experi mental
Distribucin de mediciones
0
10
20
30
40
50
60
1
9
.
5
5
1
9
.
6
1
9
.
7
1
9
.
8
1
9
.
9
2
0
2
0
.
1
2
0
.
2
2
0
.
3
2
0
.
4
2
0
.
5y
clase
f
r
e
c
u
e
n
c
i
a
DATOS DEL
HISTOGRAMA
Clase Frecuencia
19.55 0
19.6 3
19.7 3
19.8 17
19.9 33
20 48
20.1 44
20.2 26
20.3 20
20.4 4
20.5 0
25
Como se v, ya con 198 mediciones la distribucin real de valores adopta una ley relativamente cercana a la normal.
Para cuantificar esta comparacin, vale el siguiente problema:
Qu probabilidad hay de que alguna medicin caiga afue-
ra de un intervalo a= M
1
- = 19,99-0,16 = 19,83 cm ;
b=M
1
+ = 19,99+0,16 = 20,15 = 19,99+0,16 = 20,15 cm . .
Pasando los lmites a y b a valores de variable reducida,
stos se transforman en:
y
a
= (a-M1) / = -1 y en y
b
= (b-M1) / = +1
Las lneas verticales de los grficos anteriores, marcan
estos lmites.
La solucin analtica a tal problema pasa por calcular la
integral definida
-1

1
f(y).dy (que da la probabilidad de que
la medicin caiga dentro del intervalo ( + ), y restarla
de la unidad, ya que lo que se pide es precisamente la pro-
babilidad de que caiga afuera del intervalo.
Del grfico de arriba sale F(-1) = 0,16 y F(+1) = 0,84, de tal manera es
-1

1
f(y).dy = 0,84- 0,16 = 0,68 y entonces la
probabilidad buscada es 1-0,68 = 0,32
Es decir que si los valores se distribuyeran exactamente en forma normal alrededor del 32 % de ellos estaran fuera
del intervalo ( a +) ). Ahora bien, en los datos del cuadro se cuentan 36 valores mayores que 20.15 cm y 29 me-
nores que 19.83 cm, lo que da una frecuencia de 65/198 = 0,33 = 33% . Si bien algo asimtrica, la distribucin real
coincide casi exactamente con la distribucin normal en el nmero de valores fuera del intervalo.
Poblaciones y muestras
Consideremos ahora que los 198 valores de la tabla anterior no son producto de las medidas de la longitud en cm de
un solo objeto sino que son la coleccin de mediciones sobre 198 objetos distintos, en nuestro caso el dimetro en
mm de pernos del mismo tipo que salen de una mquina automtica durante un cierto lapso. La media resulta enton-
ces de 19,99 mm y el desvo standard es de 0,16 mm
Estamos autorizados a usar la misma serie de antes en este nuevo ejemplo pues la experiencia muestra que se genera
tambin en estos casos una distribucin de tipo Gaussiano, del mismo tipo que la estudiada en los errores de obser-
vacin. Y ello no es de extraar, ya que parecidos factores de azar a los que gobiernan la toma de medidas sucesivas
de un slo objeto son los que tambin afectan las verdaderas medidas de una serie de objetos obtenidos por un pro-
ceso de produccin esencialmente igual, aunque no idntico debido a que tiene desajustes aleatorios en el tiempo.
Igual que en el campo de las mediciones sucesivas, hay aqu factores previsi-
bles, por ejemplo los generados por desgaste de la herramienta de corte, que
seran equivalentes a los errores sistemticos en el campo de las mediciones.
Tambin efectos casuales, anlogos a los errores accidentales y por tanto fuera
del control inmediato. Pertenecen a ste ltimo tipo por ejemplo las diferencias
provenientes del huelgo en el cojinete del plato del torno, o el juego del carro
del portaherramienta. Tambin la granulometra del metal del perno, que condi-
ciona el grado de tersura del maquinado puede considerarse fuente de error
casual. Los mecnicos califican a estas variaciones aleatorias como dentro del
margen de tolerancia del proceso, cuando son inherentes a la precisin de los medios de fabricacin y los materia-
les usados. El valor del intervalo +() = 2 +() = 2 alrededor de la media , que es el que agrupa aproximadamente el
68% de las piezas, tiene que estar en relacin con la tolerancia admitida por las normas de fabricacin.
Los estadsticos consideran que todo lote de elementos del mismo tipo, y/o la coleccin de mediciones correspon-
dientes, pertenecen a una parte o muestra de una poblacin de un nmero prcticamente infinito de elementos que
es total o universo. Por ser ilimitado, se puede considerar al universo con una distribucin normal, por lo que se le
pueden aplicar, en base al principio de los grandes nmeros, las nociones de probabilidad matemtica. En cambio
en las muestras finitas que pueden llegar a representar en mejor o peor medida a ese total prcticamente ilimitado, se
toma a la frecuencia experimental como representante estimado de esa probabilidad.
Normal reducida M=8 ,
2 2
=2
0
0. 1
0. 2
0. 3
0. 4
0. 5
0. 6
0. 7
0. 8
0. 9
1
- 7 - 6 - 5 - 4 - 3 - 2 - 1 0 1 2 3 4 5 6 7 8
y = ( x- M ) / s
funci n de densi dad pr obabi l i dad acumul ada
Huelgos y juegos en un torno como
fuentes de diferencias aleatorias
26
Una muestra del universo se considera representativa del mismo cuando est extrada con una tcnica que no privi-
legie ninguna condicin en especial. Por ejemplo, si se trata de un lote de pernos que yacen en un montn, stos
sern tomados al azar, cuidando que no sean todos de una zona localizada del montn, ni del principio o del final del
perodo si la muestra se toma durante la fabricacin. Esto garantiza que la muestra no reproduzca o contenga infor-
macin sobre una eventual estratificacin por tamao al hacer el montn, o que refleje el estado del equipo que
puede presentar un desajuste progresivo. Si la muestra es de un chorro de material a granel, (por ejemplo maz que
cae desde la noria a un silo) se previene la clasificacin por gravedad que pueda ocurrir en la cada: el flujo se parte
y se recombinan sus partes convenientemente. De una gran cantidad de valores, se elegir la muestra tomando stos
al azar como un extracto de la serie original.
Se comprende que una muestra sea ms representativa del total cunto ms elementos contenga. En el lmite infe-
rior, una muestra de muy pocos individuos puede no contener la informacin mnima necesaria para caracterizar las
propiedades del universo de dnde proviene. Resulta claro as que no escapa el muestreo a los conceptos de la teora
de la informacin de seales.
Las muestras individualmente presentan medias y desvos standard parecidos a los del universo de donde provienen,
tendiendo a estos valores en la medida de que su nmero de elementos aumente.
Media de medias de las muestras
Diversas muestras cuyas medias sean m
mi
, pertenecientes a un mismo universo de media m
1
debern lgicamente
presentar una media de medias igual a m
1
, ya que al agrupar los datos en varios lotes no se cambia el promedio
general. Se puede prever que la distribucin de esas medias individuales es tambin normal, considerando al grupo
de individuos de cada muestra como un elemento (aunque ms complejo) del total, que no escapa a la ley de distri-
bucin de ste.
Desvo standard de la media de las muestras
En cunto a la dispersin de resultados de la media de muestras, se comprende intuitivamente que al ser ella una
condensacin o resumen de la poblacin total, su desvo standard debe ser menor que el de sta. Veremos a conti-
nuacin cunto menos.
Sean f(x) los valores de la densidad de probabilidad para un universo normal, de media m y desvo . Sabemos que
f(x) = (1/(2 )

) exp(-(x m)
2
/
2
/2).
La distribucin de la variable x
i
dentro de una muestra de N elementos de media m
i
y con desvo igual al del uni-
verso, se llama distribucin muestral y vale f(x
i
) = (1/(2 )

) exp(-(x
i
m
i
)
2
/
2
/2).
Considerando que la distribucin de la variable suma de variables x
i
normales es tambin normal, siendo cada va-
riable individual de la forma f(x
i
) = (1/(2 )

) exp(-(x
i
)
2
/
2
/2) (tomando una distribucin centrada es decir con
m
i
=0), y para
i= =1..N
x
i
= N. m
x
se podr tomar como probabilidad de una suma de sucesos independientes el producto
de las probabilidades individuales, esto es f(
i= =1..N
x
i
) = f(x
1
).f(x
2
)....f(x
N
) = [1/(2 )]
N/2
exp(-N.x
i
2
/
2
/2) =
f(N. m
x
) = [1/(2 )]
N/2
exp(-x
i
2
/
2
/2/ N)
Queda demostrado entonces que si estn extradas al azar, el desvo de las medias m
x
de muestras de N elementos es

m
= /N

, siendo el desvo de la poblacin total.


A continuacin figuran las 22 medias de los 198 valores tomados en muestras de nueve valores cada una. La media
de las medias muestrales resulta por supuesto igual a la media de la poblacin total, esto es 19,993. El desvo stan-
dard resulta 0,0521, es decir aproximadamente tres veces menor que el de la poblacin total (0.1622/9 = 0.054).
20.01209877 20.00123457 19.97037037 19.99876543 19.89074074 20.02901235
19.98703704 20.00555556 19.99074074 19.98518519 20.07592593 19.95123457
20.05308642 20.01419753 19.97901235 19.89506173 20.0691358 20.0037037
19.87839506 20.01975309 20.02222222 20.02530864 19.99353535 0.052150056
La distribucin de las medias que se ve en el histograma adjunto dista
bastante de una normal, posiblemente debido a que las muestras no contie-
nen un nmero suficiente de elementos (Veremos luego que se consideran
muestras chicas las menores de 30 individuos y son objeto de estadsticas
especiales). Sin embargo, se nota que toda la poblacin de medias va de un
mnimo de 19.88 cm a un mximo 20.08, es decir que abarca 0.2 cm,
mientras que la poblacin total va desde un mnimo de 19.57 a un mximo
de 20.38 , es decir que abarca un rango de valores mucho mayor (0,81 cm).
0
1
2
3
4
5
6
7
1
9
.8
6
1
9
.8
8
1
9
.9
0
1
9
.9
2
1
9
.9
4
1
9
.9
6
1
9
.9
8
2
0
.0
0
2
0
.0
2
2
0
.0
4
2
0
.0
6
2
0
.0
8
y
m
a
y
o
r
.
.
.
clase
f
r
e
c
u
e
n
c
i
a
27
Media y varianza de una suma de variables aleatorias independientes
Sean dos variables independientes u y v , de medias m
u
= 1/N
u
u
i
, m
v
=1/N
v
v
i
y desvos standard
u
,
v
. Consi-
deremos la variable suma w
i
=(u
i
+v
i
), con N
u
+N
v
=N y con momento de primer orden:
M
1w
=m
w
N= w
i
= (u
i
+v
i
)

= u
i
+ v
i
La media de al variable suma w=(u+v) es m
w
= (u
i
+v
i
)/(N
u
+N
v
) = (u
i
+v
i
)/N =1/N (m
u
N
u
+ m
v
N
v
)
En cunto a la varianza de la variable suma w,
consideremos el siguiente:
Ejemplo:
De una fbrica de masas se extraen dos muestras
iguales de obleas y porciones de dulce, que irn a
formar masitas constituidas por una oblea o ga-
lletita y una capa de dulce. Los resultados del
muestreo se presentan en el cuadro y grfico de
distribuciones adjuntos.
Se comprende que la suma de las medias del lote
de porciones de dulce y la media del lote de
obleas d exactamente la media del lote de masi-
tas, ya que de acuerdo a lo demostrado antes es: m
m
= (m
o
N
o
+m
d
N
d
)/N, y siendo en este caso N
o
=N
d
=N, resulta
m
m
=m
o
+m
d
Los valores de los pesos del lote de obleas tienen una varianza
o
2
y la del
lote de dulce es
d
2
.Qu se puede esperar de la varianza
m
2
de la masita
en conjunto? Imaginemos dos cuerpos slidos rgidos unidos por un eje
que pase por ambos centros de gravedad. El slido resultante tendr un
momento de inercia con respecto a ese eje que es la suma de los momentos
de cada cuerpo por separado. En este caso, los elementos o partculas de
cada cuerpo mantienen su posicin e identidad.
Covarianza:
En cambio, dos poblaciones de N elementos cada una, producen al sumar
pares de elementos homlogos (x
i
y
i
) una tercera poblacin de elementos
z
i
=x
i
+y
i
cuyo momento de segundo orden con respecto a la suma de me-
dias m
xy
=m
x
+m
y
vale (z
i
-m
xy
)
2
= (x
i
-m
x
+y
i
-m
y
)
2
= (x
i
-m
x
)
2
+ (y
i
-m
y
)
2
+
+2. (x
i
-m
x
)(y
i
-m
y
), que

no coincide en general con la suma de los mo-
mentos centrados de segundo orden (x
i
-m
x
)
2
+ (y
i
-m
y
)
2
de cada una de
las poblaciones originales, salvo para el caso de ser (x
i
-m
x
)(y
i
-m
y
)=0.
Este trmino, anlogo a lo que en mecnica se llama momento centrfugo
con respecto a m
x
y m
y
, dividido por N da, en el mbito de la estadstica,
la covarianza entre variables x e y, indicador del grado de relacin que
existe entre dichas variables. Una covarianza positiva indica proporciona-
lidad entre series de x
i
e y
i,
de manera de que a mayor x estadsticamente
corresponde mayor y , y una covarianza negativa seala que a mayor x
corresponde en general menor y.
Que la covarianza sea pequea en valor absoluto, o en particular nula, significa que para cada
par de orden k haya otro j tal que (xk-mx)(yk-my) -[(xj-mx)(yj-my)], es decir que los ele-
mentos homlogos se dispongan simtricamente a cada lado de la media, cosa que tiende a
cumplirse estadsticamente en muestras grandes de poblaciones con distribuciones simtricas
e independientes.
Recordando que la varianza es igual al momento de segundo orden centra-
do dividido N, la varianza de la poblacin compuesta tender a la suma de las varianzas individuales de las compo-
nentes en la medida que la covarianza de ambas series tienda a ser nula, lo que indica que las variables son indepen-
dientes.
De los datos de la tabla surge que la varianza de la poblacin de masas
m
2
= 3257129 no es exactamente igual a la
suma de la de la oblea
o
2
y la del dulce
d
2
: 867484 + 3012522 = 3880006 . La diferencia (en este caso del 16%)
Distribucin de masitas
0
5
10
15
20
25
0
1
0
0
0
0
2
0
0
0
0
3
0
0
0
0
4
0
0
0
0
5
0
0
0
0
6
0
0
0
0
7
0
0
0
0
peso (mg)
f
r
e
c
u
e
n
c
i
a
obleas dulce masita
oblea dulce masita
31426.7 21628.1 53054.8
32154.6 22448.2 54602.8
30401.9 18908.1 49310
30253.7 21708 51961.7
30670.2 21413.8 52084
32935.9 18223.4 51159.3
30745.9 23799.2 54545.1
31167.6 21182.4 52350
31988.2 19770.8 51759
30593.9 22304 52897.9
32468.5 18547.2 51015.7
33062.3 23874.9 56937.2
30191 20177.2 50368.2
31120.8 23310.2 54431
31066.5 18317.8 49384.3
32867.2 20911.4 53778.6
31634.9 22050.3 53685.2
32614.2 23395.5 56009.7
32291.2 21998 54289.2
30935.2 19300 50235.2
31693.9 19231.8 50925.7
30959.1 20772.6 51731.7
31438.6 20667.3 52105.9
33426.1 18471.9 51898
32044.6 22602.8 54647.4
31280 19183.9 50463.9
32842 18657.7 51499.7
32514.3 22454.5 54968.8
30481.1 21097.8 51578.9
31380.3 23020.1 54400.4
31520 19149.3 50669.3
30785.7 20377.7 51163.4
33005.2 18784.3 51789.5
32006.9 18263.8 50270.7
32256.2 18726.6 50982.8
30143.2 21457.6 51600.8
30268 22326.9 52594.9
30836.9 21752.6 52589.5
32092.5 21388.4 53480.9
desvo st. 931.39 1735.66 1804.75
varianza 867484 3012522 3257129
media 31578.6 20811.7 52390.3
28
est relacionada con la covarianza relativamente elevada (del orden de 300000) de las series de datos elegidas. Va-
riando el orden de los valores de las columnas, o sea formando otras parejas oblea-dulce, se obtienen diferencias a
veces mayores, menores, positivas y negativas. Tambin, repitiendo el muestreo, se obtienen una serie de diferen-
cias sucesivas en ms y en menos cuyo promedio tiende a cero a medida que aumentan las pruebas.
Simulado varios muestreos con una planilla de clculo, se han obtenido las siguientes diferencias porcentuales:
-22,73 -8,38 -14,68 -15,99 11,26 4,30 -17,43 10,38 9,22 -0,08 4,55 4,78 -24,02 5,95 -10,33 20,01 8,27, cuyo pro-
medio es -2,054. En el histograma correspondiente a esta distribucin de diferencias se ha marcado una curva de
cuarto grado que pasa cerca de todos los puntos y los aproxima a una funcin acampanada tpica. Si el lector perse-
vera con esta lectura ver oportunamente cmo se obtiene una curva as, que pasa por entre los puntos aproximndo-
se lo ms posible, mediante un procedimiento llamado de regresin.
La relacin lineal entre diferencia de desvos y covarianza
de las series muestrales se puede observar en el grfico de
ms abajo. Ntese que la densidad de puntos representativos
de las observaciones muestrales, es mayor al acercarse al
origen, ya que esa densidad est medida por la frecuencia en
el intervalo.
Varianza de una resta de variables independientes
Del mismo modo que para la suma de distribuciones, la va-
rianza de una distribucin que es diferencia entre otras dos
independientes entre s, tiende estadsticamente a resultar
igual a la diferencia entre varianzas. Por ejemplo, la varianza
de la oblea tiende a ser igual a la de la masita menos la del
dulce:
o
2
= =
m
2
-
d
2
Varianza de una muestra
En base a lo recin visto, estamos en condiciones de revisar la
frmula de la varianza de una muestra de N elementos, a
saber s
2
= (x
i
-m)
2
/N . En dicha expresin m es la media de la
muestra, y no la de la poblacin total , cuyo valor exacto
desconocemos. Por ello decimos que s es una estimacin del
desvo standard de la muestra de N elementos, que en general no coincide con el verdadero valor de la varianza
poblacional
2
= (x
i
- )
2
/N. Se verifica que (x
i
-m) = (x
i
- ) (m- ), de tal manera que la variancia de (x
i
-m) puede
aproximarse a la diferencia entre la variancia de (x
i
- ) y la variancia de la media muestral (m- ), ya que ambas
variables son independientes entre s. Resulta entonces que s
2
=
2
-
m
2
.
Pero ya vimos que
m
2
=
2 2
/N , as que (x
i
-m)
2
/N
2

2 2
/N , de donde
2
(1-1/N) (x
i
-m)
2
/N , y de all se
deduce la frmula
2
(x
i
-m)
2
/(N-1)
Aclaramos que los clculos de las varianzas de las planillas anteriores se han tomado los valores de
2
y no de s
2
, es decir que se ha tenido en
cuenta la correccin del estimador recin explicada.
-o-o-o-
Frecuencia de las diferencias entre sumas de varianzas y
varianzas de la suma de distribuciones
-2
0
2
4
6
8
10
-37 -27 -17 -7 3 13 23 33 43
Diferencia porcentual entre desvos en funcin de la
covariancia para varias series de obleas y dulce
-60
-40
-20
0
20
40
-
8
,
E
+
0
5
-
6
,
E
+
0
5
-
4
,
E
+
0
5
-
2
,
E
+
0
5
0
,
E
+
0
0
2
,
E
+
0
5
4
,
E
+
0
5
6
,
E
+
0
5
8
,
E
+
0
5
1
,
E
+
0
6
covariancia
d
i
f
e
r
e
n
c
i
a

e
n
t
r
e

d
e
s
v

o
s

You might also like