You are on page 1of 27

UNIVERSIDAD RURAL DE GUATEMALA

Lic. Rene Estrada


Curso: Estadística
Estudiante: Dayana María Fernanda Arriaza Sánchez
Carne: 170530031
Derecho Quinto Semestre
ÍNDICE
Contenido

INTRODUCCIÓN ................................................................................................................................... 3
Probabilidad ........................................................................................................................................ 4
Probabilidad Condicionada ................................................................................................................. 6
Espacio Muestral ................................................................................................................................. 7
Prueba De Hipótesis .......................................................................................................................... 11
Prueba T ............................................................................................................................................ 12
Prueba F ............................................................................................................................................ 14
Prueba Chi Cuadrada ......................................................................................................................... 15
Prueba Binomial ................................................................................................................................ 16
Distribución de Poisson ..................................................................................................................... 17
Intervalo De Confianza ...................................................................................................................... 22
Prueba Z ............................................................................................................................................ 24
Población Y Muestra ......................................................................................................................... 25
INTRODUCCIÓN
La estadística es el estudio de los modos de recolectar y analizar datos con
el fin de establecer conclusiones acerca del medio del cual se han obtenido los
datos. a es la ciencia que trata sobre la toma, organización recopilación,
presentación y análisis de datos para deducir conclusiones sobre ellos y para
tomar decisiones que estén de acuerdo con los análisis efectuados.
Probabilidad
La probabilidad es simplemente qué tan posible es que ocurra un evento
determinado.
Cuando no estamos seguros del resultado de un evento, podemos hablar de la
probabilidad de ciertos resultados: qué tan común es que ocurran. Al análisis de
los eventos gobernados por la probabilidad se le llama estadística.

El mejor ejemplo para entender la probabilidad es echar un volado:


Hay dos posibles resultados: águila o sol.
¿Cuál es la probabilidad de que caiga águila? La podemos encontrar al usar la
ecuación P(A) = ?P(A)=?P, left parenthesis, A, right parenthesis, equals, question
mark, y tal vez, intuitivamente, sepas que la probabilidad es mitad y mitad, o sea
50%. ¿Pero cómo podemos resolver eso? Probabilidad =

La fórmula para calcular la probabilidad de ciertos resultados de un evento


En este caso:

La probabilidad de echar un volado y que caiga águila


Probabilidad de un evento = (# de maneras en las que puede suceder) /
(número total de resultados)
P(A) = (# de maneras en las que A puede suceder) / (número total de resultados)
Ejemplo 1
Hay seis resultados distintos.

Distintos resultados al tirar un dado


¿Cuál es la probabilidad de sacar un uno?
La fórmula de la probabilidad de sacar un '1' al tirar un dado
¿Cuál es la probabilidad de sacar un uno o un seis?

La probabilidad de sacar un 1 o un 6 al tirar un dado


Usando la fórmula de arriba:

La aplicación de la fórmula de la probabilidad


¿Cuál es la probabilidad de sacar un número par (es decir, sacar un dos, un cuatro
o un seis)?
Probabilidad Condicionada

Como la probabilidad está ligada a nuestra ignorancia sobre los resultados de la


experiencia, el hecho de que ocurra un suceso, puede cambiar la probabilidad de
los demás. El proceso de realizar la historia clínica, explorar y realizar pruebas
complementarias ilustra este principio.
La probabilidad de que ocurra el suceso A si ha ocurrido el suceso B se
denomina probabilidad condicionada y se define

Esta definición es consistente, es decir cumple los axiomas de probabilidad.

Cuando ocurre un suceso cambia el espacio muestral, por eso cambia la


probabilidad. A veces es más fácil calcular la probabilidad condicionada teniendo
en cuenta este cambio de espacio muestral.

Ejemplo

Una mujer es portadora de la enfermedad de Duchenne ¿Cuál es la probabilidad


de que su próximo hijo tenga la enfermedad?

Según las leyes de Mendel, todos los posibles genotipos de un hijo de una madre
portadora (xX) y un padre normal (XY) son xX, xY, XX, XY y tienen la misma
probabilidad. El espacio muestral es = {xX, xY, XX, XY}
el suceso A={hijo enfermo} corresponde al genotipo xY, por tanto, según
la definición clásica de probabilidad

p(A) = 1/4 = 0,25

La mujer tiene el hijo y es varón ¿qué probabilidad hay de que tenga la


enfermedad?
Se define el suceso B = {ser varón} = {xY, XY}
la probabilidad pedida es p(A|B) y aplicando la definición anterior
p(B) = 0,5; A B = {xY}; p(A B) = 0,25; p(A|B) = 0,25/0,5 = 0,5

Si sabemos que es varón, el espacio muestral ha cambiado, ahora es B. Por lo


tanto se puede calcular p(A|B) aplicando la definición clásica de probabilidad al
nuevo espacio muestral

p(A|B) = 1/2 = 0,5

Espacio Muestral

En cualquier experimento aleatorio la primera cosa que nos preguntamos es sobre


lo que puede pasar. ¿Qué resultados puede ofrecer y cuáles no?
Sería muy interesante disponer de todo el abanico de posibles resultados. En este
sentido, al conjunto formado por todos los posibles resultados elementales de un
experimento aleatorio se le denomina espacio muestral de dicho experimento.
Dependiendo de cómo sea este conjunto, los espacios muestrales pueden ser:

 Espacio muestral discreto finito. Consta de un número finito de


elementos, por ejemplo lanzar un dado.
 Espacio muestral discreto infinito. Consta de un número infinito
numerable de elementos, por ejemplo lanzar un dado hasta que salga
un cinco.
 Espacio muestral continuo. Consta de un número infinito no
numerable de elementos, por ejemplo todas las medidas posibles de
espárragos extraidos aleatoriamente de una población.
Consideremos por ejemplo:

1. El experimento consistente en el lanzamiento de un dado y anotar el resultado


de la cara superior. El espacio muestral sería:
E={ 1 , 2 , 3 , 4 , 5 , 6 }
2. El experimento consistente en el lanzamiento de dos monedas al aire. El
espacio muestral o conjunto de todos los resultados elementales posibles
sería:
E = { CCC , CCF , CFC , FCC , CFF , FCF , FFC , FFF}

3. El experimento consistente en elegir aleatoriamente cualquier número de tres


cifras mediante la extracción con reemplazamiento de bolas de una urna en la
que aparecen las diez cifras significativas. En este caso el espacio muestral
sería:
E = { 000 , 001 ,................... , 999 }

4. El experimento consistente en el lanzamiento de dos dados de los que


después se escogera la mejor de las puntuaciones. El espacio muestral sería:
E=[ 1 , 2 , 3 , 4 , 5 , 6 ]

5. El experimento consistente en abrir aleatoriamente un libro y anotar después


la primera letra de la página de la izquierda. El espacio muestral en este caso
sería:
E = { A , B , ................. , Z}

Los ejemplos que podrían exponerse son innumerables y seguro que ya estás
pensando en diversas situaciones. No obstante, de partida, queremos que te fijes
ey pienses en lo que te vamos a exponer. Observa el ejemplo (1) y el (4), el
espacio muestral es el mismo, pero ¿puede considerarse el mismo?, esto es, los
sucesos que aparecen sí son los mismos pero la ocurrencia de cada suceso en el
experimento (1) no tiene el mismo comportamiento que la ocurrencia de cada
suceso en el experimento (4) ¿No te parece?

Teoría axiomática de la probabilidad

Una ley de probabilidad , o distribución de probabilidad, es una función que a

un evento asocia un número , su probabilidad. Este número traduce la


oportunidad que tiene el evento de producirse. La forma más intuitiva de definir
una tal función es repetir el experimento aleatorio y asociar a cada evento

su frecuencia experimental. . Si es el número de experimentos, el número


de veces que se produce el evento , la frecuencia experimental de es la

razón . Aquí tenemos, como ejemplo, repeticiones de un experimento


cuyas eventualidades son 0, y .
En este ejemplo la frecuencia experimental de es , la

de es . El inconveniente es que la frecuencia experimental


cambiará si rehacemos los experimentos. En otras palabras el conjunto de
las repeticiones constituye un nuevo experimento aleatorio. Sin embargo todos
tenemos en nuestra mente una idea de la Ley de los Grandes Números según la
cual las frecuencias experimentales varían poco cuando el número de repeticiones
es grande. Veamos cuatro cálculos sucesivos de la frecuencia experimental

de , en repeticiones del mismo experimento anterior.

Las propiedades que esperamos de una ley de probabilidad son las mismas que
las de las frecuencias experimentales. Las consideraremos como los axiomas de
la definición.

A1

Para todo evento , .


A2

La probabilidad del evento cierto es : .


A3

Si es una sucesión de eventos disjuntos dos a dos ( y no

pueden suceder a la vez si ), entonces:

Una consecuencia inmediata de los axiomas A2 y A3 es la relación entre la


probabilidad de un evento y la de su opuesto, denotado .
Una ley de probabilidad es creciente por inclusión, según A1 y A3: si ,

entonces .

Las leyes de probabilidad que se emplean en la práctica son de dos tipos


particulares, las leyes discretas y las leyes continuas.

1. Leyes discretas
El conjunto de las eventualidades es finito o numerable:

Todas las partes de son eventos. Como todo evento es una reunión finita o
numerable de eventos individuales o aislados (singleton), es suficiente definir la
probabilidad de cada singleton:

Para todo , la probabilidad de será entonces determinada por A3:

Ejemplo: Si el conjunto de los resultados es finito y si no hay


información que nos permita diferenciar unos resultados de otros, es natural

asociar a cada eventualidad la probabilidad . La probabilidad de todo

evento es entonces Card .

Esta probabilidad particular se llama la equiprobabilidad. En este caso todos los


cálculos se convierten en contar:

Probabilidad
Prueba De Hipótesis

Una prueba de hipótesis es una regla que especifica si se puede aceptar o


rechazar una afirmación acerca de una población dependiendo de la evidencia
proporcionada por una muestra de datos.

Una prueba de hipótesis examina dos hipótesis opuestas sobre una población: la
hipótesis nula y la hipótesis alternativa. La hipótesis nula es el enunciado que se
probará. Por lo general, la hipótesis nula es un enunciado de que "no hay efecto" o
"no hay diferencia". La hipótesis alternativa es el enunciado que se desea poder
concluir que es verdadero de acuerdo con la evidencia proporcionada por los
datos de la muestra.

Con base en los datos de muestra, la prueba determina si se puede rechazar la


hipótesis nula. Usted utiliza el valor p para tomar esa decisión. Si el valor p es
menor que el nivel de significancia (denotado como α o alfa), entonces puede
rechazar la hipótesis nula.

Un error común de percepción es que las pruebas estadísticas de hipótesis están


diseñadas para seleccionar la más probable de dos hipótesis. Sin embargo, al
diseñar una prueba de hipótesis, establecemos la hipótesis nula como lo que
queremos desaprobar. Puesto que establecemos el nivel de significancia para que
sea pequeño antes del análisis (por lo general, un valor de 0.05 funciona
adecuadamente), cuando rechazamos la hipótesis nula, tenemos prueba
estadística de que la alternativa es verdadera. En cambio, si no podemos rechazar
la hipótesis nula, no tenemos prueba estadística de que la hipótesis nula sea
verdadera. Esto se debe a que no establecimos la probabilidad de aceptar
equivocadamente la hipótesis nula para que fuera pequeña.

Entre las preguntas que se pueden contestar con una prueba de hipótesis están
las siguientes:

 ¿Tienen las estudiantes de pregrado una estatura media diferente de 66


pulgadas?
 ¿Es la desviación estándar de su estatura igual a o menor que 5 pulgadas?
 ¿Es diferente la estatura de las estudiantes y los estudiantes de pregrado en
promedio?
 ¿Es la proporción de los estudiantes de pregrado significativamente más alta que
la proporción de las estudiantes de pregrado?

Prueba T

En estadística, una prueba t de Student, prueba t de estudiante, o Test-T es


cualquier prueba en la que el estadístico utilizado tiene una distribución t de
Student si la hipótesis nula es cierta. Se aplica cuando la población estudiada
sigue una distribución normal pero el tamaño muestral es demasiado pequeño
como para que el estadístico en el que está basada la inferencia esté
normalmente distribuido, utilizándose una estimación de la desviación típica en
lugar del valor real. Es utilizado en análisis discriminante.

Usos

Entre los usos más frecuentes de las pruebas t se encuentran:


 El test de posición de muestra única por el cual se comprueba si la media de
una población que se conoce posee una distribución normal, tiene un valor
especificado en una hipótesis nula.

 El test de posición para dos muestras, por el cual se comprueba si


las medias de dos poblaciones distribuidas en forma normal son iguales.
Todos estos test son usualmente llamados test t de Student, a pesar de que
estrictamente hablando, tal nombre sólo debería ser utilizado si
las varianzas de las dos poblaciones estudiadas pueden ser asumidas como
iguales; la forma de los ensayos que se utilizan cuando esta asunción se deja
de lado suelen ser llamados a veces como Prueba t de Welch. Estas pruebas
suelen ser comúnmente nombradas como pruebas t desapareadas o
de muestras independientes, debido a que tienen su aplicación más típica
cuando las unidades estadísticas que definen a ambas muestras que están
siendo comparadas no se superponen.

 El test de hipótesis nula por el cual se demuestra que la diferencia entre dos
respuestas medidas en las mismas unidades estadísticas es cero. Por
ejemplo, supóngase que se mide el tamaño del tumor de un paciente con
cáncer. Si el tratamiento resulta efectivo, lo esperable sería que el tumor de
muchos pacientes disminuyera de tamaño luego de seguir el tratamiento. Esto
con frecuencia es referido como prueba t de mediciones apareadas o
repetidas.
El test para comprobar si la pendiente de una regresión lineal difiere
estadísticamente de cero.

Estadísticos T y Z

La mayor parte de las pruebas estadísticas t tienen la forma , donde Z y s son


funciones de los datos estudiados. Típicamente, Z se diseña de forma tal que
resulte sensible a la hipótesis alternativa (p.ej. que su magnitud tienda a ser mayor
cuando la hipótesis alternativa es verdadera), mientras que s es un parámetro de
escala que permite que la distribución de T pueda ser determinada.

Por ejemplo, en una prueba t de muestra única, , donde es la media


muestral de los datos, n es el tamaño muestral, y σ es la desviación estándar de la

población de datos; s en una prueba de muestra única es , donde es la


desviación estándar muestral.
Las suposiciones subyacentes en una prueba t son:

 Que Z sigue una distribución normal bajo la hipótesis nula.


 ps2 sigue una distribución χ2 con p grados de libertad bajo la hipótesis nula, y
donde p es una constante positiva.
 Z y s son estadísticamente independientes.
En una prueba t específica, estas condiciones son consecuencias de la población
que está siendo estudiada, y de la forma en que los datos han sido muestreados.
Por ejemplo, en la prueba t de comparación de medias de dos muestras
independientes, deberíamos realizar las siguientes suposiciones:

 Cada una de las dos poblaciones que están siendo comparadas sigue una
distribución normal. Esto puede ser demostrado utilizando una prueba de
normalidad, tales como una prueba Shapiro-Wilk o Kolmogórov-Smirnov, o
puede ser determinado gráficamente por medio de un gráfico de cuantiles
normales Q-Q plot.

 Si se está utilizando la definición original de Student sobre su prueba t, las dos


poblaciones a ser comparadas deben poseer las mismas varianzas, (esto se
puede comprobar utilizando una prueba F de igualdad de varianzas,
una prueba de Levene, una prueba de Bartlett, o una prueba Brown-Forsythe,
o estimarla gráficamente por medio de un gráfico Q-Q plot). Si los tamaños
muestrales de los dos grupos comparados son iguales, la prueba original de
Student es altamente resistente a la presencia de varianzas desiguales. 7
La Prueba de Welch es insensible a la igualdad de las varianzas,
independientemente de si los tamaños de muestra son similares.

 Los datos usados para llevar a cabo la prueba deben ser muestreados
independientemente para cada una de las dos poblaciones que se comparan.
Esto en general no es posible determinarlo a partir de los datos, pero si se
conoce que los datos han sido muestreados de manera dependiente (por
ejemplo si fueron muestreados por grupos), entonces la prueba t clásica que
aquí se analiza, puede conducir a resultados erróneos.

Prueba F

En estadística se denomina prueba F de Snedecor a cualquier prueba en la que


el estadístico utilizado sigue una distribución F si la hipótesis nula no puede ser
rechazada. El nombre fue acuñado en honor a Ronald Fisher.

 La hipótesis de que las medias de múltiples poblaciones normalmente


distribuidas y con la misma desviación estándar son iguales. Esta es, quizás, la
más conocida de las hipótesis verificada mediante el test F y el problema más
simple del análisis de varianza.

 La hipótesis de que las desviaciones estándar de dos poblaciones


normalmente distribuidas son iguales, lo cual se cumple.
En muchos casos, el test F puede resolverse mediante un proceso directo. Se
requieren dos modelos de regresión, uno de los cuales restringe uno o más de los
coeficientes de regresión conforme a la hipótesis nula. El test entonces se basa en
un cociente modificado de la suma de cuadrados de residuos de los dos modelos
como sigue:
El estadístico F puede calcularse como
Donde:

se refiere al coeficiente de determinación del modelo sin restringir ( )

se refiere al coeficiente de determinación del modelo restringido ( )

se refiere al número de restricciones impuestas a los coeficientes


estimados (coficientes restringidos).

se refiere al número de coeficientes estimados en el modelo sin


restricciones.

se refiere al número de observaciones del modelo.


El valor resultante debe entonces compararse con el valor correspondiente de
la tabla de valores críticos.

Si ; rechazo el modelo restringido.

Prueba Chi Cuadrada

Una prueba de chi-cuadrada es una prueba de hipótesis que compara la


distribución observada de los datos con una distribución esperada de los datos.
Existen varios tipos de pruebas de chi-cuadrada:
Prueba de bondad de ajuste de chi-cuadrada
Utilice este análisis para probar qué tan bien una muestra de datos
categóricos se ajusta a una distribución teórica.

Por ejemplo, usted puede comprobar si un dado es justo, lanzando el dado


muchas veces y utilizando una prueba de bondad de ajuste de chi-cuadrada
para determinar si los resultados siguen una distribución uniforme. En este
caso, el estadístico de chi-cuadrada cuantifica qué tanto varía la distribución
observada de los conteos con respecto a la distribución hipotética.

Pruebas de chi-cuadrada de asociación e independencia


Los cálculos para estas pruebas son iguales, pero la pregunta que se está
tratando de contestar puede ser diferente.

 Prueba de asociación: Utilice una prueba de asociación para


determinar si una variable está asociada a otra variable. Por ejemplo,
determine si las ventas de diferentes colores de automóviles
dependen de la ciudad donde se venden.
 Prueba de independencia: Utilice una prueba de independencia para
determinar si el valor observado de una variable depende del valor
observado de otra variable. Por ejemplo, determine si el hecho de
que una persona vote por un candidato no depende del sexo del
elector.

Prueba Binomial

La prueba binomial analiza variables dicotómicas y compara las frecuencias


observadas en cada categoría con las que cabría esperar según una distribución
binomial de parámetro especificado en la hipótesis nula tal como se ha
explicado en elcapítulo anterior *.

La secuencia para realizar este contraste es:

Analizar

Pruebas no paramétricas

Binomial

En el cuadro de diálogo se debe seleccionar la variable en Contrastar variables e


indicar la proporción postulada en la hipótesis nula en Contrastar proporción.

Distribución de Poisson

Esta distribución es una de las más importantes distribuciones de variable


discreta. Sus principales aplicaciones hacen referencia a la modelización de
situaciones en las que nos interesa determinar el número de hechos de cierto tipo
que se pueden producir en un intervalo de tiempo o de espacio, bajo presupuestos
de aleatoriedad y ciertas circunstancias restrictivas. Otro de sus usos frecuentes
es la consideración límite de procesos dicotómicos reiterados un gran número de
veces si la probabilidad de obtener un éxito es muy pequeña .

Proceso experimental del que se puede hacer derivar

Esta distribución se puede hacer derivar de un proceso experimental de


observación en el que tengamos las siguientes características
· Se observa la realización de hechos de cierto tipo durante un cierto periodo de
tiempo o a lo largo de un espacio de observación

· Los hechos a observar tienen naturaleza aleatoria ; pueden producirse o no de


una manera no determinística.

· La probabilidad de que se produzcan un número x de éxitos en un intervalo de


amplitud t no depende del origen del intervalo (Aunque, sí de su amplitud)

· La probabilidad de que ocurra un hecho en un intervalo infinitésimo es


prácticamente proporcional a la amplitud del intervalo.

· La probabilidad de que se produzcan 2 o más hechos en un intervalo infinitésimo


es un infinitésimo de orden superior a dos.

En consecuencia, en un intervalo infinitésimo podrán producirse O ó 1 hecho pero


nunca más de uno

· Si en estas circunstancias aleatorizamos de forma que la variable aleatoria X


signifique o designe el "número de hechos que se producen en un intervalo de
tiempo o de espacio", la variable X se distribuye con una distribución de
parámetro l . Así :

El parámetro de la distribución es, en principio, el factor de proporcionalidad


para la probabilidad de un hecho en un intervalo infinitésimo. Se le suele designar
como parámetro de intensidad , aunque más tarde veremos que se corresponde
con el número medio de hechos que cabe esperar que se produzcan en un
intervalo unitario (media de la distribución); y que también coincide con la varianza
de la distribución.

Por otro lado es evidente que se trata de un modelo discreto y que el campo de
variación de la variable será el conjunto de los número naturales, incluido el
cero:

Función de cuantía

A partir de las hipótesis del proceso, se obtiene una ecuación diferencial de


definición del mismo que puede integrarse con facilidad para obtener la función de
cuantía de la variable "número de hechos que ocurren en un intervalo unitario de
tiempo o espacio "

Que sería : ir a
programa de cálculo
Cuya representación gráfica para un modelo de media 11 sería la adjunta .
Obsérvense los valores próximos en la media y su forma parecida a la campana
de Gauss , en definitiva , a la distribución normal

La función de distribución vendrá dada por :

Función Generatriz de Momentos

Su expresión será :

dado que tendremos

que

luego :

Para la obtención de la media y la varianza aplicaríamos la F.G.M.; derivándola


sucesivamente e igualando t a cero .
Así.

Una vez obtenida la media , obtendríamos la varianza en base


a:

haciendo t = 0

por lo que =

así se observa que media y varianza coinciden con el


parámetro del modelo siendo , l

En cuanto a la moda del modelo tendremos que será el valor de la variable que
tenga mayor probabilidad , por tanto si Mo es el valor modal se cumplirá que
:

Y, en particular:

A partir de estas dos desigualdades, es muy sencillo probar que la moda tiene
que verificar: De manera que la moda será la parte entera del
parámetro l o dicho de otra forma, la parte entera de la media

Podemos observar cómo el intervalo al que debe pertenecer la moda tiene una
amplitud de una unidad , de manera que la única posibilidad de que una
distribución tenga dos modas será que los extremos de este intervalo sean
números naturales, o lo que es lo mismo que el parámetro l sea entero, en cuyo
caso las dos modas serán l -1 y l .
Teorema de adición.

La distribución de Poisson verifica el teorema de adición para el parámetro l .

"La variable suma de dos o más variables independientes que tengan una
distribución de Poisson de distintos parámetros l (de distintas medias) se
distribuirá, también con una distribución de Poisson con parámetro l la suma de los
parámetros l (con media, la suma de las medias) :

En efecto:

Sean x e y dos variables aleatorias que se distribuyen con dos distribuciones de


Poisson de distintos parámetros siendo además x e y independientes

Así e

Debemos probar que la variable Z= x+y seguirá una Poisson con parámetro
igual a la suma de los de ambas:

En base a las F.G.M para X

Para Y

De manera que la función generatriz de momentos de Z será el producto de


ambas ya que son independientes

Siendo la F.G.M de una


Poisson

Convergencia de la distribución binomial a la Poisson

Se puede probar que la distribución binomial tiende a converger a la


distribución de Poisson cuando el parámetro n tiende a infinito y el parámetro p
tiende a ser cero, de manera que el producto de n por p sea una cantidad
constante. De ocurrir esto la distribución binomial tiende a un modelo de Poisson
de parámetro l igual a n por p

Este resultado es importante a la hora del cálculo de probabilidades , o , incluso a


la hora de inferir características de la distribución binomial cuando el número de
pruebas sea muy grande y la probabilidad de éxito sea muy
pequeña .

El resultado se prueba , comprobando como la función de cuantía de una


distribución binomial con y tiende a una función de cuantía de
una distribución de Poisson con siempre que este producto sea una
cantidad constante ( un valor finito)

En efecto : la función de cuantía de la binomial es

Y llamamos tendremos que:

realizando que es la función de cuantía de una distribución


de Poisson

Intervalo De Confianza
Un intervalo de confianza es un rango de valores, derivado de los estadísticos de
la muestra, que posiblemente incluya el valor de un parámetro de población
desconocido. Debido a su naturaleza aleatoria, es poco probable que dos
muestras de una población en particular produzcan intervalos de confianza
idénticos. Sin embargo, si usted repitiera muchas veces su muestra, un
determinado porcentaje de los intervalos de confianza resultantes incluiría el
parámetro de población desconocido.

En este caso, la línea negra horizontal representa el valor fijo de la media


desconocida de la población, µ. Los intervalos de confianza azules verticales que
se sobreponen a la línea horizontal contienen el valor de la media de la población.
El intervalo de confianza rojo que está completamente por debajo de la línea
horizontal no lo contiene. Un intervalo de confianza de 95% indica que 19 de 20
muestras (95%) de la misma población producirán intervalos de confianza que
contendrán el parámetro de población.

Utilice el intervalo de confianza para evaluar la estimación del parámetro de


población. Por ejemplo, un fabricante desea saber si la longitud media de los
lápices que produce es diferente de la longitud objetivo. El fabricante toma una
muestra aleatoria de lápices y determina que la longitud media de la muestra es
52 milímetros y el intervalo de confianza de 95% es (50,54). Por lo tanto, usted
puede estar 95% seguro de que la longitud media de todos los lápices se
encuentra entre 50 y 54 milímetros.

El intervalo de confianza se determina calculando una estimación de punto y luego


determinando su margen de error.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de
la muestra.
Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante
recordar que, sin importar lo bien que esté diseñado su estudio, su
estimación está sujeta a error de muestreo aleatorio. El margen de error
cuantifica este error e indica la precisión de la estimación.

Usted probablemente ya entiende el margen de error, porque está


relacionado con los resultados de las encuestas. Por ejemplo, una encuesta
política podría indicar que el nivel de popularidad de un candidato es de
55% con un margen de error de 5%. Esto significa que el nivel de
popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%.

Para un intervalo de confianza bilateral, el margen de error es la distancia


desde el estadístico estimado hasta cada el valor del intervalo de confianza.
Cuando un intervalo de confianza es simétrico, el margen de error es la
mitad del ancho del intervalo de confianza. Por ejemplo, la longitud media
estimada de un árbol de levas es 600 mm y el intervalo de confianza oscila
entre 599 y 601. El margen de error es 1.

Mientras mayor sea el margen de error, más ancho será el intervalo y


menos seguro podrá estar usted del valor de la estimación de punto.

 Minitab.com
 Portal para licencias

Prueba Z
Una prueba Z es una prueba de hipótesis basada en el estadístico Z, que sigue la
distribución normal estándar bajo la hipótesis nula.

La prueba Z más simple es la prueba Z de 1 muestra, la cual evalúa la media de


una población normalmente distribuida con varianza conocida. Por ejemplo, el
gerente de una fábrica de caramelos desea saber si el peso medio de un lote de
cajas de caramelos es igual al valor objetivo de 10 onzas. Partiendo de datos
históricos, el gerente sabe que la máquina de llenado tiene una desviación
estándar de 0.5 onzas, así que utiliza este valor como la desviación estándar de la
población en una prueba Z de 1 muestra.

También puede utilizar las pruebas Z para determinar si las variables predictoras
en los análisis probit y en la regresión logística tienen un efecto significativo en la
respuesta. La hipótesis nula indica que el predictor no es significativo.

También tiene la opción de utilizar una prueba Z para realizar una aproximación a
la normal para las pruebas de tasa de Poisson y las pruebas de proporciones.
Estas aproximaciones a la normal son válidas cuando el tamaño de la muestra y el
número de eventos son adecuadamente grandes.

Población Y Muestra

POBLACIÓN - es el conjunto total de individuos, objetos o medidas que poseen


algunas características comunes observables en un lugar y en un momento
determinado. Cuando se vaya a llevar a cabo alguna investigación debe de
tenerse en cuenta algunas características esenciales al seleccionarse la población
bajo estudio.

Entre éstas tenemos:


1. Homogeneidad - que todos los miembros de la población tengan las
mismas características según las variables que se vayan a considerar en el
estudio o investigación.
2. Tiempo - se refiere al período de tiempo donde se ubicaría la
población de interés. Determinar si el estudio es del momento presente o si
se va a estudiar a una población de cinco años atrás o si se van a
entrevistar personas de diferentes generaciones.
3. Espacio - se refiere al lugar donde se ubica la población de interés.
Un estudio no puede ser muy abarcador y por falta de tiempo y recursos
hay que limitarlo a un área o comunidad en específico.
4. Cantidad - se refiere al tamaño de la población. El tamaño de la
población es sumamente importante porque ello determina o afecta al
tamaño de la muestra que se vaya a seleccionar, además que la falta de
recursos y tiempo también nos limita la extensión de la población que se
vaya a investigar.

MUESTRA - la muestra es un subconjunto fielmente representativo de la


población.
Hay diferentes tipos de muestreo. El tipo de muestra que se seleccione dependerá
de la calidad y cuán representativo se quiera sea el estudio de la población.
1. ALEATORIA - cuando se selecciona al azar y cada miembro tiene
igual oportunidad de ser incluido.
2. ESTRATIFICADA - cuando se subdivide en estratos o subgrupos
según las variables o características que se pretenden investigar. Cada
estrato debe corresponder proporcionalmente a la población.
3. SISTEMÁTICA - cuando se establece un patrón o criterio al
seleccionar la muestra. Ejemplo: se entrevistará una familia por cada diez
que se detecten.
El muestreo es indispensable para el investigador ya que es imposible entrevistar
a todos los miembros de una población debido a problemas de tiempo, recursos y
esfuerzo. Al seleccionar una muestra lo que se hace es estudiar una parte o un
subconjunto de la población, pero que la misma sea lo suficientemente
representativa de ésta para que luego pueda generalizarse con seguridad de ellas
a la población.

El tamaño de la muestra depende de la precisión con que el investigador desea


llevar a cabo su estudio, pero por regla general se debe usar una muestra tan
grande como sea posible de acuerdo a los recursos que haya disponibles. Entre
más grande la muestra mayor posibilidad de ser más representativa de la
población.
En la investigación experimental, por su naturaleza y por la necesidad de tener
control sobre las variables, se recomienda muestras pequeñas que suelen ser de
por lo menos 30 sujetos.
En la investigación descriptiva se emplean muestras grandes y algunas veces
se recomienda seleccionar de un 10 a un 20 por ciento de la población accesible.
CONCLUSIÓN
La Estadística es una disciplina que utiliza recursos matemáticos para
organizar y resumir una gran cantidad de datos obtenidos de la realidad, e inferir
conclusiones respecto de ellos. Por ejemplo, la estadística interviene cuando se
quiere conocer el estado sanitario de un país, a través de ciertos parámetros como
la tasa de morbilidad o mortalidad de la población.

You might also like