You are on page 1of 29

1

UNIVERSIDAD TECNOLOGICA INDOAMERICA

FACULTAD DE INGENIERIA INDUSTRIAL

MODALIDAD SEMIPRESENCIAL
MATERIA: ESTADISTICA
DOCENTE: ING. VICTOR MEDINA
ALUMNO: BYRON PAREDES
NIVEL: CUARTO
2

CONTENIDO
PRUEBAS NO PARAMETRICAS ............................................................................. 4

MÉTODO PARAMÉTRICO Y MÉTODO NO PARAMETRICO ............................ 5

¿Cuál es la diferencia entre los dos métodos Estadísticas?...................................... 5

Las Pruebas No Paramétricas: ¿Para qué se utilizan? .............................................. 6

Pruebas no paramétricas se deben usar con: ............................................................ 6

LIMITACIONES DE LAS PRUEBAS NO PARAMÉTRICAS ................................ 6

PRINCIPALES PRUEBAS NO PARAMETRICAS .................................................. 7

CONCLUSIONES ....................................................................................................... 8

Pruebas Paramétricas ............................................................................................... 8

Pruebas No Paramétricas ......................................................................................... 8

CHI – CUADRADO (X2) (Ji) ..................................................................................... 9

Ejemplo de Ji- cuadrado como prueba de asociación ............................................ 10

EJERCICIO DE APLICACION DEL CHI CUADRADO EN EL SPSS ................. 13

Hipótesis Nula Ho. ................................................................................................. 13

Hipótesis Alternativa Ha. ....................................................................................... 13

Respuesta Del Ejercicio Chi-Cuadrado En El Spss ............................................... 16

Tabla De Chi Cuadrado Grados De Libertad (gl) .................................................. 16

T – STUDENT ........................................................................................................... 17

Ejercicio de aplicación del t-student para muestras relacionadas en SPSS ............... 19

COEFICIENTE DE CORRELACION DE PEARSON ............................................ 20

CARACTERÍSTICAS COEFICIENTE DE PEARSON ....................................... 21

EJERCICIO DE APLICACIÓN DE CORRELACION DE PEARSON EN SPSS .. 23

Resolución del problema PASO A PASO. ............................................................ 23

¿Cuáles Son Los Escenarios O Casos Para La Utilización De Cada Uno De Las
Mismas? .......................................................................................................................... 27

TEST DE CHI AL CUADRADO .......................................................................... 27

T – STUDENT ....................................................................................................... 28
3

COEFICIENTE DE PEARSON ............................................................................ 28

Referencias Bibliográficas ......................................................................................... 29

TUTORIAL EN YOUTUBE DE ESTAS PRUEBAS .............................................. 29


4

PRUEBAS NO PARAMETRICAS

La estadística no paramétrica estudia las pruebas y modelos estadísticos cuya


distribución subyacente no se ajusta a los llamados criterios paramétricos. La utilización
de estos métodos se hace recomendable cuando no se puede asumir que los datos se
ajusten a una distribución conocida.
Los procedimientos no paramétricos se usan con mayor frecuencia por los analistas de
datos, hay muchas aplicaciones en la ciencia y en la ingeniería, donde los datos se reportan
no como valores de un continuo, sino más bien en una escala ordinal, tal que es bastante
natural asignar rangos a los datos, esto implica un análisis de rangos. (E. Walpole, H.
Myers, & L. Myers, 1999)
Un ejemplo donde se aplica la prueba no paramétrica es el siguiente: Dos jueces deben
clasificar cinco clases de cerveza de mucha demanda mediante la asignación de un grado
de 1 a la marca que se considera que tiene la mejor calidad global, un grado 2 a la segunda
mejor, etc. Se puede utilizar entonces una prueba no paramétrica donde exista algún
acuerdo entre los dos jueces. (E. Walpole, H. Myers, & L. Myers, 1999)
Debemos señalar también que hay varias desventajas asociadas con las pruebas no
paramétricas, en primer lugar, no utiliza la información que utiliza la muestra, y por ello
una prueba paramétrica será menos eficiente que el proceso paramétrico correspondiente.
En consecuencia para lograr la misma potencia, una prueba no paramétrica requerirá un
tamaño muestra más grande. (E. Walpole, H. Myers, & L. Myers, 1999)
Una prueba no paramétrica es una prueba de hipótesis que no requiere que la
distribución de la población sea caracterizada por ciertos parámetros, es decir no asumen
acerca de los parámetros de distribución ni se preocupa por el tipo de distribución, sino
trabajan con simple ordenación y recuento (asignando rankings) a los valores de la
variable sin importar la distribución
Por ejemplo, muchas pruebas de hipótesis parten del supuesto de que la población
sigue una distribución normal con los parámetros μ y σ. Las pruebas no paramétricas no
parten de este supuesto, de modo que son útiles cuando los datos son considerablemente
no normales y resistentes a transformaciones.
5

MÉTODO PARAMÉTRICO Y MÉTODO NO PARAMETRICO

¿Cuál es la diferencia entre los dos métodos Estadísticas?


La respuesta es sencilla, en la estadística paramétrica nuestro interés era siempre
hacer estimaciones y pruebas de hipótesis acerca de uno o más parámetros de la población
o poblaciones. Además, en todas estas estimaciones y pruebas de hipótesis se establece
como suposición general que la población o poblaciones de donde provienen las muestras
deben estar distribuidas normalmente, aunque sea en forma aproximada. (Marques de
Cantú, 1991)
 En la estadística paramétrica, se presupone que las muestras provienen de
distribuciones totalmente especificadas caracterizadas por uno o más
parámetros desconocidos sobre los cuales se desea hacer inferencias. Las
pruebas paramétricas asumen los parámetros de la distribución de la variable
(media y varianza) y un tipo de distribución normal.
La Estadística No-Paramétrica en contraste con la Estadística Paramétrica no se
ocupa de hacer estimaciones y pruebas de hipótesis acerca de parámetros y no depende
del conocimiento de cómo se distribuye la población. De esto se deduce que los métodos
no paramétricos son convenientes si no se conoce la distribución de la población, por
ejemplo, en investigación exploratoria. (Marques de Cantú, 1991)
 En un método no paramétrico, se presupone que la distribución de la que
proviene la muestra no está especificada y, con frecuencia, se desea hacer
inferencias sobre el centro de la distribución.
Por ejemplo:
 Muchas pruebas de la estadística paramétrica, como la prueba t de 1 muestra,
se realizan bajo el supuesto de que los datos provienen de una población normal
con una media desconocida.
 En un estudio no paramétrico, se elimina el supuesto de normalidad. Los
métodos no paramétricos son útiles cuando no se cumple el supuesto de
normalidad y el tamaño de la muestra es pequeño. Sin embargo, las pruebas no
paramétricas no están completamente libres de supuestos acerca de los datos.
Una ventaja de la prueba no paramétrica es que, por lo general, los cálculos
necesarios son más sencillos. Sin embargo, no podemos esperar que, en el caso de una
cierta distribución, la cantidad de información dada por un método no paramétrico sea la
misma que daría un método paramétrico que solo se aplica a esa distribución específica.
6

Es decir, si se conoce que la distribución es normal, una prueba paramétrica es más


eficiente que una no paramétrica. Los métodos no paramétricos pueden ser usados para
analizar datos de tipo cualitativo, ya sean ordinales o jerarquizados o nominales; así como
también para datos cuantitativos, mientras que los métodos paramétricos solo pueden
usarse para datos cuantitativos (discretos y continuos. (Marques de Cantú, 1991)

Las Pruebas No Paramétricas: ¿Para qué se utilizan?


Se utilizan para conocer cómo es la forma de la distribución de la población de la que
se ha extraído la muestra. Contrastes de Bondad de Ajuste para conocer la forma de la
población que ha originado la muestra. Las pruebas de bondad de ajuste se utilizan para
contrastar si los datos de la muestra pueden considerarse que proceden de una
determinada distribución. (Las pruebas de bondad de ajuste mencionadas son debidas a
Nikolai Vasil’yevich Smirnov (1890-1966)).

Pruebas no paramétricas se deben usar con:


Datos de distribución libre (no necesariamente normal). Si un grupo tiene distribución
normal mientras el otro no. Si se trata de datos cuantitativos, ordinales o nominales Con
varianza grande, un grupo con varianza 0 y el otro no, al trabajar con muestras pequeñas.

LIMITACIONES DE LAS PRUEBAS NO PARAMÉTRICAS

Las pruebas no paramétricas tienen las siguientes limitaciones:


Las pruebas no paramétricas por lo general son menos potentes que la prueba
paramétrica correspondiente cuando se cumple el supuesto de normalidad. Por lo tanto,
es menos probable que usted rechace la hipótesis nula cuando sea falsa si los datos
provienen de la distribución normal.
Las pruebas no paramétricas suelen requerir que se modifiquen las hipótesis. Por
ejemplo, la mayoría de las pruebas no paramétricas acerca del centro de la población son
pruebas sobre la mediana y no sobre la media. La prueba no responde a la misma pregunta
que el procedimiento paramétrico correspondiente si la población no es simétrica.
7

PRINCIPALES PRUEBAS NO PARAMETRICAS

Las principales pruebas no paramétricas son las siguientes:


Prueba chi-cuadrado (χ²) de Pearson
Prueba binomial
Prueba de Anderson-Darling
Prueba de Cochran
Prueba de Cohen kappa
Prueba de Fisher
Prueba de Friedman
Prueba de Kendall
Prueba de Kolmogórov-Smirnov
Prueba de Kruskal-Wallis
Prueba de Kuiper
Prueba de Mann-Whitney o prueba de Wilcoxon
Prueba de McNemar
Prueba de la mediana
Prueba de Siegel-Tukey
Prueba de los signos
Coeficiente de correlación de Spearman
Tablas de contingencia
Prueba de Wald-Wolfowitz
Prueba de los rangos con signo de Wilcoxon
8

CONCLUSIONES

Pruebas Paramétricas
 Se conoce el modelo de distribución de la población objeto de estudio y se
desconoce un número finito de parámetros de dicha distribución que hay que
estimar con los datos de la muestra.
 Requieren conocer la distribución de la muestra para poder realizar inferencias
sobre la población

Pruebas No Paramétricas
 Son métodos de distribución libre. No requieren conocer la distribución de la
muestra.
 Se utilizan estadísticos cuya distribución se determina con independencia de
cuál sea la distribución de la población.
 Son una alternativa a las pruebas paramétricas cuando los datos no cumplen
los requisitos de las pruebas paramétricas.
9

CHI – CUADRADO (X2) (Ji)

El estadístico Ji cuadrado es una medida de la diferencia entre los recuentos


observados y los recuentos esperados en una tabla de contingencia. La fórmula del
estadístico es: (S. Moore, 1990)

La suma de todas las f × c celdas de la tabla

Pearson, Karl (1857-1936) Matemático británico y filósofo de la ciencia, fue uno de


los fundadores de la moderna estadística que en 1900 publicó su prueba de Chi-cuadrado,
una medida de la bonanza de una cierta distribución al ajustarse a un grupo determinado
de datos.
El estadístico Ji cuadrado es una suma de términos, uno por cada celda de la tabla.
Interpreta el estadístico Ji cuadrado, X2, como una medida de la distancia entre los
recuentos observados y los recuentos esperados. Como cualquier distancia, su valor
siempre es cero o positivo. Es cero sólo cuando los recuentos observados son exactamente
iguales a los recuentos esperados. Los valores de X2 grandes constituyen una evidencia
en contra de hipótesis nula H0, ya que indican que los recuentos observados están lejos
de lo que esperaríamos si H0 fuera cierta. Aunque la hipótesis alternativa Ha es de muchas
colas, la prueba Ji cuadrado es de una cola, ya que cualquier violación de H0 tiende a
producir un valor de X2 grande. Los valores pequeños de X2 no constituyen ninguna
evidencia en contra de H0. El cálculo manual de los recuentos esperados y el del
estadístico Ji cuadrado lleva bastante tiempo. Como de costumbre, los programas
estadísticos ahorran tiempo y siempre hacen los cálculos correctamente. (S. Moore, 1990)
La prueba Ji cuadrado es una prueba conjunta para comparar cualquier número de
proporciones poblacionales. Si el contraste nos permite rechazar la hipótesis nula de que
10

todas las proporciones son iguales, entonces procedemos a hacer el análisis


complementario que examina las diferencias con detalle. (S. Moore, 1990)
La prueba Ji cuadrado es una prueba conjunta para comparar cualquier número de
proporciones poblacionales. Si el contraste nos permite rechazar la hipótesis nula de que
todas las proporciones son iguales, entonces procedemos a hacer el análisis
complementario que examina las diferencias con detalle. (Johnson & Kuby, 2008)
Suposición para usar Ji-cuadrada para hacer inferencias con base en datos
enumerativos: la información muestral se obtiene usando una muestra aleatoria tomada
de una población en la que cada individuo se clasifica de acuerdo con la(s) variable(s)
categórica involucrada en la prueba. (Johnson & Kuby, 2008)

Una variable categórica es aquella que clasifica o asigna categoría a cada individuo en
exactamente una de varias celdas o clases; estas celdas o clases incluyen todo y son
mutuamente exclusivas. El lado que queda hacia arriba en un dado que se lanza es una
variable categórica: la lista de resultados {1, 2, 3, 4, 5, 6} es un conjunto de categorías
que incluyen todo y son mutuamente exclusivas. (Johnson & Kuby, 2008)

Ejemplo de Ji- cuadrado como prueba de asociación


Un investigador quiere estudiar si hay asociación entre la práctica deportiva y la
sensación de bienestar. Extrae una muestra aleatoria de 100 sujetos. Los datos aparecen
a continuación.

Sensación de Práctica deportiva Total


Bienestar
Sí no
Sí 20 25 45
No 10 45 55
Total 30 70 100

Contraste la hipótesis de independencia entre bienestar y práctica de deporte (alfa = 0,01).


Calculemos las frecuencias esperadas:

f i. f. j
eij 
n
11

Sensación de Práctica deportiva


bienestar
Sí No
Sí (45x30)/100=13,5 (45x70)/100=31,5
No (55x30)/100=16,5 (55x70)/100=38,5

Calculemos Chi-cuadrado:

( f ij  eij ) 2
 2
exp  
i j eij
1. Hagamos otra tabla, donde restamos a las frecuencias absolutas las
frecuencias esperadas.
2. Este valor elevado al cuadrado.
3. Dividido por la frecuencia esperadas.

Sensación de Práctica deportiva


bienestar
Sí No
Sí 3,1296 1,3413
No 2,5606 1,0974

exp
2
 3,1296  1,3413  2,5606  1,0974  8,13
Tenemos:

exp
2
 8,13
Ahora calculemos el valor de la tabla Chi-cuadrado.
1. Grados de libertad, son:
K = (número de fila-1)(número de columnas-1)
K= (2-1)(2-1) = 1
2. El valor alfa 0,01
3. El valor que buscamos:

 g2.l .;  12;0,01  6,63


12

Tenemos:

exp
2
 8,13  g2.l .;  12;0,01  6,63
Por tanto:

exp
2
 12;0,01
SIGNIFICADO: Las variables no son independientes.

SIGNIFICADO en el ejemplo: La práctica deportiva y la sensación de bienestar estás


asociadas.

Gráfico. Dado que el estadístico ji cuadrado sólo toma valores positivos, la zona de
rechazo de la hipótesis nula siempre estará del lado derecho de la curva.
13

EJERCICIO DE APLICACION DEL CHI CUADRADO EN EL SPSS

Analizar según la base de datos y demostrar las siguientes hipótesis, utilizando para
ello las siguientes dos variables que se encuentran en nuestra base de datos, estas son
“Tipo de vivienda” y “Estado civil”, lo cual nos permitirá el cálculo y prueba de la
hipótesis a continuación. Con un nivel de significación del 5%.

Hipótesis Nula Ho.


El tipo de vivienda es dependiente del estado civil de las personas.

Hipótesis Alternativa Ha.


El tipo de vivienda es independiente del estado civil de las personas.

Nivel de significancia: 5% : 0,05

Resolución Del Ejercicio En Spss


1º Base de datos, la cual constituye de 881 en total de datos.
14

2º Variables en nuestra base de datos


Tenemos 11 variables en nuestra base de datos (columna de nombres)

3º Análisis.
15

4º Tabla de contingencia.

La prueba del chi-cuadrado nos da un valor menor al 5% en este caso 0%


16

Respuesta Del Ejercicio Chi-Cuadrado En El Spss


La significancia asintótica bilateral es 0.000 o 0%, este valor es la magnitud del error
en caso de que aceptemos la hipótesis de que el tipo de vivienda es dependiente del estado
civil de las personas, con el nivel de significancia del 0.05 o 5% que es el margen de error
que tenemos y comparando con el 0%, llegamos a concluir que si existe dependencia
entre el tipo de vivienda y el estado civil. Ho ACEPTADA.

Tabla De Chi Cuadrado Grados De Libertad (gl)


Se acepta Ho

Se rechaza Ho
17

T – STUDENT

La prueba t-Student se utiliza para contrastar hipótesis sobre medias en poblaciones


con distribución normal. También proporciona resultados aproximados para los
contrastes de medias en muestras suficientemente grandes cuando estas poblaciones no
se distribuyen normalmente (aunque en este último caso es preferible realizar una prueba
no paramétrica). Para conocer si se puede suponer que los datos siguen una distribución
normal, se pueden realizar diversos contrastes llamados de bondad de ajuste, de los cuales
el más usado es la prueba de Kolmogorov. A menudo, la prueba de Kolmogorov es
referida erróneamente como prueba de Kolmogorov-Smirnov, ya que en realidad esta
última, sirve para contrastar si dos poblaciones tienen la misma distribución. Otros tests
empleados para la prueba de normalidad son debidos a Saphiro y Wilks. (C. Canavos,
1988)
La t de Student, inicialmente se diseñó para examinar las diferencias entre dos
muestras independientes y pequeñas que tengan distribución normal y homogeneidad en
sus varianzas (en el artículo original, el autor no define qué es una muestra grande y/o
pequeña). William Sealey Gosset hace hincapié en la normalidad de las dos muestras
como crucial en el desarrollo de la prueba. (R. Spiegel, 1977)

La prueba t-Student fue desarrollada en 1899 por el químico inglés William Sealey
Gosset (1876-1937), mientras trabajaba en técnicas de control de calidad para las
destilerías Guiness en Dublín.
Ejemplo:
De un universo de 44,000 niños, a los que se les registró el peso, talla e índice de masa
corporal, se tomó una muestra de 56 adolescentes (21 niñas y 35 niños), del subgrupo de
niñas y niños de 14 años de edad, para comparar las medias tomando exclusivamente el
índice de masa corporal (IMC). IMC en niñas y niños de 14 años de edad
 Paso 1: prueba de normalidad de cada una de las muestras.
18

 Paso 2: en este caso se hace la prueba t-test aun sabiendo que una de las
muestras (los niños) no tiene normalidad.
 Paso 3: prueba para la homogeneidad de varianzas; se pueden considerar que
son homogéneas debido a que la p = 0.570.
 Paso 4: (i) diferencia de medias = 0.025, (ii) vc a las muestras.

(iii) Error estándar de las diferencias de las medias.

 Paso 5: el valor de la t-test será:


 Ho: el IMC es igual en niños y niñas.
 H1: El IMC es diferente entre los niños y las niñas.
Los grados de libertad, para consultar la tabla de t-Student son 21 + 35-2 = 54,
consultando el valor de p es 0.401.
Por lo tanto, no existe diferencia entre el IMC entre los niños y niñas de 14 años.
(Sánchez Turcios, 2015)
19

Ejercicio de aplicación del t-student para muestras relacionadas en SPSS

1. Queremos relacionar la edad y el peso de nuestra base de datos.


2. De esta relación obtendremos la media de cada una de las variables.
3. Si p<0,05 entonces rechazamos la hipótesis nula y nos quedamos con la
hipótesis del investigador, es decir, la hipótesis alternativa Ha.
4. Formulación de hipótesis:
Ho: la edad y el peso están relacionadas, es decir, son iguales.
Ha: la edad y el peso no están relacionadas, es decir, son diferentes.

Concluimos que, La significancia asintótica bilateral es 0.000 o 0%, p<0,05 entonces


rechazamos la hipótesis nula y nos quedamos con la hipótesis del investigador, es decir,
la hipótesis alternativa Ha.
20

COEFICIENTE DE CORRELACION DE PEARSON

En estadística, el coeficiente de correlación de Pearson es una medida de la relación


lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la
correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson
como:
 “Un índice que puede utilizarse para medir el grado de relación de dos variables
siempre y cuando ambas sean cuantitativas”.
 “Un índice que mide el grado de covariación entre distintas variables
relacionadas linealmente”.
El fundamento del coeficiente de Pearson es el siguiente: Cuanto más intensa sea la
concordancia (en sentido directo o inverso) de las posiciones relativas de los datos en las
dos variables, el producto del numerador toma mayor valor (en sentido absoluto). Si la
concordancia es exacta, el numerador es igual a N (o a -N), y el índice toma un valor igual
a 1 (o -1). La covariación es el grado de concordancia de las posiciones relativas de los
datos de dos variables. "variables relacionadas linealmente".
En consecuencia, el coeficiente de correlación de Pearson opera con puntuaciones
tipificadas (que miden posiciones relativas) y se define:

El coeficiente de correlación de Pearson es un índice de fácil ejecución e, igualmente,


de fácil interpretación. Digamos, en primera instancia, que sus valores absolutos oscilan
entre 0 y 1. Esto es, si tenemos dos variables X e Y, y definimos el coeficiente de
correlación de Pearson entre estas dos variables como rxy entonces:

0 <= rxy <= 1


Hemos especificado los términos "valores absolutos" ya que en realidad si se
contempla el signo el coeficiente de correlación de Pearson oscila entre –1 y +1. No
obstante ha de indicarse que la magnitud de la relación viene especificada por el valor
numérico del coeficiente, reflejando el signo la dirección de tal valor. En este sentido,
tan fuerte es una relación de +1 como de -1. En el primer caso la relación es perfecta
positiva y en el segundo perfecta negativa. Pasamos a continuación a desarrollar algo
más estos conceptos.
• Valores próximos a 1 indicarán fuerte asociación lineal positiva.
21

• Valores próximos a -1 indicarán fuerte asociación lineal negativa.


• Valores próximos a 0 indicarán no asociación lineal, lo que no significa que no
pueda existir otro tipo de asociación.

CARACTERÍSTICAS COEFICIENTE DE PEARSON


 El coeficiente de correlación de Pearson puede tomar valores entre -1 y 1.
 La correlación de una variable con ella misma siempre es igual a 1.
 El valor 0 indica ausencia de covariación lineal, pero NO si la covariación es de
tipo no lineal. (Ver ejemplo en el apartado de relaciones no lineales).

Ejemplo 1 (Máxima covariación positiva)

Observa que los datos tipificados (expresados como puntuaciones z) en las dos
columnas de la derecha tienen los mismos valores en ambas variables, dado que las
posiciones relativas son las mismas en las variables X e Y.
Si obtenemos los productos de los valores tipificados para cada caso, el resultado es:
22

El cociente de dividir la suma de productos (5) por N (hay que tener en cuenta que N
es el número de casos, NO el número de datos) es igual a 1:

Ejemplo 2 (Covariación positiva de alta intensidad)

Y por tanto:

Ejemplo 3 (Ausencia de covariación)

Ejemplo 4 (Covariación negativa de alta intensidad)


23

EJERCICIO DE APLICACIÓN DE CORRELACION DE PEARSON EN SPSS

Se realiza un estudio de correlación y regresión comparando las tallas y pesos de


nuestra base de datos, en este caso serán variables cuantitativas.
Queremos saber si:
 El peso es dependiente de la talla.
 La talla es independiente del peso.

Resolución del problema PASO A PASO.


1º Comenzamos primero con la correlación de Pearson, ya que para poder hacer una
regresión primero se necesita saber si las variables tienen o no correlación, para esto
comenzaremos con su relación gráfica.
24
25

2º A continuación la relación numérica, comenzamos con el análisis.


26

3º Ahora vamos a ver cuánto influye la talla en el peso de nuestra base de datos.

4º De acuerdo con la correlación de Pearson, concluiremos que la talla influye en un


0,723 o 72.3% en el peso de nuestra base de datos.
27

¿Cuáles Son Los Escenarios O Casos Para La Utilización De Cada Uno De Las

Mismas?

Para poder aplicar cada uno de estas pruebas, existen diversas hipótesis nulas y
condiciones que deben cumplir nuestros datos para que los resultados al aplicar el test
sean fiables. Es decir, no se puede aplicar todos los test y quedarse con el que mejor
convenga para la investigación sin verificar si se cumplen las hipótesis y condiciones, si
se violan, invalidan cualquier resultado posterior son una de las causas más frecuentes de
que un estudio sea estadísticamente incorrecto.

TEST DE CHI AL CUADRADO


 Al analizar en una población un carácter cualitativo o cuantitativo el estudio
resulta muy tedioso por el gran número de elementos del que consta la
población.
 Se utiliza para analizar tablas de contingencia y comparación de proporciones
en datos independientes.
 Esta prueba puede utilizarse incluso con datos medibles en una escala nominal.
 El test de la X2 se puede aplicar en situaciones donde se desea decidir si una
serie de datos (observaciones) se ajusta o no a una función teórica previamente
determinada (Binomial, Poisson, Normal, etc.)
 Es necesario que la frecuencia esperada de las distintas modalidades no sea
inferior a cinco. Si alguna modalidad tiene una frecuencia esperada menor que
cinco se agrupan dos o más modalidades contiguas en una sola hasta conseguir
que la frecuencia esperada sea mayor que cinco.
 Los grados de libertad de la X2 dependen del número de parámetros que se
necesitan hallar para obtener las frecuencias esperadas. En este sentido, si se
requieren hallar p parámetros, los grados de libertad son (k - p) si las
modalidades son independientes y (k - p - 1) cuando las modalidades son
excluyentes.
28

T – STUDENT
 Se aplica cuando la población estudiada sigue una distribución normal pero el
tamaño muestral es demasiado pequeño como para que el estadístico en el que
está basada la inferencia esté normalmente distribuido, utilizándose una
estimación de la desviación típica en lugar del valor real.
 Se utiliza para la comparación de dos medias de poblaciones independientes y
normales.
 Se utiliza para determinar si hay una diferencia significativa entre las medias
de dos grupos.
 La t-Student es una prueba poderosa, en la que, aunque una de las muestras no
tenga distribución normal pero la otra sí y la razón de la varianza más grande
a la más pequeña sea < 2, esta prueba resulta adecuada al comparar dos medias.
 El procedimiento comparar medias nos permite la aplicación de distintos
estadísticos inferenciales apropiados para contrastar hipótesis relativas a la
diferencia existente entre dos o más medidas.

COEFICIENTE DE PEARSON
 Se utiliza para estudiar la asociación entre un factor de estudio y una
variable de respuesta cuantitativa, mide el grado de asociación entre dos
variables tomando valores entre -1 y 1.
 Este estadístico utilizado para medir la magnitud de la relación
(supuestamente lineal) entre dichas variables.
 Permite predecir el valor de una variable dado un valor determinado de la
otra variable. Se trata de valorar la asociación entre dos variables
cuantitativas estudiando el método conocido como correlación.
 Se para medir el coeficiente de correlación lineal entre las dos (2) dos
variables cuantitativas. El grado de relación existente entre las dos
variables. Su significancia.
29

Referencias Bibliográficas

C. Canavos, G. (1988). Probabilidad y Estadística. México: McGraw-Hill Interamericana


de México.
E. Walpole, R., H. Myers, R., & L. Myers, S. (1999). Probabilidad y Estadística para
Ingenieros sexta edición. México: Prentice-Hall Hispanoamericana S.A.
Johnson, R., & Kuby, P. (2008). Estadistica Elemental. México: Cengage Learning
Editores S.A.
Maibaum, G. (1976). Teoría de Probabilidades y Estadística Matemática. Berlín:
Editorial Pueblo Y educación.
Marques de Cantú, M. (1991). Probabilidad y Estadística. México: McGraw-Hill
Interamericana de México.
R. Spiegel, M. (1977). Probabilidad y estadistica. México: Libros McGraw-Hill de
México.
S. Moore, D. (1990). Estadistica Aplicada Básica. Washington: Antoni Bosch Editor.
Sánchez Turcios, R. (2015). t-Student Usos y Abusos. Revista Mexicana, 59 -61.

TUTORIAL EN YOUTUBE DE ESTAS PRUEBAS

A continuación, el link:

https://www.youtube.com/watch?v=-oyzdB-1LTY&feature=youtu.be

You might also like