You are on page 1of 5

LA PRUEBA T

Se utiliza para determinar si hay una diferencia significativa entre las medias de dos grupos, es decir que se
utiliza cuando deseamos comparar dos medias.
Se utiliza para la comparación de dos medias de poblaciones independientes y normales.
Asumimos que las variables dependientes tienen una distribución normal.

Con una prueba t, tenemos una variable independiente y una dependiente.

 La variable independiente (por ejemplo sexo) solo puede tener dos niveles (hombre y mujer).
 Si la independiente tuviera más de dos niveles, después utilizaríamos un análisis de la variación
unidireccional (ANOVA).
 La prueba estadística para t de Student es el valor t. Conceptualmente, la t-valor representa el número
de unidades estándares que están separando las medias de los dos grupos.
Prueba T para muestras independientes
El procedimiento Prueba T para muestras independientes compara las medias de dos grupos de casos. Lo ideal
es que para esta prueba los sujetos se asignen aleatoriamente a dos grupos, de forma que cualquier diferencia
en la respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores. Este caso no ocurre si
se comparan los ingresos medios para hombres y mujeres. El sexo de una persona no se asigna
aleatoriamente. En estas situaciones, debe asegurarse de que las diferencias en otros factores no enmascaren
o resalten una diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar
sometidas a la influencia de factores como los estudios (y no solamente el sexo).
Ejemplo. Se asigna aleatoriamente un grupo de pacientes con hipertensión arterial a un grupo con placebo y
otro con tratamiento. Los sujetos con placebo reciben una pastilla inactiva y los sujetos con tratamiento
reciben un nuevo medicamento del cual se espera que reduzca la tensión arterial. Después de tratar a los
sujetos durante dos meses, se utiliza la prueba t para dos muestras para comparar la tensión arterial media
del grupo con placebo y del grupo con tratamiento. Cada paciente se mide una sola vez y pertenece a un solo
grupo.
Estadísticos. Para cada variable: tamaño de la muestra, media, desviación estándar y error estándar de la
media. Para la diferencia entre las medias: media, error estándar e intervalo de confianza (puede especificar
el nivel de confianza). Pruebas: prueba de Levene sobre la igualdad de varianzas y pruebas t de varianzas
combinadas y separadas sobre la igualdad de las medias.
Prueba T para muestras relacionadas
Esta característica requiere la opción Statistics Base.
El procedimiento Prueba T para muestras relacionadas compara las medias de dos variables de un solo grupo.
El procedimiento calcula las diferencias entre los valores de las dos variables de cada caso y contrasta si la
media difiere de 0.
Ejemplo. En un estudio sobre la hipertensión sanguínea, se toma la tensión a todos los pacientes al comienzo
del estudio, se les aplica un tratamiento y se les toma la tensión otra vez. De esta manera, a cada sujeto le
corresponden dos medidas, normalmente denominadas medidas pre y post. Un diseño alternativo para el que
se utiliza esta prueba consiste en un estudio de pares relacionados o un estudio de control de casos en el que
cada registro en el archivo de datos contiene la respuesta del paciente y de su sujeto de control
correspondiente. En un estudio sobre la tensión sanguínea, pueden emparejarse pacientes y controles por
edad (un paciente de 75 años con un miembro del grupo de control de 75 años).
Estadísticos. Para cada variable: media, tamaño de la muestra, desviación estándar y error estándar de la
media. Para cada par de variables: correlación, diferencia promedio entre las medias, prueba t de intervalo
de confianza para la diferencia entre las medias (puede especificarse el nivel de confianza). Desviación
estándar y error estándar de la diferencia entre las medias.
QUE ES LA PRUEBA Z
Una prueba Z es una prueba de hipótesis basada en el estadístico Z, el cual sigue una distribución normal
según la hipótesis nula.
La prueba Z más simple es la prueba Z de 1 muestra, la cual evalúa la media de una población normalmente
distribuida con una varianza conocida.
Prueba z - versión larga

Una prueba Z es cualquier prueba estadística para la cual puede ser la distribución del estadístico bajo la
hipótesis nula aproximarse mediante una distribución normal [dudoso - discuta]. Debido al teorema del límite
central, mucha de las estadísticas de prueba es de aproximadamente una distribución normal para muestras
grandes. Por lo tanto, mucha prueba estadística se puede realizar como una aproximación Z-pruebas si el
tamaño de la muestra es grande.

La forma más general, para obtener una prueba Z es la definición de una prueba estadística numérica que se
puede calcular a partir de una recopilación de datos, de tal manera que la distribución muestral de la
estadística es aproximadamente normal bajo la hipótesis nula. Estadísticas que son medias (o medias
aproximadas) de valores de datos de aproximadamente independientes son generalmente bien aproximada
por una distribución normal. Un ejemplo de una estadística que no estaría bien aproximada por una
distribución normal sería un valor extremo como el máximo de la muestra.

COEFICIENTE DE CORRELACION DE PEARSON


En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre
dos aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de
la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede
utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
COEFICIENTE DE CORRELACION DE SPEARMAN

En estadística, el coeficiente de correlación de Spearman, ρ (rho) es una medida de la correlación (la


asociación o interdependencia) entre dos variables aleatorias continuas. Para calcular ρ, los datos son
ordenados y reemplazados por su respectivo orden.
El estadístico ρ viene dado por la expresión:

donde D es la diferencia entre los correspondientes estadísticos de orden de x - y. N es el número de


parejas.
Se tiene que considerar la existencia de datos idénticos a la hora de ordenarlos, aunque si éstos son
pocos, se puede ignorar tal circunstancia
Para muestras mayores de 20 observaciones, podemos utilizar la siguiente aproximación a la distribución
t de Student

La interpretación de coeficiente de Spearman es igual que la del coeficiente de correlación de


Pearson. Oscila entre -1 y +1, indicándonos asociaciones negativas o positivas respectivamente, 0
cero, significa no correlación, pero no independencia. La tau de Kendall es un coeficiente de
correlación por rangos, inversiones entre dos ordenaciones de una distribución normal vicariante.

LA TAU B DE KENDALL

Se trata de una medida de asociación muy empleada, con la característica de que, en el caso de las tablas de
2*2, los valores de τb y de Φ son de la misma magnitud, es decir, el valor absoluto de τb es igual al valor de
Φ . No obstante, τb añade una característica: el signo puede ser positivo o negativo, y no siempre positivo,
como en Φ. De este modo, cuando el resultado está cercano de 1, positivo, significa que los sujetos que
muestran en la variable X mejor resultado, tienden a mostrar también mejor resultado en la variable Y, y si es
negativa, la tendencia es la contraria, mejores resultados en X, significan peores resultados en Y. Por ello,
aunque se pueda emplear con provecho en todo tipo de variables binarias, el mejor provecho se obtiene
cuando las variables son realmente ordinales. Es cierto que todas variables binarias pueden ser consideradas
ordinales, aunque en algunos casos pueda ser artificiosa esta, en cuyo caso, debe considerarse que el orden
establecido no representa una característica de la variable en sí, sino de la propia decisión de la medición. Es
lo que puede pasar, por poner un ejemplo, cuando se considera la aparición de una determinada enfermedad
en dos regiones diferentes. Se puede considerar un orden, es decir, asegurar que es mejor que no se presente
a que se presente la enfermedad, pero el considerar a priori una región mejor o peor es simplemente un
artificio para hacer el muestre. Así, si tenemos dos variables realmente ordinales, es decir, presentan un orden
propio, sacaremos más provecho del empleo de τb. En el resto, es decir, las que hemos considerado
dicotómicas, pero no lo son en sí misma, se debería utilizar Φ.

Esto es una prueba de que τb tiene la misma base conceptual que la correlación (r): Los valores positivos se
aplican cuando los datos en las dos variables son congruentes- van en la misma dirección- , y los negativos
indican incongruencia, es decir, los resultados de ambas variables van en dirección contraria: cuando son más
bajos en una variable tienden a ser más elevados en la otra, y viceversa. Como ocurre en la correlación, cuando
más cercano a 1 o -1 sea τb más fuerte será la asociación, mientras que, cuanto más cercana esté a 0, la
asociación es más débil.

PRUEBA CHI CUADRADAS DE INDEPENDENCIA

Se trata de contrastar si dos variable cualitativas son independientes o no( es decir, si existe relación entre
ellas) EJEMPLO

¿Ser hombre o mujer predispone de algún modo, a fumar o no fumar?

¿los habitos de lectura de los padres influyen en el habito de lectura de los hijos?

¿los gustos literarios son los mismos en las distintas ciudades de nuestro país?

You might also like