Professional Documents
Culture Documents
Contenido
[ocultar]
• 1 Introducción
○ 1.1 Visión general
○ 1.2 Supuestos previos
• 2 Tipos de modelo
○ 2.1 Modelo de efectos fijos
○ 2.2 Modelo de efectos aleatorios
• 3 Grados de libertad
• 4 Pruebas de significación
• 5 Tablas ANOVA
• 6 Ejemplos
• 7 Referencias
○ 7.1 Bibliografía
[editar] Introducción
El análisis de la varianza sirve para decidir si diferentes muestras tomadas en diferentes
situaciones (a veces llamadas "factores" o "tratamientos") son significativamente
diferentes desde un punto de vista estadístico. En ese sentido el análisis de la varianza
puede usarse de una manera similar al contraste de hipótesis. En análisis de la varianza
recurre a ver descomponer la variación observada en varias partes y a ver qué parte de
dicha variación puede ser explicada por ciertos factores, y que parte de la variación es
una variación aleatoria. El objetivo es determinar si ciertas variables pueden explicar
una parte significativa de la variación, siendo la variación aleatoria pequeña frente a la
variación explicable o determinista.
En un modelo de un factor, que es el caso más sencillo, la idea básica del análisis dela
varianza es comparar la variación total de un conjunto de muestras y descomponerla
como:
Donde:
es un número real relacionado con la varianza, que mide la variación
debida al "factor", "tratamiento" o tipo de situación estudiado.
es un número real relacionado con la varianza, que mide la variación
dentro de cada "factor", "tratamiento" o tipo de situación.
En el caso de que la diferencia debida al factor o tratamiento no sean estadísticamente
significativa puede probarse que las varianzas muestrales son iguales:
Donde:
es el número de situaciones diferentes o valores del factor se están
comparando.
es el número de mediciones en cada situación se hacen o número de valores
disponibles para cada valor del factor.
Así lo que un simple test a partir de la F de Snedecor puede decidir si el factor o
tratamiento es estadísticamente significativo.
[editar] Visión general
Existen tres clases conceptuales de estos modelos:
1. El Modelo de efectos fijos asume que los datos provienen de poblaciones
normales las cuales podrían diferir únicamente en sus medias. (Modelo 1)
2. El Modelo de efectos aleatorios asume que los datos describen una jerarquía de
diferentes poblaciones cuyas diferencias quedan restringidas por la jerarquía.
Ejemplo: El experimentador ha aprendido y ha considerado en el experimento
sólo tres de muchos más métodos posibles, el método de enseñanza es un factor
aleatorio en el experimento. (Modelo 2)
3. El Modelo de efectos mixtos describen situaciones que éste puede tomar.
Ejemplo: Si el método de enseñanza es analizado como un factor que puede
influir donde están presentes ambos tipos de factores: fijos y aleatorios. (Modelo
3)
[editar] Supuestos previos
El ANOVA parte de algunos supuestos que han de cumplirse:
• La variable dependiente debe medirse al menos a nivel de intervalo.
• Independencia de las observaciones.
• La distribución de los residuales debe ser normal.
• Homocedasticidad: homogeneidad de las varianzas.
La técnica fundamental consiste en la separación de la suma de cuadrados (SS, 'sum of
squares') en componentes relativos a los factores contemplados en el modelo. Como
ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en
diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede
resultar apropiado un análisis de regresión lineal)
SSTotal = SSError + SSFactores
El número de grados de libertad (gl) puede separarse de forma similar y se corresponde
con la forma en que la distribución chi-cuadrado (χ² o Ji-cuadrada) describe la suma de
cuadrados asociada.
glTotal = glError + glFactores
[editar] Tipos de modelo
[editar] Modelo de efectos fijos
El modelo de efectos fijos de análisis de la varianza se aplica a situaciones en las que el
experimentador ha sometido al grupo o material analizado a varios factores, cada uno de
los cuales le afecta sólo a la media, permaneciendo la "variable respuesta" con una
distribución normal.
[editar] Modelo de efectos aleatorios
Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren
diferencias incomparables en el material o grupo experimental. El ejemplo más simple
es el de estimar la media desconocida de una población compuesta de individuos
diferentes y en el que esas diferencias se mezclan con los errores del instrumento de
medición.
[editar] Grados de libertad
[editar] Pruebas de significación
El análisis de varianza lleva a la realización de pruebas de significación estadística,
usando la denominada distribución F de Snedecor.
[editar] Tablas ANOVA
bvf
[editar] Ejemplos
[editar] Referencias
[editar] Bibliografía
• M.R. Spiegel; J. Schiller; R. A. Srinivasan (2007). «9. Análisis de la varianza».
Probabilidad y Estadística [Schaum's Outline of Theory and Problems of
Probability and Statistics]. Schaum (2ª edición). México D.F.: McGraw-Hill.
pp. 335-371. ISBN 978-970-10-4231-1.
Obtenido de "http://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_varianza"
Categorías: Estadística | Análisis
Categoría oculta: Wikipedia:Artículos en desarrollo
Herramientas personales
• Registrarse/Entrar
Espacios de nombres
• Artículo
• Discusión
Variantes
Vistas
• Leer
• Editar
• Ver historial
Acciones
Buscar
Principio del formulario
Especial:Buscar
•
• que puede escribirse en términos del modelo como:
•
• Como en H0 se cumplen las condiciones del apartado anterior se tratará de
ver como se modifican las estimaciones de la varianza en H1.
• En H0 MSA y MSE son estimadores centrados de σ 2, es decir y usando el
superíndice 0 para indicar el valor de las variables en H0
• E[MSA0] = σ 2
• E[MSE0] = σ 2
• Se puede ver que MSE es igual en la hipótesis nula que en la alternativa. Por
lo tanto:
• E[MSE] = E[MSE0] = σ 2
• Sin embargo al valor esperado de MSA en la hipótesis alternativa se le
añade un término con respecto a su valor en la hipótesis nula
•
• Al segundo sumando dividido por n se le llama componente de la varianza
añadida por el tratamiento, ya que tiene forma de varianza, aunque
estrictamente no lo sea pues α i no es una variable aleatoria.
• La situación, por lo tanto, es la siguiente: en H0, MSA y MSE estiman σ 2; en
H1, MSE estima σ 2 pero MSA estima . Contrastar la H0 es
equivalente a contrastar la existencia de la componente añadida o, lo que es
lo mismo, que MSE y MSA estimen, o no, la misma varianza.
• El estadístico de contraste es F=MSA/MSE que, en la hipótesis nula, se
distribuye según una F con k - 1 y (n - 1)k grados de libertad. En caso de
rechazar la H0, MSA - MSE estima .
[1]
Es decir que la diferencia entre el valor observado y la media global es igual a la suma
de la diferencia de la observación con la media de su grupo y la diferencia de la media
del grupo con la media global.
Se puede comprobar que si cada término de esa expresión se eleva al cuadrado y se
suma para todas las observaciones, se mantiene la igualdad, lo que curiosamente no es
más que la aplicación del famoso teorema de Pitágoras a este diseño:
Cada uno de los términos es pues una suma de desviaciones cuadráticas, que
denominaremos de forma abreviada como suma de cuadrados (SC). La primera SC del
lado de la derecha corresponde a las desviaciones de cada observación respecto de la
media de su propio grupo, por lo que se la conoce como "dentro del grupo" o "intra
grupo" (en inglés within). El segundo sumando de la derecha corresponde a las
desviaciones de la media de cada grupo respecto de la media global, por lo que
cuantifica las diferencias medias entre los grupos, y se conoce como suma de cuadrados
"entre grupos" (en inglés between):
SCTotal=SCIntra grupo+SCEntre grupos
El cuadrado medio intra-grupo, equivalente a una varianza, lo calculamos dividiendo la
suma de cuadrados entre los grados de libertad
Queda claro que constituye por tanto una estimación de la varianza común .
De igual manera podemos calcular el cuadrado medio entre grupos:
que compara la variabilidad entre grupos y la variabilidad intra grupos, será por tanto
próximo a 1 si las medias de los grupos son similares y tanto mayor que 1 cuanto
mayores sean las diferencias entre los grupos. El valor de F obtenido se contrastará con
el valor de la distribución teórica con grados de libertad K-1,N-K, y si la probabilidad de
obtener un valor tan grande como el observado es baja, rechazaremos la hipótesis de
igualdad de medias entre los grupos. La utilización de este parámetro de contraste, que
tiene una rigurosa justificación metodológica estadística, también tiene pues una
interpretación intuitiva: estamos comparando la variabilidad entre los grupos con la
variabilidad intrínseca dentro de los grupos.
Por otro lado hemos visto que la variabilidad total la hemos dividido en dos partes: una
variabilidad debida o explicada por pertenecer a cada uno de los grupos o niveles del
factor, y una parte de variabilidad individual, que no atribuimos a ninguna causa
concreta, y que por ello se suele denominar también variabilidad residual. Esto
podemos reflejarlo de una forma clara manipulando un poco la fórmula [1] en la que se
desglosa la variabilidad de cada observación en dos términos:
[2]
En un artículo anterior se habló de la ventaja que presentan las pruebas pareadas para
aumentar la eficiencia, al controlar parte de la variabilidad no atribuible al factor que
estamos estudiando. Cuando se analizan más de dos niveles o grupos el concepto de
prueba pareada se puede generalizar al análisis de la varianza. Aquí se denomina bloque
a cada unidad de observación, y para un factor o tratamiento tenemos el siguiente diseño
experimental:
Tratamiento 1 Tratamiento 2 ... Tratamiento K
Bloque 1 Y11 Y12 ... Y1K
Bloque 2 Y21 Y22 ... Y1K
... ... ... ... ...
Bloque n Yn1 Yn2 ... YnK
En este diseño, de manera análoga a la expresada en la fórmula [2] podemos
descomponer la variabilidad individual según el siguiente modelo:
Diseños factoriales
Enlaces de interés
Statistics Notes: Comparing several groups using analysis of variance
Douglas G Altman and J Martin Bland
BMJ 1996; 312: 1472-1473. [Full text]
Análisis de la varianza
V. Abraira. Unidad de Bioestadística clínica del Hosp. Ramón y Cajal
• Introduction to ANOVA
• Factorial Between-Subjects ANOVA
• Within-Subjects ANOVA
HyperStat Online Textbook. Texto de estadística de David M. Lane Associate
Professor of Psychology, Statistics, and Administration at Rice University.
ANOVA
G. David Garson. North Carolina State University
Indice de artículos
Q
Var (Yi ) − Var (Yi − ∑q β q X qi ) Var (ε i )
Yi = ∑ β q X qi + ε i R2 = = 1−
q =0 Var (Yi ) Var (Yi )
σ 12 + τ 12 τ 12 + σ 1 n
2
R = 1− 2
1
2
σ 0 + τ 02 R22 = 1 −
j
σ
τ + n
2
2
0
0
j
nj