You are on page 1of 20

CORRELACION

Notas
Indice
INDICE 1
1. OBJETIVOS DEL TEMA 1
2. CONCEPTOS BSICOS PREVIOS 2
3. INTRODUCCIN 2
4. APUNTE HISTRICO 3
5. GRFICOS DE DISPERSIN 4
6. EL COEFICIENTE DE CORRELACIN DE PEARSON, r 5
7. CLCULO DEL COEFICIENTE DE CORRELACIN
r
8
8. ESTADSTICA INFERENCIAL 10
9. EL COEFICIENTE DE DETERMINACIN 11
10. OTRAS MEDIDAS DE CORRELACIN. (1) SIMPLIFICACIN DEL CLCULO DEL COEFICIENTE DE CORRELACIN 11
11. OTRAS MEDIDAS DE LA CORRELACIN. (2) COEFICIENTE DE CORRELACIN NO PARAMTRICO 14
12. MEDIDAS DE ASOCIACIN 16
13. OTRAS MEDIDAS DE ASOCIACIN RELACIONADAS CON EL ANOVA 18
14. COEFICIENTE DE CORRELACIN PARCIAL Y SEMIPARCIAL: CONTROL DEL IMPACTO DE OTRAS VARIABLES SOBRE LA
CORRELACIN 18
15. EXTENSIN MULTIVARIADA 19
BIBLIOGRAFA 20
1. Objetivos del tema
Conocer y comprender el concepto de correlacin
Saber cundo debe utilizarse tcnicas de correlacin y sus limitaciones
Saber representar e interpretar un diagrama de dispersin
Saber leer los resultados de un anlisis de correlacin producido por un sistema informtico
Saber calcular e interpretar un coeficiente de correlacin
Saber calcular e interpretar los intervalos de confianza del coeficiente de correlacin
Conocer, saber cundo utilizar y como interpretar las medidas de correlacin alternativas al coeficiente
de correlacin de Pearson
Saber calcular e interpretar el coeficiente de determinacin
Conocer, saber cundo utilizar y como interpretar los coeficientes de correlacin parcial y semiparcial
Conocer, saber cundo utilizar y como interpretar el coeficiente de correlacin mltiple
2
2. Conceptos bsicos previos
2.1. Varianza y cuasivarianza
En las notas anteriores se ha descrito la varianza (Descriptivos, pgina 4) y la cuasivarianza (Muestreo,
pgina 6) como una medida de dispersin de los datos:
( )
2
2
1
2
2 2
1 1
1
1
1 1
1
i
n
x i
i
n n
x i
i i
s x x
n
s x x
n n
=
= =
=

| |
=
|

\ .


2.2. Covarianza
La covarianza
2
x y
s es una medida de cuantificacin de la concordancia de la desviacin de dos variables:
( ) ( )
2
1
2
1 1 1
1
1
1 1
1
n
x y i i
i
n n n
x y i i i i
i i i
s x x y y
n
s x y x y
n n
=
= = =
=


2.2. Estandarizacin
La estandarizacin es un proceso de clculo para lograr variables comparables en magnitud y dispersin.
Consiste en restar a cada observacin la media y dividir este resultado por la desviacin tpica. Se
transforma en una distribucin de media cero y varianza igual a uno.
3. Introduccin
El estudio de la relacin entre dos o ms variables tiene una gran importancia en el Laboratorio Clnico.
Adems de las aplicaciones en investigacin bsica, aplicada y clnica, los problemas de calibracin,
validacin y comparacin metodolgica son corrientes en el da a da.
En general, cuando se habla de medir relaciones entre dos o ms variables, se habla de dos tipos de
anlisis: regresin y correlacin. El anlisis de la regresin se utiliza para establecer las relaciones entre dos
variables, habitualmente en el contexto de un estudio prospectivo o experimental. El anlisis de la
correlacin, sin embargo, pretende averiguar la intensidad o fortaleza de esta relacin, la proximidad de los
puntos a la lnea (recta) de regresin y acostumbra a hacerse en el contexto de un estudio retrospectivo u
observacional.
La correlacin es la relacin medible matemticamente mediante un nmero que representa la intensidad
de la relacin, pero no la causalidad.
La correlacin sirve para:
(a) explorar la existencia de la relacin particular estadsticamente significativa entre las dos variables,
es decir, si los cambios en una son consistentes en la otra;
(b) conocer si la relacin es positiva o negativa;
(c) cuantificar el grado de significacin estadstica de la relacin, es decir, la confianza (estadstica)
relacionada con dicha relacin;
(d) averiguar que parte de la variacin de una variable es explicada por la otra.
El anlisis de la correlacin implica los siguientes pasos:
(a) el estudio descriptivo mediante el grfico de dispersin;
(b) la estimacin del coeficiente de correlacin (incluyendo su intervalo de confianza);
(c) la valoracin de este coeficiente de correlacin (signo y magnitud) y la significacin estadstica;
(d) la interpretacin del coeficiente de correlacin evaluando el coeficiente de determinacin.
3
El anlisis de la correlacin tiene unas aplicaciones concretas pero tiende a ser sobreutilizado y
malinterpretado, especialmente quizs porque se asocia una alta correlacin con causalidad (y viceversa).
El anlisis de correlacin es preferible reservarlo para generar hiptesis en lugar de para comprobarlas.
4. Apunte histrico
Francis Galton fue el primero en medir la correlacin en 1888 a propsito del estudio que reasliz para
probar la regresin a la mediocridad de las alturas de los hijos y la de sus padres, mencionando por
primera vez un ndice de co-relacin.
Francis Galton (1822-1911)
F. Y. Edgeworth fue el primero en utilizar el trmino coeficiente de correlacin en 1892.
Francis Y. Edgeworth (1845-1926)
La frmula de clculo del coeficiente de correlacin tal como se conoce hoy es debida a K. Pearson que la
public en dos trabajos aparecidos en 1896. Tambin fue K. Pearson el primero en hacer inferencia con
grandes muestras.
Karl Pearson (1857-1936)
Sin embargo el mtodo utilizado para estas inferencias no era demasiado bueno y Student (William Gosset)
lo demostr as en 1908.
William S. Gosset (1876-1937)
En 1915, R.A. Fisher confirm la apreciacin de Student, obteniendo adems la distribucin exacta del
coeficiente de correlacin. Fisher propuso una transformacin aproximadamente normal en 1921 que
incluy ms adelante en su influyente obra Statistical methods for research workers hacindola accesible a
la comunidad cientfica. Desde 1932 se conoce como transformacin de Fisher.
Ronald A. Fisher (1890-1962)
En 1896, G. U. Yule acu el trmino de coeficientes netos en oposicin a coeficientes brutos para los
coeficientes de correlacin entre dos variables cuando se pretende eliminar el efecto de la variacin de una
tercera variable. Pearson (1897) juzg mas oportuno denominarlos parcial y total. En 1907, una
publicacin de Yule ya adoptaba esta denominacin (1), aunque ya en 1896 G.U. Yule introdujo tambin el
concepto de correlacin mltiple. Al ao siguiente se refera a l como el coeficiente de doble correlacin
1
R y en 1907 present el ensimo-coeficente de correlacin (coefficient of n-fold correlation) al que
denomin
1234...
R y al que K Pearson rebautiz en 1914 (y 1915) como coeficente de correlacin mltiple.
4
George U. Yule (1871-1951)
Otras aportaciones notables fueron obra de C. Spearman y M. Kendall. C. Spearman describi en 1904 el
coeficiente de correlacin ordinal (basado en la posicin ordinal de la observacin y no en su valor
absoluto), y M. Kendall una alternativa diferente al de no paramtrica al de Pearson
Charles Spearman (1863-1945). Maurice Kendall (1907-1983)
5. Grficos de dispersin
5.1. Sinnimos
Scatter diagram, scatter plot.
5.2. Definicin
Es el procedimiento de representacin grfica de las observaciones o mediciones efectuadas en cada
individuo
1
.
5.3.Utilizacin del grfico de dispersin
El grfico de dispersin se utiliza como una primera aproximacin para tener una idea global del tipo de
relacin existente entre dos variables.
5.4. Interpretacin
Cuando existe buena correlacin, los puntos se disponen de forma estrecha alrededor de una diagonal del
sistema cartesiano: la que tiene su origen en el extremo inferior izquierdo y va al superior derecho si es
positiva y al revs si la correlacin negativa. Cuando la disposicin de los puntos es aleatoria, la correlacin
es nula.

1
http://www.ncsu.edu/ncsu/chemistry/resource/excel/excel.html
http://www.ncsu.edu/labwrite/res/gt/graphtut-home.html
5


5.5. Limitaciones
No permite la cuantificacin de esta relacin, cosa que exige el clculo del coeficiente de correlacin.
6. El coeficiente de correlacin de Pearson, r
6.1. Sinnimos
Coeficiente r de correlacin muestral del producto de momentos.
6.2. Definicin
El coeficiente de correlacin r es la expresin matemtica de la relacin entre las dos variables aleatorias.
Es una versin estandarizada de la covarianza entre X e Y :
x y
x y
s
r
s s
=
6.3. Utilizacin del coeficiente de correlacin r
El coeficiente de correlacin r se utiliza para:
(a) comprobar que existe una relacin lineal entre dos variables aleatorias, antes de proceder al anlisis de
regresin;
(b) resumir en un solo nmero ( r ) la intensidad de la relacin lineal entre estas dos variables.
El coeficiente de correlacin r no debe utilizarse para:
(a) establecer relaciones causales entre dos variables;
(b) suplantar el anlisis de regresin;
(c) analizar la coherencia entre mediciones.
6
6.4. Propiedades del coeficiente de correlacin r
El coeficiente de correlacin r no tiene unidades;
El intervalo de posibles valores de r es: 1 1 r ;
En el anlisis de la correlacin no es aplicable la distincin entre variable dependiente o
independiente como sucede en el modelo de regresin: aqu ambas variables son dependientes.
6.5. Requisitos para calcular el coeficiente de correlacin r
Mnimo de dos observaciones por individuo, medidas en una escala de intervalo (continua); aunque
tambin pueden estarlo en escala ordinal, por codificacin de variables categricas;
El conjunto de observaciones, la muestra, ha de ser representativo de la poblacin: la presencia de
grupos heterogneos en una muestra (por ejemplo el incluir individuos jvenes y ancianos en la misma
muestra par estudiar la relacin entre la edad y el filtrado glomerular) puede resultar inapropiada;
El conjunto de observaciones no debe contener datos extremos, ya que el coeficiente de correlacin r
es muy sensible a su presencia;
Las observaciones no deben contener errores de medicin o ste ha de ser relativamente nfimo ya que
la baja fiabilidad de las observaciones atena el valor de r ;
Las variables deben estar relacionadas linealmente, es decir el grfico de dispersin sigue una diagonal:
las relaciones curvilneas pueden producir r no significativos;
La forma de la distribucin de las variables debe ser igual. Si no tienen la misma distribucin, aunque el
ajuste sea perfecto, se observar un 1 r < , y cuanto menos se parezcan las distribuciones ms se
atenuar r . Este efecto es importante cuando se correlaciona una variable en escala de intervalo con
otra ordinal o dicotomizada;
Adems, la distribucin de los pares ( ) ,
i i
x y debe ser bivariada normal
2
. Es importante desde el punto
de vista inferencial, cuando se trata de valorar la intensidad y la significacin estadstica de la
correlacin. Cuando la distribucin no sea normal, el intervalo de r puede que no sea
| |
1 , 1 . Sin
embargo, el teorema central del lmite demuestra que para muestras grandes los ndices implicados en
las pruebas de significacin se distribuyen normalmente incluso cuando las propias variables no lo sean.
De cualquier forma, cuando se prefiera evitar este tipo de conflicto, puede recurrirse a utilizar un clculo
no paramtrico como la de Spearman o un estadstico no paramtrico como la de Kendall;
La varianza de las variables debe ser homognea (variables homoscedsticas) y no restringida. Si la
varianza es truncada o restringida en una o varias variables, por ejemplo por un muestreo deficiente, el
coeficiente de correlacin puede verse afectado. Tambin por truncacin del intervalo de la variable por
dicotomizacin de datos continuos o reduccin de la escala.

2
El anlisis de la r de Pearson es esencialmente paramtrico, basado en la suposicin que los pares
( ) ,
i i
x y siguen una distribucin normal bivariada. La distribucin nomal bivariada es una extensin de la
distribucin normal caracterizada por que los valores de X e Y se distribuyen normalmente y la
distribucin marginal de ( ) , X Y tambin es normal, con cinco parmetros (
2 2
, , , ,
X Y
x y ). La
evaluacin de esta normalidad es ciertamente problemtica, aunque una regla aproximada dice que si X e
Y se distribuyen normalmente, puede actuarse como si ( ) , X Y fuera tambin normal. En cualquier caso
de dudas, puede optarse por el recurso de estimar el coeficiente de correlacin de forma no paramtrica.
7

6.6. Interpretacin del coeficiente de correlacin r
Para interpretar el coeficiente de correlacin r hay que conocer las magnitudes en que se han medido las
variables.
El coeficiente de correlacin r mide slo la relacin lineal entre variables, es decir, es una medida del poder
explicativo del modelo lineal, pero no mide la magnitud de la pendiente de la regresin ni si es adecuado un
modelo lineal. Si la relacin sigue un modelo no lineal (curvado) el coeficiente de correlacin puede ser 0.
En otras palabras, un coeficiente de correlacin pequeo no indica necesariamente que hay poca relacin
entre las variables, porque puede estar reducido si la relacin entre estas variables no es lineal. Una medida
de precaucin es calcular el intervalo de confianza del coeficiente de correlacin r para tener una visin
ms general, especialmente cuando el nmero de observaciones sea pequeo.
El coeficiente de correlacin r no implica causalidad. Para establecer una relacin causa efecto entre dos
variables es preciso que la variable causal preceda a la variable causada y cumplir una serie de condiciones
(reversibilidad, fortaleza, respuesta a la exposicin) contenidas en el llamado modelo de Rubin/Bradford Hill.
Desde el punto de vista geomtrico, los conjuntos de n observaciones son vectores en un espacio k
dimensional (habitualmente 2 k = , ya que si 2 k > se hablar de correlacin mltiple) y el coeficiente de
correlacin r sera el coseno del ngulo entre los vectores centrados por sustraccin de la respectiva
media. Si estos vectores son perpendiculares entre s (es decir forman un ngulo recto) porque se trata de
variables no correlacionadas, ser 0 r = y las variables se denominarn ortogonales (del griego ngulo
recto)
El coeficiente de correlacin r siempre sobrestima la relacin lineal entre dos variables en la poblacin, por
lo que requiere una correccin para conseguir una mejor estimacin. El resultado de esta correccin se
denomina coeficiente de correlacin ajustado y se representar como r .
6.6.1. Signo
El signo de r es positivo cuando al aumentar o disminuir el valor de una variable aleatoria la otra aumenta o
disminuye simultneamente.
El signo de r es negativo cuando al aumentar o disminuir el valor de una variable aleatoria la otra
disminuye o aumenta simultneamente.
6.6.2. Magnitud
Si las variables X e Y son independientes, 0 r = . Sin embargo, la inversa no es siempre cierta, salvo que
ambas variables se distribuyan normalmente;
Si las variables X e Y estn perfectamente relacionadas entre s:
1 r =
6.7. Limitaciones del coeficiente de correlacin r
6.7.1. Causalidad
La principal limitacin que tiene el coeficiente de correlacin es la posibilidad de mala interpretacin como
demostracin de causalidad. Cuando dos variables tienen un coeficiente de correlacin altamente
8
significativo no implica en modo alguno que una sea causa de la otra. Puede ser, por ejemplo, que esta alta
correlacin se deba a la existencia de una tercera (o ms) variables dependientes implicadas en el proceso.
En estos casos se recomienda recurrir al clculo del coeficiente de correlacin parcial o semiparcial.
En ocasiones se califica de esprea la alta correlacin no explicable.
6.7.2. Significacin paradjica
Una segunda limitacin se origina en el caso de estudiar la correlacin en una muestra cuyo contingente n
sea muy grande. En estos casos, r tiende a ser significativo aunque su valor absoluto no sea demasiado
grande. Cuando se evala el coeficiente de determinacin
2
R puede darse la circunstancia de que a pesar
de la alta significacin estadstica de r el coeficiente
2
R exprese slo un insignificante porcentaje de
variacin de una variable es explicado por la segunda variable. Esta paradoja resume el escaso valor que
puede tener el coeficiente r para definir la relacin entre variables.
6.7.2. Evaluacin de medidas de error
El coeficiente de correlacin no debe ser utilizado en comparacin de mtodos: indica el grado de
asociacin, no el nivel de acuerdo o concordancia entre diferentes mtodos.
7. Clculo del coeficiente de correlacin
r
7.1. Estandarizacin de X e Y
Una forma es utilizar el producto cruzado de los valores estandarizados de las variables:
x
x
y
y
x x
z
s
y y
z
s

=
( )( )
, ,
1
i i
x i y i
i i x y
i
i
x y
x x y y
z z
s s x x y y
r
n n n s s


= = =

O de forma ms directa, mediante:


2 2
2 2
i i
i i i
i i
i i i i
n x y x y
r
n x x n y y

=
( (
| | | |
( (
| |
\ . \ . ( (



Sin embargo, aunque til para programar informticamente, esta frmula puede introducir errores de
redondeo cuando se aplica manualmente, recomendndose en esta circunstancia utilizar la frmula anterior.
7.2. Estimacin insesgada
Desde 1915 en que R. A. Fisher lo evidenciara, se sabe que el coeficiente de correlacin r de Pearson
estimado segn las frmulas anteriores tiende a infraestimar la correlacin poblacional. Este sesgo
disminuye cuando aumenta el nmero de datos n , de modo que para contingentes numerosos, el sesgo es
mnimo. Fisher propuso como estimador insesgado:
2
1
1
2
r
r r
n
| |
= +
|
\ .
Olkin y Pratt (2) recomendaron utilizar el siguiente estadstico que parece ser que corrige mejor el sesgo de
r cuando el efectivo es 20 n :
9
2
1
1
2 6
r
r r
n
| |
= +
|

\ .
El sesgo del estimador del coeficiente de correlacin r de Pearson no debe confundirse con la inestabilidad
de la varianza de la que adolece tambin este estadstico. Fue tambin R. A. Fisher quien lo evidenci y el
que introdujo una transformacin (no lineal) denominada z :
1 1
ln
2 1
r
z
r
| | +
=
|

\ .
El error estndar de z es:
( )
1
3
es z
n
=

aunque Fieller y Pearson prefieren una frmula ms ajustada:


( )
1, 060
3
es z
n
=

La funcin inversa (denominada funcin tangente hiperblica) es:


2
2
1
1
z
z z
e
r
e

=
+
7.4. Correccin por atenuacin
La fiabilidad puede interpretarse como la correlacin de una variable consigo misma. La correccin para la
atenuacin de una correlacin
xy
r es una funcin de la fiabilidad de dos variables
x x
r y
y y
r :
x y
x y
x x y y
r
r
r r
=
7.5. Coeficiente de correlacin ajustado r
El coeficiente de correlacin es un estadstico descriptivo que siempre sobrestima la correlacin de la
poblacin. Para una estimacin ms exacta, puede ajustarse segn la expresin:
( )
2
1
1 1
2
n
r r
n

=

7.6. Relaciones de r con otros parmetros afines:


(a) con el coeficiente de regresin b (pendiente):
2
r bb =
(b) con el coeficiente de determinacin
2
R :
2 2
R r =
(c) con la covarianza
2
x y
s :
2
x y x y
s r s s =
10
7.7. Promedio de coeficientes de correlacin
En algunas circunstancias puede ser interesante considerar un valor medio de diferentes coeficientes de
correlacin. Por ejemplo, si se desea evaluar el rendimiento interensayo en un estudio de aprendizaje, una
circunstancia rara en medicina de laboratorio. Ms interesante puede ser en un metanlisis. El coeficiente
de correlacin medio ser:
i i
i
i
i
n r
r
n
=

donde:
i
n es el tamao muestral de las i muestras;
i
r es el coeficiente de correlacin de las i muestras.
Como que r es un estadstico sesgado que para valores superiores a 0 infraestima la correlacin
poblacional, tambin lo ser r .Por la misma razn, al ser r un estadstico de varianza inestable, tambin
lo ser r y tambin le ser aplicable la transformacin z de Fisher para estabilizarla, aunque este ltimo
punto es objeto de controversia.
8. Estadstica inferencial
(Vase Mdulo 2)
8.1. Intervalos de confianza del coeficiente de correlacin
Para calcular el intervalo de confianza del coeficiente de correlacin se recurre a la transformacin de Fisher
mencionada anteriormente, que se distribuye normalmente y cuyo error estndar tambin se mencion. El
intervalo estar comprendido entre los lmites inferior
L
z y superior
U
z :
1
1, 96
3
1
1, 96
3
L
U
z z
n
z z
n
=

= +

Seguidamente, para conseguir estos lmites en trminos de coeficiente de correlacin, se aplicar la


transformacin inversa:
2
2
2
2
1
1
1
1
L
L
U
U
z
L z
z
U z
e
r
e
e
r
e

=
+

=
+
8.2. Test de hiptesis
Definicin del test:
0
1
: 0
: 0
H
H

Distribucin de probabilidad de r :
2
1
,
2
r N
n

| |
|

\ .

Estadstico a calcular:
11
2
2
1
obs
r n
t
r

Alternativamente, ya que
2
F t = :
( )
2
2
2
1
obs
r
F n
r
=

Cuando la hiptesis nula es cierta, y cumplindose los requisitos y suposiciones, los estadsticos
observados se distribuyen segn
2 n
t

y
1, 2 n
F

respectivamente:
( )
( )
2
1, 2
2 Pr
2 Pr
n obs
n obs
p t t
p F F

=
=
9. El coeficiente de determinacin
El coeficiente de determinacin
2
R indica la proporcin de varianza comn entre una variable dependiente
y una(s) variable(s) independientes. Se define como el cuadrado del coeficiente de correlacin r de
Pearson:
2 2
R r =
Sus valores estn, pues incluidos en el intervalo
| |
0,1 .
En las notas referentes a la Regresin, se trata ms ampliamente, en el contexto de la regresin lineal.
10. Otras medidas de correlacin. (1) Simplificacin del clculo del coeficiente de
correlacin
Versiones simplificadas del clculo del coeficiente de Pearson, a veces denominados atajos, son:
El coeficiente de correlacin (rho) de Spearman
El coeficiente de correlacin biserial puntual
b p
r
El coeficiente de correlacin (phi)
escala intervalo ordinal nominal
dicotmico
natural
dicotmico
artificial
intervalo r de Pearson
ordinal biserial
b
r
de Spearman
de Kendall
nominal
biserial puntual
b p
r
br
r biserial
ordenado
C de contingencia
,
dicotmico
natural
biserial puntual
b p
r
b p
r biserial
puntual
V de Cramer
dicotmico
artificial
biserial
b
r tetracrico
tet
r
12
10.1. El coeficiente de correlacin de Spearman
Definicin
Es un caso especial de coeficiente de correlacin de Pearson en que los datos continuos son previamente
convertidos en ordinales.
Propiedades
Aplicable cuando se trata de datos ordenados (o continuos reducidos a ordinales);
Menos influenciable por la presencia de datos sesgados o variables;
Es una medida de correlacin no paramtrica en el sentido de que no implica suposiciones acerca de la
forma de la distribucin de frecuencias de las variables implicadas;
Tampoco requiere la suposicin de linealidad.
Clculo
3
Una vez convertidos los datos en sus respectivos ordinales, se aplica el mismo procedimiento de clculo
que para el coeficiente de Pearson.
Una frmula alternativa, ms prctica, es:
( )
2
6
1
1
d
n n
=

donde:
2
d es la diferencia de los ordinales de X e Y ;
n es el nmero de pares de datos
10.2. El coeficiente de correlacin biserial puntual
Definicin
Es un caso especial de coeficiente de correlacin de Pearson en que una variable est medida en escala
nominal dicotmica natural (es decir, los datos se expresan como dos alternativas, por ejemplo 1 y 0) y la
otra en escala de intervalo o continua.
Propiedades
Aplicable cuando se trata de datos ordenados (o continuos reducidos a ordinales);
Clculo
( )
1 0
b p
y
y y p q
r

=
donde:
0 1
, y y son las medias de los ordinales de los pares de datos con puntuaciones 1 y 0;
p es la proporcin de pares de datos con puntuacin 0;
1 q p = es la proporcin de pares de datos con puntuacin 1;
y
es la desviacin tpica de los datos de la poblacin Y .
Interpretacin
Como el caso del coeficiente de correlacin de Pearson,
b p
r tiene un intervalo de valores 1 1 r .

3
Una calculadora on line puede encontarse en http://www.wessa.net/rankcorr.wasp
13
10.3. El coeficiente de correlacin biserial
b
r
Definicin
El coeficiente de correlacin biserial
b
r es similar al coeficiente de correlacin biserial puntual
b p
r pero para
variables medidas en escala cuantitativa una y dicotomizada la otra, aunque subyacentemente se distribuya
normalmente.
Clculo
4
( )
1 0
b
y
p q
y y
Y
r

=
donde:
0 1
, y y son las medias de las variables cuantitativas;
p es la proporcin de pares de datos con puntuacin 0;
1 q p = es la proporcin de pares de datos con puntuacin 1;
Y es la altura de la distribucin normal estandarizada (media = 0 y varianza = 1) en el
punto z tal que
( )
( )
Pr ' )
Pr ' )
z z p
z z q
< =
> =
y
es la desviacin tpica de los datos de la poblacin Y .
Interpretacin
Dado que el factor
p q
Y
del numerador siempre ser > 1, el coeficiente de correlacin biserial
b
r ser
siempre mayor que el coeficiente de correlacin biserial puntual
b p
r .
10.4. El coeficiente de correlacin biserial ordinal
bo
r
Definicin
El coeficiente de correlacin biserial ordinal
bo
r es similar al coeficiente de correlacin biserial puntual
b p
r
pero para variables medidas en escala ordinal una y dicotomizada la otra, aunque subyacentemente se
distribuya normalmente.
Clculo
( )
1 0
2
bo
y y
r
n

=
donde:
0 1
, y y son las medias de los ordinales para los pares de datos con puntuaciones 1 y 0;
n es el nmero de pares de datos.
Interpretacin
Salvo por el matiz de la variable dicotomizada, tiene la misma interpretacin que el coeficiente de
correlacin biserial puntual
b p
r .

4
Una aplicacin para Excel puede obtenerse en: http://psych.colorado.edu/~bonk/IF_pbi_template.xls.zip.
14
10.5. Coeficiente de correlacin
Definicin
Esta simplificacin del clculo del coeficiente de correlacin r de Pearson se ha utilizado en la
comprobacin de la hiptesis de independencia, es decir de la propiedad inversa a la asociacin, cuando
ambas variables son dicotmicas. En este caso se acostumbra a establecer unas tablas bidimensionales
(una variable en cada dimensin) que representan la frecuencia de cada una de las cuatro categoras y las
sumas marginales:
X
+
+ a b a+b
Y
c d c+d
a+c b+d n
Clculo
5
( ) ( ) ( ) ( )
bc a d
a b c d a c b d

=
+ + + +
Interpretacin
Como el caso del coeficiente de correlacin de Pearson,
b p
r tiene un intervalo de valores 1 1 r . Sin
embargo, los valores extremos 1 r = slo son posibles cuando la suma de las dos filas y la suma de las
dos columnas sea igual.
11. Otras medidas de la correlacin. (2) Coeficiente de correlacin no paramtrico
Cuando se violan los supuestos del clculo del coeficiente de correlacin de Pearson, puede recurrirse a la
transformacin de estos datos para corregir la anomala o utilizar un anlisis no paramtrico de la
correlacin.
11.1. Coeficiente de correlacin de Kendall
Propiedades
El coeficiente de correlacin de Kendall tiene un intervalo de valores 1 1 .
Cuando la concordancia o discordancia entre los ordinales de dos variables es perfecta, vale 1 o 1;
cuando son independientes, 0 = .
Clculo
6
( )
4
1
1
P
n n
=

Cuando 40 n > :

5
Puede obtenerse una calculadora on line en http://faculty.vassar.edu/lowry/tab2x2.html
6
Puede obtenerse una calculadora on line en http://www.wessa.net/rwasp_kendall.wasp
15
( ) ( ) 1 2 5
18
P
z
n n n
=
+
donde: n es el nmero de pares de observaciones;
P es el nmero de pares concordantes menos el nmero de pares discordantes;
z corresponde a la distribucin normal.
Interpretacin
Cuanto mayor sea el nmero de pares concordantes, mayor ser P y por tanto , indicando que los
ordinales son consistentes
7
.
11.2. Coeficiente de correlacin tetracrico
tet
r
Definicin
Es una estimacin de r a partir de variables dicotmicas, como , que representan distribuciones de
valores en escala de intervalo y distribuidas normalmente, pero que por la razn que fuere han sido
dicotomizadas.

7
Nota: Los empates no son concordantes ni discordantes. Si hay muchos empates debe considerarse el
utilizar frmulas alternativas (Todas estos coeficientes presentan valores en el intervalo
| |
1,1 alcanzando
los valores extremos en caso de concordancia o discordancia perfecta, y de 0 en caso de ausencia de
asociacin):
b
de Kendall. Este estadstico incluye los empates
X
E y
Y
E . Se define como:
( ) ( )
b
X Y
C D
C D E C D E


=
+ + + +
c
de Kendall. Este estadstico incluye el menor nmero de casos no empatados en la variable X y en la
Y . Se define como:
( )
( )
2
2
1
c
B C D
n B

d de Somers: Este estadstico considera tanto variables simtricas (en este caso coincide con la
b
) como
dependientes. En este caso, si la variable dependiente es Y :
Y
C D
d
C D E

=
+ +
donde: B es el menor nmero de casos no empatados en la variable X y en la Y ;
( ) 1
2
n n
C

= es el nmero total de concordancias, incluyendo los E empates;
D es el nmero total de discordancias;
X
E ,
Y
E es el nmero de empates en la variable X y en la Y respectivamente; y
E es el nmero total de empates.
Todas estos coeficientes presentan valores en el intervalo
| |
1,1 alcanzando los valores extremos n caso
de concordancia o discordancia perfecta, y de 0 en caso de ausencia de asociacin.
16
Clculo
8
180
cos
1
tet
r
bc
a d
| |
|
|
=
|
+
|
|
\ .
Aplicaciones
Se utiliza en el modelado de ecuaciones estructurales (SEM) y por lo general su utilizacin como medida de
asociacin se desaconseja.
Segn el procedimiento utilizado para calcularlo, el resultado puede ser diferente.
12. Medidas de asociacin
Existe una serie de medidas ocasionalmente denominadas coeficientes de correlacin, pero que con ms
propiedad deben llamarse de asociacin, son parecidas al coeficiente .
12.1. Coeficiente de contingencia C de Pearson
Definicin
El coeficiente de contingencia C de Pearson es una medida de asociacin entre dos variables medidas en
escala nominal. Se trata de adaptar el estadstico
2
a tablas de dimensiones superiores a 2 x 2. De hecho
existe la recomendacin de utilizarlo slo para tablas de 5 x 5 o superiores, ya que por debajo de esta
dimensin se infraestima la asociacin de las variables.
Clculo
2
2
C
n

=
+
Existe una variante (denominada * C de Sakoda) para ajustar C :
( )
( )
*
min , 1
min ,
observada observada
mxima
C C
C
C
filas columnas
filas columnas
= =

que vara entre ( ) 0,1 independientemente de las dimensiones de la tabla


Interpretacin
La interpretacin tanto de C como de * C no es intuitiva. Pearson lo consideraba una aproximacin al
coeficiente r ,y puede ser considerado como un porcentaje de su mxima variacin posible. Debe tenerse
en cuenta que cuanto menor sean las dimensiones de la tabla, ms se alejar C de 1(cosa que no sucede
con * C ). Para tablas de 2 x 2 el valor mximo de C es de 0,71.
12.2. Coeficiente V de Cramr
Definicin
El coeficiente V descrito por Harald Cramr (3) es una medida de asociacin entre variables medidas en
escala nominal.

8
Una calculadora on line puede encontrarse en: http://www.mhri.edu.au/biostats/DAG%5FStat/.
17
Clculo
9
Utiliza el estadstico
2
:
( )
2
min 1 , 1
V
n R C

=

donde: C es el nmero de columnas;
R es el nmero de filas; y
n es el nmero de observaciones.
En el caso sencillo de tablas 2 x 2, equivale al coeficiente mencionado anteriormente:
2
n

=
Interpretacin
El estadstico V est dentro del intervalo
| |
0,1 . Un valor 0 V = significa una concordancia inexistente y
1 V = implica una concordancia perfecta.
12.3. Coeficiente de Goodman y Kruskal
Definicin
El coeficiente de Goodman y Kruskal es una medida de asociacin entre dos variables medidas en
escala nominal, como el coeficiente de contingencia C de Pearson o el coeficiente V de Cramer, pero en
este caso no se utiliza el estadstico
2
.
Clculo
10
( ) ( ) ( )
( )
Pr Pr | 1
Pr
error error x t
error


=
Ya que las verdaderas probabilidades no se conocen, es estimado mediante:
( ) ( )
( )
1
max max

max
r
i j
i
j
n C
N C

=

=

donde: N es el nmero total de observaciones;


( ) max
i
n es la mayor frecuencia en la i-sima fila de las r que puede contener la tabla; y
( )
max
j
C es el mayor total de las columnas de la tabla.
Este estadstico se distribuye de forma gaussiana con varianza:
( )
( ) ( ) ( ) ( )
( ) ( )
*
1 1 1
3
max max max 2 max

var
max
r r r
i i j i
i i i
j
N n n C n
N C

= = =
| | | |
+
| |
\ . \ .
=



9
Una calculadora on line puede encontrarse en: http://faculty.vassar.edu/lowry/newcs.html.
10
Una calculadora on line puede encontrarse en: http://www.mhri.edu.au/biostats/DAG%5FStat/.
18
donde: ( )
*
1
max
r
i
i
n
=

es la suma de las frecuencias mximas de la columna asociada a


( )
max
j
C .
Esto permite introducir un test de hiptesis, calculando el valor z (4):
( )
0

var
z

=
Interpretacin
El estadstico est en el intervalo
| |
0,1 . Un valor 0 = significa que el antecedente no ayuda a
predecir el consecuente, y 1 = implica una prediccin perfecta.
13. Otras medidas de asociacin relacionadas con el ANOVA
13.1. Coeficiente de correlacin nolineal (eta)
Definicin
El coeficiente de correlacin lineal (eta) (en ocasiones denominado
2
E ) permite medir la asociacin
cuando no se cumple el requisito de linealidad. En otras palabras, es una medida de la linealidad de la
relacin.
Clculo
Es el coeficiente entre la suma de cuadrados entre grupos (que mide el efecto de la variable agrupadora, es
decir, la diferencia entre las medias de los grupos) y la suma de cuadrados total en el ANOVA
Interpretacin
Puede interpretarse como el porcentaje de la varianza total de la variable dependiente explicada por la
varianza entre categoras (grupos) constituidos por las variables independientes. Vendra a ser un anlogo
del coeficiente
2
R . Cuando la relacin no sea lineal,
2
R > . Es decir, el intervalo de se extiende ms
all del coeficiente de correlacin r .
13.2. Coeficiente de correlacin intraclase
Es un tipo de medida de correlacin basada en el ANOVA
Mide la homogeneidad relativa de varios grupos en razn de la variacin total. Por ejemplo se utiliza para
valorar la fiabilidad entre clasificadores:
( ) 1
ic
MS entre grupos MS intra grupos
r
MS entre grupos n MS intra grupos

=

donde: n es el nmero medio de casos en cada categora de la variable independiente X .
Es grande y positiva cuando no hay variacin entre grupos pero dispersin entre medias.
El intervalo de valores es:
1
1
1
i c
r
n

.
14. Coeficiente de correlacin parcial y semiparcial: control del impacto de otras
variables sobre la correlacin
Cuando se sospecha que una determinada variable Z (denominada de control o de confusin) pueda
interferir en la valoracin de la relacin existente entre dos variables X e Y puede intervenirse:
19
(a) refinando el diseo experimental: aleatorizando los individuos, limitndose a un solo valor, ajustando
los individuos; o
(b) incorporando la variable Z al anlisis y calculado el llamado coeficiente de correlacin parcial o el
coeficiente de correlacin semiparcial.
14.1. El coeficiente de correlacin parcial
El coeficiente de correlacin parcial (de primer orden) es la relacin entre dos variables cuando se ha
eliminado de cada una de ellas el efecto que sobre ellas tiene una tercera variable. Es decir, tras controlar
estadsticamente la influencia de una tercera variable.
Nomenclatura
X Y Z
r


donde: X , Y son las variables objeto del estudio;
Z es la variable de control
Clculo
Consiste en estudiar las correlaciones
X Y
r ,
X Z
r ,
Y Z
r y combinarlas:
( )( )
.
2 2
1 1
X Z X Y Y Z
X Z Y
X Y X Z
r r r
r
r r

=

14.2. El coeficiente de correlacin semiparcial
El coeficiente de correlacin semiparcial es la correlacin existente entre dos variables cuando se ha
eliminado de cada una de ellas el efecto que una tercera variable tiene sobre ella.
Nomenclatura
( ) X Y Z
r

representa la correlacin entre las variables X e Y objeto del estudio, eliminando el efecto de la
variable de control Z sobre la variable Y .
( ) Y X Z
r

representa la correlacin entre las variables X e Y eliminando el efecto de la variable Z sobre la
variable X .
donde: X , Y son las variables objeto del estudio;
Z es la variable de control
Clculo
Consiste en estudiar las correlaciones
X Y
r ,
X Z
r ,
Y Z
r y combinarlas:
( )
( )

2
1
1
X Y X Z Y Z
X Y Z
Y Z
X Y X Z Y Z
Y X Z
X Z
r r r
r
r
r r r
r
r

15. Extensin multivariada


(Vase el Mdulo 3: Correlacin mltiple).
20
Bibliografa
1. Yule GU. On the theory of correlation for any number of variables, treated by a new system of notation.
Proc R Soc, Ser A 1907;79:182-193.
2. Olkin I, Prat JW. Unbiased estimation of certain correlation coeffcients. Ann Math Stat 1958;29:201-211.
3. Cramr H. Mathematical Methods of Statistics. Princeton: University Press; 1999.
4. Siegel S, Castellan NJ. Nonparametric statistics for the behavioral sciences. 2 ed. ed. New York:
McGraw-Hill; 1988.

You might also like