You are on page 1of 166

PREFACIO DE LOS EDITORES

La creciente especialización en investigación biológica ha hecho que sea


imposible para cualquier autor tratar adecuadamente los avances actuales en el
conocimiento. Se ha convertido en una cuestión de gran dificultad para que un
estudiante de investigación tenga una idea correcta del estado actual del
conocimiento de un tema en el que él mismo está interesado. Para enfrentar
esta situación, el libro de texto se complementa con la monografía.

El objetivo de la presente serie es proporcionar informes fidedignos de lo que


se ha hecho en algunas de las diversas ramas de la investigación biológica y,
al mismo tiempo, brindar una oportunidad a aquellos que han contribuido
notablemente al desarrollo de un campo de investigación particular. de
presentar los resultados de sus investigaciones, dispersos por revistas
científicas, en una forma más extensa, mostrando su relación con lo que ya se
ha hecho y con los problemas que quedan por resolver.

La generación actual está presenciando "un regreso a la práctica de los días


más viejos cuando la fisiología animal [p. Vi] aún no estaba divorciada de la
morfología". Se está viendo un progreso notable en el campo de la fisiología
general, de la biología experimental y en la aplicación de los principios
biológicos a los problemas económicos. En esta serie, por lo tanto, se pretende
que la investigación biológica, tanto pura como aplicada, esté representada.

Equipo de la FAE, Edimburgo


D. Ward Cutler, Rothamsted [p. vii]
PREFACIO DEL AUTOR

Durante varios años, el autor ha estado trabajando en cooperación algo íntima


con varios departamentos de investigación biológica; El presente libro es en
todo sentido el producto de esta circunstancia. El contacto diario con los
problemas estadísticos que se presentan al trabajador de laboratorio ha
estimulado las investigaciones puramente matemáticas en las que se basan los
métodos aquí presentados. Poca experiencia es suficiente para demostrar que
la maquinaria tradicional de los procesos estadísticos es totalmente
inadecuada para las necesidades de la investigación práctica. ¡No solo se
necesita un cañón para disparar a un gorrión, sino que se pierde el gorrión! El
elaborado mecanismo construido sobre la teoría de muestras infinitamente
grandes no es lo suficientemente preciso para datos de laboratorio
simples. Solo al abordar sistemáticamente pequeños problemas de muestra en
sus méritos, parece posible aplicar pruebas precisas a datos prácticos. Tal al
menos ha sido el objetivo de este libro.

Debo más de lo que puedo decir al señor WS Gosset, al señor E. Somerfield y


a la señorita WA Mackenzie, quienes [pág. viii] han leído las pruebas y hecho
muchas sugerencias valiosas. Se han eliminado muchos errores pequeños pero
no menos problemáticos; Estaré agradecido a los lectores que me notificarán
sobre cualquier error y ambigüedad adicional que puedan detectar.

ESTACIÓN EXPERIMENTAL ROTHAMSTED,


febrero de 1925
INTRODUCTORIO

1. El alcance de las estadísticas

La ciencia de la estadística es esencialmente una rama de las Matemáticas


Aplicadas y puede considerarse como matemáticas aplicadas a los datos de
observación. Como en otros estudios matemáticos, la misma fórmula es
igualmente relevante para grupos de materias ampliamente diferentes. En
consecuencia, la unidad de las diferentes aplicaciones generalmente se ha
pasado por alto, más naturalmente porque el desarrollo de la teoría matemática
subyacente ha sido muy descuidado. Por lo tanto, consideraremos el tema de
las estadísticas bajo tres aspectos diferentes y luego mostraremos en un
lenguaje más matemático que surgen los mismos tipos de problemas en cada
caso. Las estadísticas se pueden considerar como (i.) El estudio
de poblaciones , (ii.) Como el estudio de variación , (iii.) Como el estudio de
métodos de reducción de datos.

El significado original de la palabra "estadísticas" [p. 2] sugiere que fue el


estudio de poblaciones de seres humanos que viven en unión política. Sin
embargo, los métodos desarrollados no tienen nada que ver con la unidad
política del grupo y no se limitan a las poblaciones de hombres o de insectos
sociales. De hecho, dado que ningún registro de observación puede especificar
completamente a un ser humano, las poblaciones estudiadas son, hasta cierto
punto, abstracciones. Si tenemos registros de la estatura de 10,000 reclutas, es
más bien la población de estaturas que la población de reclutas lo que está
abierto a estudio. Sin embargo, en un sentido real, las estadísticas son el
estudio de poblaciones, o agregados de individuos, en lugar de
individuos. Teorías científicas que involucran las propiedades de grandes
agregados de individuos, y no necesariamente las propiedades de los
individuos mismos, como la Teoría cinética de los gases, la Teoría de la
selección natural o la Teoría química de la acción de masas, son
esencialmente argumentos estadísticos; y pueden ser mal interpretados tan
pronto como se pierda de vista la naturaleza estadística del
argumento. Estadístico. Los métodos son esenciales para los estudios sociales,
y es principalmente con la ayuda de tales métodos que estos estudios pueden
elevarse al rango de ciencias. Esta particular dependencia de los estudios
sociales sobre los métodos estadísticos ha llevado a la dolorosa interpretación
errónea de que las estadísticas deben considerarse como una rama de la
economía, mientras que en realidad los economistas tienen mucho que
aprender de sus contemporáneos científicos, no solo en el método científico
general, sino en particular. En la práctica estadística. La teoría de la selección
natural, o la teoría química de la acción de masas, son esencialmente
argumentos estadísticos; y pueden ser mal interpretados tan pronto como se
pierda de vista la naturaleza estadística del argumento. Estadístico. Los
métodos son esenciales para los estudios sociales, y es principalmente con la
ayuda de tales métodos que estos estudios pueden elevarse al rango de
ciencias. Esta particular dependencia de los estudios sociales sobre los
métodos estadísticos ha llevado a la dolorosa interpretación errónea de que las
estadísticas deben considerarse como una rama de la economía, mientras que
en realidad los economistas tienen mucho que aprender de sus
contemporáneos científicos, no solo en el método científico general, sino en
particular. En la práctica estadística. La teoría de la selección natural, o la
teoría química de la acción de masas, son esencialmente argumentos
estadísticos; y pueden ser mal interpretados tan pronto como se pierda de vista
la naturaleza estadística del argumento. Estadístico. Los métodos son
esenciales para los estudios sociales, y es principalmente con la ayuda de tales
métodos que estos estudios pueden elevarse al rango de ciencias. Esta
particular dependencia de los estudios sociales sobre los métodos estadísticos
ha llevado a la dolorosa interpretación errónea de que las estadísticas deben
considerarse como una rama de la economía, mientras que en realidad los
economistas tienen mucho que aprender de sus contemporáneos científicos, no
solo en el método científico general, sino en particular. En la práctica
estadística. y pueden ser mal interpretados tan pronto como se pierda de vista
la naturaleza estadística del argumento. Estadístico. Los métodos son
esenciales para los estudios sociales, y es principalmente con la ayuda de tales
métodos que estos estudios pueden elevarse al rango de ciencias. Esta
particular dependencia de los estudios sociales sobre los métodos estadísticos
ha llevado a la dolorosa interpretación errónea de que las estadísticas deben
considerarse como una rama de la economía, mientras que en realidad los
economistas tienen mucho que aprender de sus contemporáneos científicos, no
solo en el método científico general, sino en particular. En la práctica
estadística. y pueden ser mal interpretados tan pronto como se pierda de vista
la naturaleza estadística del argumento. Estadístico. Los métodos son
esenciales para los estudios sociales, y es principalmente con la ayuda de tales
métodos que estos estudios pueden elevarse al rango de ciencias. Esta
particular dependencia de los estudios sociales sobre los métodos estadísticos
ha llevado a la dolorosa interpretación errónea de que las estadísticas deben
considerarse como una rama de la economía, mientras que en realidad los
economistas tienen mucho que aprender de sus contemporáneos científicos, no
solo en el método científico general, sino en particular. En la práctica
estadística.

La idea de una población debe aplicarse no solo [pág. 3] a individuos vivos, o


incluso materiales. Si una observación, como una medición simple, se repite
varias veces, el agregado de los resultados es una población de
mediciones. Tales poblaciones son el campo particular de estudio de la Teoría
de los Errores., una de las líneas de investigación estadística más antiguas y
fructíferas. Del mismo modo que una sola observación puede considerarse
como un individuo, y su repetición genera una población, el resultado
completo de un experimento extenso puede considerarse como uno más de
una población de tales experimentos. El hábito saludable de repetir
experimentos importantes, o de realizar observaciones originales en réplica,
muestra una apreciación tácita del hecho de que el objeto de nuestro estudio
no es el resultado individual, sino la población de posibilidades de las cuales
hacemos todo lo posible para hacer nuestro Representante de experimentos. El
cálculo de los medios y los errores probables muestra un intento deliberado de
averiguar algo sobre esa población.

La concepción de las estadísticas como el estudio de la variación es el


resultado natural de ver al sujeto como el estudio de las poblaciones; para una
población de individuos, en todos los aspectos idénticos, se describe
completamente mediante una descripción de cualquier individuo, junto con el
número en el grupo. Las poblaciones que son objeto de estudio estadístico
siempre muestran variaciones en uno o más aspectos. Hablar de estadísticas
como el estudio de la variación también sirve para enfatizar el contraste entre
los objetivos de los estadísticos modernos y los de sus predecesores. Porque,
hasta tiempos comparativamente recientes, la gran mayoría [p. 4] de los
trabajadores en este campo parece no haber tenido otro objetivo que
determinar valores agregados o promedios.

La variación en sí misma no fue un objeto de estudio, sino que se reconoció


más bien como una circunstancia problemática que restó valor al
promedio. La curva de error de la media de una muestra normal ha sido
familiar durante un siglo, pero la desviación estándar apenas se ha establecido
de manera segura durante una década. Sin embargo, desde el punto de vista
moderno, el estudio de las causas de variación de cualquier fenómeno
variable, desde el rendimiento del trigo hasta el intelecto del hombre, debe
comenzar con el examen y la medición de la variación que se presenta.

El estudio de la variación conduce inmediatamente al concepto de


una distribución de frecuencia.. Las distribuciones de frecuencia son de
varios tipos, según el número de clases en que se distribuye la población es
finito o infinito, y también según los intervalos que separan las clases son
finitos o infinitesimales. En el caso más simple posible, en el que solo hay dos
clases, como los nacimientos masculinos y femeninos, la distribución se
especifica simplemente por la proporción en que ocurren, como por ejemplo
por la afirmación de que el 51 por ciento de los nacimientos son de varones. y
el 49 por ciento de las mujeres. En otros casos, la variación puede ser
discontinua, pero el número de clases es indefinido, como el número de hijos
nacidos de diferentes parejas casadas; la distribución de frecuencia luego
mostraría la frecuencia con la que se registraron 0, 1, 2 ... niños, siendo el
número de clases suficiente para incluir a la familia más grande en el
registro. [pag. 5] La cantidad variable, como el número de hijos, se
llamavaria , y la distribución de frecuencia especifica con qué frecuencia la
variable toma cada uno de sus valores posibles. En el tercer grupo de casos, la
variable, como la estatura humana, puede tomar cualquier valor intermedio
dentro de su rango de variación; luego se dice que la variable varía
continuamente, y la distribución de frecuencia puede expresarse
estableciendo, como una función matemática de la variable, ya sea (i) la
proporción de la población para la cual la variable es menor que cualquier
valor dado, o ( ii.) por el dispositivo matemático de diferenciar esta función, la
proporción (infinitesimal) de la población para la cual la variable cae dentro
de cualquier elemento infinitesimal de su rango.

La idea de una distribución de frecuencia es aplicable a poblaciones que son


finitas en número, o a poblaciones infinitas, pero se aplica de manera más útil
y sencilla a esta última. Una población finita solo puede dividirse en ciertas
proporciones limitadas, y en ningún caso puede mostrar una variación
continua. Además, en la mayoría de los casos, solo una población infinita
puede exhibir con precisión, y en su verdadera proporción, la totalidad de las
posibilidades que surgen de las causas realmente en el trabajo, y que
deseamos estudiar. Las observaciones reales solo pueden ser una muestra de
tales posibilidades. Con una población infinita, la distribución de frecuencia
especifica las fracciones de las poblaciones asignadas a las diversas
clases; podemos tener (i.) un número finito de fracciones que se suman a la
unidad como en las distribuciones de frecuencia mendelianas, o (ii. ) una serie
infinita de fracciones finitas que se suman a la unidad, o (iii.) una matemática
[pág. 6] función que expresa la fracción del total en cada uno de los elementos
infinitesimales en los que se puede dividir el rango de la variable. La última
posibilidad puede ser representada por una curva de frecuencia; los valores de
la variable se establecen a lo largo de un eje horizontal, la fracción de la
población total, dentro de cualquier límite de la variable, representada por el
área de la curva que se encuentra en la longitud correspondiente del eje. Cabe
señalar que el concepto familiar de la curva de frecuencia solo es aplicable a
poblaciones infinitas con variables continuas. La última posibilidad puede ser
representada por una curva de frecuencia; los valores de la variable se
establecen a lo largo de un eje horizontal, la fracción de la población total,
dentro de cualquier límite de la variable, representada por el área de la curva
que se encuentra en la longitud correspondiente del eje. Cabe señalar que el
concepto familiar de la curva de frecuencia solo es aplicable a poblaciones
infinitas con variables continuas. La última posibilidad puede ser representada
por una curva de frecuencia; los valores de la variable se establecen a lo largo
de un eje horizontal, la fracción de la población total, dentro de cualquier
límite de la variable, representada por el área de la curva que se encuentra en
la longitud correspondiente del eje. Cabe señalar que el concepto familiar de
la curva de frecuencia solo es aplicable a poblaciones infinitas con variables
continuas.
El estudio de la variación ha llevado no solo a medir la cantidad de variación
presente, sino al estudio de los problemas cualitativos del tipo o forma de la
variación. Especialmente importante es el estudio de la variación simultánea
de dos o más variables. Este estudio, que surge principalmente del trabajo de
Galton y Pearson, se conoce generalmente en inglés con el nombre
de Correlación , pero por algunos escritores continentales
como Covariation .

El tercer aspecto bajo el cual consideraremos el alcance de las estadísticas se


introduce por la necesidad práctica de reducir la mayor parte de cualquier
conjunto de datos. Cualquier investigador que haya realizado observaciones
metódicas y extensas probablemente estará familiarizado con la necesidad
opresiva de reducir sus resultados a un volumen más conveniente. Ninguna
mente humana es capaz de captar en su totalidad el significado de una
cantidad considerable de datos numéricos. Queremos poder expresar toda
la información relevante contenida en la masa por medio de
comparativamente pocos [p. 7] valores. Esta es una necesidad puramente
práctica que la ciencia de las estadísticas puede satisfacer en cierta medida. En
algunos casos, en cualquier caso, esposible dar toda la información relevante
por medio de uno o unos pocos valores. En todos los casos, tal vez, es posible
reducir a una forma numérica simple las cuestiones principales que el
investigador tiene a la vista, en la medida en que los datos son competentes
para arrojar luz sobre dichas cuestiones. El número de hechos independientes
suministrados por los datos suele ser mucho mayor que el número de hechos
buscados y, en consecuencia, gran parte de la información suministrada por
cualquier cuerpo de datos reales es irrelevante. Es el objeto de los procesos
estadísticos empleados en la reducción de datos para excluir esta información
irrelevante y para aislar la totalidad de la información relevante contenida en
los datos.

2. Método general, cálculo de estadísticas.

La discriminación entre la información irrelevante y la relevante se realiza de


la siguiente manera. Incluso en los casos más simples, los valores (o conjuntos
de valores) que tenemos ante nosotros se interpretan como una muestra
aleatoria de una población infinita hipotética de los valores que podrían haber
surgido en las mismas circunstancias. La distribución de esta población será
capaz de algún tipo de especificación matemática, involucrando un cierto
número, generalmente pocos, de parámetros, o "constantes" entrando en la
fórmula matemática. Estos parámetros son los personajes de la población. Si
pudiéramos conocer la especificación exacta de la población, deberíamos
conocer todas (y más que) cualquier muestra de [pág. 8] la población podría
decirnos. De hecho, no podemos conocer exactamente la especificación, pero
podemos hacer estimaciones de los parámetros desconocidos, que serán más o
menos inexactos. Estas estimaciones, que se denominan estadísticas, se
calculan, por supuesto, a partir de las observaciones. Si podemos encontrar
una forma matemática para la población que represente adecuadamente los
datos, y luego calcular a partir de los datos las mejores estimaciones posibles
de los parámetros requeridos, entonces parecería que hay poco o nada más que
los datos pueden decirnos. ; Habremos extraído de ella toda la información
relevante disponible.

El valor de las estimaciones que podemos realizar aumenta enormemente si


podemos calcular la magnitud y la naturaleza de los errores a los que están
sujetos. Si podemos confiar en la especificación adoptada, esto presenta el
problema puramente matemático de deducir de la naturaleza de la población
cuál será el comportamiento de cada una de las estadísticas posibles que se
pueden calcular. Este tipo de problema, con el que hasta hace pocos años se
había avanzado relativamente poco, es la base de las pruebas de significación
por las cuales podemos examinar si los datos están o no en armonía con
alguna hipótesis sugerida. En particular, es necesario probar la adecuación de
la especificación hipotética de la población sobre la cual se basó el método de
reducción.

Los problemas que surgen en la reducción de datos se pueden dividir


convenientemente en tres tipos:

(i.) Problemas de especificación , que surgen en la elección de la forma


matemática de la población. [pag. 9]

(ii.) Problemas de estimación , que implican la elección del método de


cálculo, de nuestra muestra, estadísticas adecuadas para estimar los
parámetros desconocidos de la población.

(iii.) Problemas de distribución , que incluyen la deducción matemática de la


naturaleza exacta de la distribución en muestras aleatorias de nuestras
estimaciones de los parámetros, y de otras estadísticas diseñadas para probar
la validez de nuestra especificación (pruebas de bondad de ajuste ).

El examen estadístico de un conjunto de datos es, por lo tanto, lógicamente


similar a la alternancia general de los métodos inductivos y deductivos en
todas las ciencias. Una hipótesis se concibe y define con la exactitud
necesaria; Sus consecuencias se deducen por un argumento deductivo; estas
consecuencias se comparan con las observaciones disponibles; si están
completamente de acuerdo con las deducciones, la hipótesis puede sostenerse
en cualquier caso hasta que haya nuevas observaciones disponibles.

La deducción de inferencias con respecto a muestras, a partir de supuestos con


respecto a las poblaciones de las que se extraen, nos muestra la posición en
Estadísticas de la Teoría de la Probabilidad.. Para una población dada,
podemos calcular la probabilidad con la que ocurrirá una muestra
determinada, y si podemos resolver el problema puramente matemático
presentado, podemos calcular la probabilidad de ocurrencia de cualquier
estadística dada calculada a partir de dicha muestra. Los problemas de
distribución pueden, de hecho, considerarse aplicaciones y extensiones de la
teoría de la probabilidad. [pag. 10] Tres de las distribuciones de las que nos
ocuparemos, la distribución binomial de Bernoulli, la distribución normal de
Laplace y la serie de Poisson, fueron desarrolladas por escritores sobre
probabilidad. Durante muchos años, durante más de un siglo y medio, se
intentó extender el dominio de la idea de probabilidad a la deducción de
inferencias con respecto a poblaciones a partir de supuestos (u observaciones)
con respecto a muestras.Probabilidad inversa , y en ocasiones han ganado
amplia aceptación. Este no es el lugar para entrar en las sutilezas de una
controversia prolongada; Será suficiente, en este esquema general del alcance
de la Ciencia estadística, expresar mi convicción personal, que he sostenido en
otra parte, de que la teoría de la probabilidad inversa se basa en un error y
debe ser rechazada por completo. Las inferencias con respecto a las
poblaciones, de las que se han extraído muestras conocidas, no pueden
expresarse en términos de probabilidad, excepto en el caso trivial cuando la
población es en sí misma una muestra de una superpoblación cuya
especificación se conoce con exactitud.

Esto no quiere decir que no podamos extraer, a partir del conocimiento de una
muestra, inferencias con respecto a la población de la que se extrajo la
muestra, sino que el concepto matemático de probabilidad es inadecuado para
expresar nuestra confianza mental o diferencia en hacer tales inferencias, y
que la cantidad matemática que parece ser apropiada para medir nuestro orden
de preferencia entre diferentes poblaciones posibles no obedece de hecho a las
leyes de probabilidad. [pag. 11] Para distinguirlo de la probabilidad, he usado
el término " Probabilidad " para designar esta cantidad; ya que tanto las
palabras "probabilidad" como "probabilidad" se usan de manera general en el
habla común para cubrir ambos tipos de relación.

3. Las calificaciones de estadísticas satisfactorias

Las soluciones de problemas de distribución (que pueden considerarse como


problemas puramente deductivos en la teoría de la probabilidad) no solo nos
permiten hacer pruebas críticas de la importancia de los resultados estadísticos
y de la adecuación de la distribución hipotética sobre la cual se basan nuestros
métodos de cálculo numérico. las deducciones se basan, pero proporcionan
cierta orientación en la elección de estadísticas apropiadas para fines de
estimación. Dichas estadísticas se pueden dividir en clases según el
comportamiento de sus distribuciones en muestras grandes.
Si calculamos una estadística, como, por ejemplo, la media, de una muestra
muy grande, estamos acostumbrados a atribuirle una gran precisión; y de
hecho, por lo general, pero no siempre, sería cierto, que si se pudieran obtener
y comparar una serie de estadísticas de este tipo, las discrepancias entre ellas
crecerían cada vez menos, ya que las muestras de las que se extraen se hacen
cada vez más grandes. De hecho, a medida que las muestras se hacen más
grandes sin límite, la estadística generalmente tenderá a algún valor fijo
característico de la población y, por lo tanto, expresable en términos de los
parámetros de la población. Por lo tanto, si se va a utilizar una estadística de
este tipo para estimar estos parámetros, solo hay una función paramétrica a la
que se puede equiparar correctamente. [pag. 12] Si se equipara a alguna otra
función paramétrica, utilizaremos una estadística que incluso a partir de una
muestra infinita no da el valor correcto; Tiende efectivamente a un valor fijo,
pero a un valor que es erróneo desde el punto de vista con el que se usó. Estas
estadísticas se denominanEstadísticas inconsistentes ; excepto cuando el error
es extremadamente mínimo, como en el uso de las correcciones de Sheppard,
las estadísticas inconsistentes deben considerarse fuera del alcance de un uso
decente.

Las estadísticas consistentes , por otra parte, tienden cada vez más a dar los
valores correctos, a medida que la muestra aumenta cada vez más; En
cualquier caso, si tienden a un valor fijo no es incorrecto. En los casos más
simples, a los que nos referiremos, no solo tienden a dar el valor correcto, sino
que los errores, para muestras de un tamaño dado, tienden a distribuirse en
una distribución bien conocida (de las cuales, más en el cap. III.) Conocido
como el. Ley normal de frecuencia de error, o más simplemente como
la distribución normal. La responsabilidad de error puede, en tales casos,
expresarse calculando el valor medio de los cuadrados de estos errores, un
valor que se conoce como la varianza; y en la clase de casos a los que nos
referimos, la varianza disminuye al aumentar las muestras, en proporción
inversa al número de la muestra.

Ahora, con el propósito de estimar cualquier parámetro, generalmente es


posible inventar cualquier número de estadísticas que sean consistentes en el
sentido definido anteriormente, y cada una de las cuales tiene en grandes
muestras una varianza que cae inversamente con el tamaño de la
muestra. Pero [p. 13] para muestras grandes de un tamaño fijo, la varianza de
estas diferentes estadísticas generalmente será diferente. Por consiguiente, una
importancia especial pertenece a un grupo más pequeño de estadísticas, cuyas
distribuciones de error tienden a la distribución normal, a medida que aumenta
la muestra, con la menor varianza posible. Por lo tanto, podemos separar del
grupo general de estadísticas consistentes un grupo de valor especial, y estas
se conocen como estadísticas eficientes .
La razón de este término puede hacerse evidente mediante un ejemplo. Si a
partir de una muestra grande de (digamos) 1000 observaciones, calculamos
una estadística eficiente, A, y una segunda estadística consistente, B, que tiene
el doble de varianza de A, entonces B será una estimación válida del
parámetro requerido, pero definitivamente una inferior. a A en su
exactitud. Al usar la estadística B, se requeriría una muestra de 2000 valores
para obtener una estimación tan buena como se obtiene al usar la estadística A
de una muestra de 1000 valores. Podemos decir, en este sentido, que la
estadística B utiliza el 50 por ciento de la información relevante disponible en
las observaciones; o, brevemente, que su eficiencia es del 50 por ciento. El
término "eficiente" en su sentido absoluto está reservado para las estadísticas
cuya eficiencia es del 100 por ciento.

Las estadísticas que tienen una eficiencia inferior al 100% pueden usarse
legítimamente para muchos propósitos. Es posible, por ejemplo, que en
algunos casos sea laborioso aumentar el número de observaciones que aplicar
un método más elaborado de cálculo de los resultados. A menudo puede
suceder que una estadística ineficiente sea lo suficientemente precisa para
responder a la particular [pág. 14] preguntas en litigio. Sin embargo, existe
una limitación para el uso legítimo de estadísticas ineficientes que debe
mencionarse por adelantado. Si vamos a realizar pruebas precisas de bondad
de ajuste, los métodos de ajuste empleados no deben introducir errores de
ajuste comparables a los errores de muestreo aleatorio.; cuando se investiga
este requisito, parece que cuando se requieren pruebas de bondad de ajuste, las
estadísticas empleadas en el ajuste no solo deben ser consistentes, sino que
también deben tener una eficiencia del 100 por ciento. Esta es una limitación
muy seria para el uso de estadísticas ineficientes, ya que. en el examen de
cualquier conjunto de datos, es deseable poder en cualquier momento probar
la validez de uno o más de los supuestos provisionales que se han hecho.

Se darán numerosos ejemplos del cálculo de estadísticas en los siguientes


capítulos, y en estas ilustraciones de métodos se han elegido estadísticas
eficientes. El descubrimiento de estadísticas eficientes en nuevos tipos de
problemas puede requerir cierta investigación matemática. Las investigaciones
del autor lo han llevado a la conclusión de que en todos los casos se puede
encontrar una estadística eficiente mediante el Método de Máxima
Probabilidad ; es decir, al elegir las estadísticas de modo que la población
estimada sea aquella para la que la probabilidad es mayor. En vista de la
dificultad matemática de algunos de los problemas que surgen, también es útil
saber que las aproximacionesLa solución de máxima verosimilitud también
es, en la mayoría de los casos, estadísticas eficientes Al final de este capítulo
se proporciona un ejemplo simple de la aplicación del método de máxima
verosimilitud a un problema genético. [pag. 15]
Por motivos prácticos, generalmente no es necesario presionar el refinamiento
de los métodos más allá de la estipulación de que las estadísticas utilizadas
deben ser eficientes. Con muestras grandes, se puede mostrar que todas las
estadísticas eficientes tienden a ser equivalentes, por lo que se generan pocos
inconvenientes debido a la diversidad de la práctica. Sin embargo, hay una
clase de estadísticas, incluidos algunos de los ejemplos más frecuentes, que
tiene un interés teórico por poseer la propiedad notable de que, incluso en
muestras pequeñas, una estadística de esta clase solo incluye la totalidad de la
información relevante que Las observaciones contienen. Dichas estadísticas se
distinguen por el término suficiente.y, en el uso de muestras pequeñas, las
estadísticas suficientes, cuando existen, son definitivamente superiores a otras
estadísticas eficientes. Ejemplos de estadísticas suficientes son la media
aritmética de muestras de la distribución normal o de la serie de Poisson; Es
el hecho de proporcionar estadísticas suficientes para estos dos tipos
importantes de distribución lo que da a la media aritmética su importancia
teórica. El método de máxima probabilidad lleva a estas estadísticas
suficientes donde existen.

Si bien la diversidad de la práctica dentro de los límites de las estadísticas


eficientes no llevará a grandes inconsistencias con muestras grandes, es, por
supuesto, importante en todos los casos distinguir claramente el parámetro de
la población, del cual se desea estimar el valor, de la estadística real empleada
como una estimación de su valor; e informar al lector por cuál de la variedad
considerable de procesos que existen para el propósito de la estimación se
obtuvo realmente. [pag. dieciséis]

4. Alcance de este libro

El objetivo principal de este libro es poner en manos de los investigadores, y


especialmente de los biólogos, los medios para aplicar pruebas estadísticas
con precisión a los datos numéricos acumulados en sus propios laboratorios o
disponibles en la literatura. Tales pruebas son el resultado de soluciones de
problemas de distribución, la mayoría de las cuales son solo adiciones
recientes a nuestro conocimiento y hasta el momento solo han aparecido en
documentos matemáticos especializados. La complejidad matemática de estos
problemas ha hecho que parezca indeseable hacer más que (i.) Para indicar el
tipo de problema en cuestión, (ii.) Para proporcionar ilustraciones numéricas
mediante las cuales se puede verificar todo el proceso, (iii.) para proporcionar
tablas numéricas por medio de las cuales se pueden hacer las pruebas sin la
evaluación de expresiones algebraicas complicadas.

Hubiera sido imposible dar métodos adecuados para la gran variedad de tipos
de pruebas que se requieren, pero para las circunstancias imprevistas de que
cada solución matemática aparezca una y otra vez en preguntas que a primera
vista parecían ser bastante distintas. Por ejemplo, la solución de Pearson en
1900 de la distribución de 2.es en realidad equivalente a la distribución de
la varianza según se estima a partir de muestras normales, de las cuales la
solución no se dio hasta 1908, y luego de manera bastante tentativa, y sin
prueba matemática completa, por "Estudiante". El autor encontró la misma
distribución para el índice de dispersión derivado de pequeñas muestras de un
Poisson [pág. 17] Series. Lo que es aún más notable es que, aunque el artículo
de Pearson de 1900 contenía un grave error, que viciaba la mayoría de las
pruebas de bondad de ajuste realizadas por este método hasta 1921, la
corrección de este error no cambia la forma de la distribución, y solo requiere
que se deduzcan algunas unidades de una de las variables con las que se
ingresa la tabla de 2 .

Es igualmente afortunado que la distribución de t , establecida por primera vez


por "Student" en 1908, en su estudio del posible error de la media, sea
aplicable, no solo al caso allí tratado, sino a los más complejos, pero incluso
El problema más frecuentemente necesario de la comparación de dos valores
medios. Además, proporciona una solución exacta de los errores de muestreo
de la clase enormemente amplia de estadísticas conocidas como coeficientes
de regresión.

Al estudiar las distribuciones teóricas exactas en una serie de otros problemas,


como los presentados por las correlaciones intraclase, la bondad de ajuste de
las líneas de regresión, la relación de correlación y el coeficiente de
correlación múltiple, el autor ha sido dirigido repetidamente a una tercera
distribución, que puede llamarse la distribución de z , y que está íntimamente
relacionada con, y de hecho, es una extensión natural de las distribuciones
encontradas por Pearson y "Estudiante". Por lo tanto, ha sido posible clasificar
las distribuciones necesarias, que cubren una gran variedad de casos, en estos
tres grupos principales; y, lo que es igualmente importante, hacer algunas
provisiones para la necesidad de valores numéricos solo a través de unas
pocas tablas. [pag. 18]

El libro se organizó de manera que el estudiante pueda conocer estas tres


distribuciones principales en un orden lógico y pasar de casos más simples a
casos más complejos. Los métodos desarrollados en capítulos posteriores son
vistos frecuentemente como generalizaciones de métodos más simples
desarrollados previamente. Al estudiar el trabajo metódicamente como un
tratado relacionado, se espera que el estudiante no pierda la unidad
fundamental de tratamiento bajo la cual se ha reunido un material tan
variado; y se preparará para lidiar de manera competente y exacta con los
muchos problemas análogos, que no pueden ser ejemplificados
individualmente. Por otro lado, se reconoce que muchos desearán usar el libro
como referencia de laboratorio y no como un curso de estudio conectado. Este
uso parecería deseable solo si el lector se esforzará por resolverlo,
Es necesario anticipar una crítica, a saber, que en un libro elemental, sin
pruebas matemáticas, y diseñado para lectores sin entrenamiento matemático
especial, se ha incluido tanto que desde el punto de vista del profesor está
avanzado; Y de hecho mucho de eso no ha aparecido previamente impreso. A
modo de disculpa, el autor desea presentar las siguientes consideraciones.

(1) Para lectores no matemáticos, numérico [pág. 19] las tablas son, en
cualquier caso, necesarias; Las tablas precisas no son más difíciles de usar,
aunque son más laboriosas de calcular, que las tablas inexactas que incorporan
las aproximaciones actuales.

(2) El proceso de cálculo de un error probable a partir de uno de los fórmulas


establecidos no proporciona una visión real de la distribución muestral
aleatoria, y solo puede proporcionar una prueba de significación con la ayuda
de una tabla de desviaciones de la curva normal, y Suponiendo que la
distribución es, de hecho, muy normal. El uso o no de este procedimiento debe
decidirse, no por los logros matemáticos del investigador, sino por descubrir si
dará o no una respuesta suficientemente precisa. El hecho de que un
matemático eminente haya utilizado con éxito este proceso para analizar
material muy extenso e importante no implica que sea lo suficientemente
exacto para que el trabajador de laboratorio ansioso pueda sacar conclusiones
correctas de un pequeño grupo de observaciones quizás preliminares.

(3) Las distribuciones exactas, con el uso de las cuales se trata principalmente
este libro, se han desarrollado de hecho en respuesta a los problemas prácticos
que surgen en la investigación biológica y agrícola; Esto es cierto no solo por
la contribución del autor al tema, sino también desde el comienzo del examen
crítico de las distribuciones estadísticas en el documento "Student's" de 1908.

La mayor parte del libro está ocupada por ejemplos numéricos; y estos quizás
podrían con ventaja haber aumentado en número. Al elegirlos le ha parecido
al autor una tarea sin esperanza [p. 20] para intentar ejemplificar la gran
variedad de temas a los que se pueden aplicar estos procesos de manera
útil. No hay ejemplos de estadísticas astronómicas, en los que se haya
realizado un trabajo importante en los últimos años, pocos estudios sociales, y
las aplicaciones biológicas se dispersen de forma no sistemática. Los ejemplos
han sido elegidos cada uno para ejemplificar un proceso particular, y rara vez
debido a la importancia de los datos utilizados, o incluso de exámenes
similares de datos análogos. Mediante un estudio de los procesos
ejemplificados, el estudiante debe poder determinar a qué preguntas, en su
propio material, tales procesos son capaces de dar una respuesta definida; e,
igualmente importante, qué otras observaciones serían necesarias para
resolver otras cuestiones pendientes. De conformidad con el propósito de los
ejemplos, el lector debe recordar que no pretenden ser exámenes críticos de
cuestiones científicas generales, lo que requeriría el examen de datos mucho
más extensos y de otras pruebas, sino que se ocupan exclusivamente de las
pruebas de El lote particular de datos presentados.

5. Tablas Matemáticas

Las tablas de distribuciones suministradas al final de varios capítulos forman


una parte esencial para el uso del libro.

TABLAS I.Y II.- La importancia de la distribución normal se ha reconocido al


menos desde el momento de Laplace. (La fórmula incluso se remonta a un
trabajo poco conocido por De Moivre de 1733) Numerosas tablas han dado de
una forma u otra la relación entre la desviación y la probabilidad de una
mayor desviación. Fuentes importantes para estos valores son

J. Burgess (1895), Trans. Roy Soc. Edin. , XXXIX. pp. 257-321;

JWL Glaisher (1871), Phil. revista , Serie IV. Vol. XLII. pag. 436.

Las muy diversas formas en que se ha tabulado esta relación aumentan


considerablemente el trabajo de las aplicaciones prácticas. La forma que
hemos adoptado para esto, y para las otras tablas, ha sido utilizada para la
distribución normal por

F. Galton y WF Sheppard (1907), Biometrika, V. p. 405;

TL Kelley, Método estadístico , pp. 373-385;

ambos de los cuales son tablas valiosas, en una escala más extensa que la
Tabla I. En la Tabla II. Hemos dado las desviaciones normales
correspondientes a probabilidades muy altas. Debe recordarse que incluso las
desviaciones leves de la distribución normal harán que estas probabilidades
muy pequeñas sean relativamente inexactas, y que rara vez podemos estar
seguros, en cualquier caso particular, de que estas altas probabilidades sean
precisas. La tabla ilustra el hecho general de que la importancia en la
distribución normal de las desviaciones que exceden cuatro veces la
desviación estándar es extremadamente pronunciada.

TABLA III .; tabla de 2 . - Las tablas del valor de P para diferentes valores
de 2 y n ' , fueron dadas por

K. Pearson (1900), Phil. revista , Serie V. Vol. L. p. 175; [pag. 22]

WP Elderton (1902), Biometrika , I. pp. 155-163; La misma relación en


una forma muy modificada subyace.

K. Pearson (I922), Tablas de la incompleta  - función.


Tabla III. proporciona los valores de 2 para los diferentes valores
de P y n, en una forma diseñada para un uso rápido en el laboratorio, y con el
fin de cubrir con suficiente detalle el rango de valores que realmente ocurren
en la práctica. Para valores más altos de n, la prueba se complementa con una
prueba aproximada calculada fácilmente.

TABLA IV .; tabla de t. - Las tablas de la misma distribución que la de t han


sido dadas por

"Estudiante" (1908), Biometrika , VI. pag. 19;

"Estudiante" (1917), Biometrika , XI. pp. 414-417.

"Estudiante" da el valor de (1-½ P ) para diferentes valores de z ( = t


/ [sqrt] n en nuestra notación) y n ( = n +1 en nuestra notación). Como en el
caso de la tabla de 2 , la aplicación muy extendida de esta distribución ha
llevado a una reinterpretación del significado de n para cubrir una clase más
amplia de casos. Las tablas extendidas que dan los valores de P para
diferentes valores de t están en preparación por el mismo autor. Para los
propósitos del presente libro, requerimos los valores de t correspondientes a
valores dados de P y n.

TABLA V. A proporciona los valores del coeficiente de correlación para


diferentes niveles de importancia, de acuerdo con la extensión de la muestra
en la que se basa el valor. Desde esta tabla, el lector puede ver de un vistazo si
cualquier correlación obtenida puede considerarse significativa, para muestras
de hasta 100 pares de observaciones. [pag. 23]

La TABLA V. B da los valores de la función matemática conocida, la


tangente hiperbólica, que hemos introducido en el cálculo de los errores de
muestreo del coeficiente de correlación. La función se relaciona simplemente
con las funciones logarítmicas y exponenciales, y puede encontrarse
fácilmente por una tabla tan conveniente de logaritmos naturales como se da
en

JT Bottomley, Tablas matemáticas de cuatro figuras,

Mientras que la tangente hiperbólica y su inverso aparecen en

W. Hall, tablas de cuatro cifras y constantes.

Una tabla de logaritmos naturales es un suplemento necesario para usar este


libro, como en otros cálculos de laboratorio. Las tablas de la tangente
hiperbólica inversa para el trabajo correlacional han sido previamente dadas
por
RA Fisher (1921), Metron. Vol. I. No.4, pp. 26-27.

TABLA VI .; tabla de z . - Las pruebas que involucran el uso de z , incluyendo


como casos especiales el uso de 2 y de t , están tan extendidas, que es
probable que sea necesaria una tabla más extensa de esta función. La
exploración de esta función es de fecha tan reciente, y la construcción de una
tabla de entrada triple es una tarea tan laboriosa, que todo lo que se puede
ofrecer en la actualidad es la tabla pequeña correspondiente a la región
importante, P = .05. probablemente, de hecho, si se complementa con una
tabla similar para P = .01, se cumplirían todos los requisitos ordinarios,
aunque para evitar el trabajo de interpolación se necesitarían tablas mucho
más grandes para estos dos valores.

En este momento solo puedo rogar la indulgencia del lector [p. 24] por la
inadecuación de la tabla actual, abogando en mi defensa de que, en el terreno
tan recientemente ganado, como lo ocupa la mayor parte de este libro, aún no
se pueden esperar todas las instalaciones y comodidades que muchos
trabajadores pueden acumular gradualmente.

6. El siguiente ejemplo muestra en un caso relativamente simple la aplicación


del método de máxima probabilidad para descubrir una estadística capaz de
dar una estimación eficiente de un parámetro desconocido. Dado que este
procedimiento pertenece más bien al tratamiento matemático avanzado de las
estadísticas teóricas, se puede observar que dominarlo no es un requisito
previo necesario para comprender los métodos prácticos desarrollados en el
resto del libro. Sin embargo, los estudiantes que deseen aplicar los principios
fundamentales mencionados en este capítulo introductorio a nuevos tipos de
datos, quizás se sientan contentos con un ejemplo del procedimiento general.

Ex. 1. La derivación de una estadística eficiente mediante el método de


máxima verosimilitud. - Los animales o plantas heterocigotas para dos
factores relacionados que muestran un dominio completo se autofecundan; Si
los cuatro tipos son igualmente viables, ¿cómo debería estimarse la extensión
del vínculo a partir de las proporciones numéricas de los cuatro tipos de
descendencia?

Si los alelomorfos del primer factor son A y a , y del segundo factor B y b , los
cuatro tipos de gametos AB, Ab, aB y ab serán producidos por los machos y
las hembras en proporciones dependiendo del vínculo de los factores. , sujeto
a la condición de que los alelomorfos de cada factor ocurren con la misma
frecuencia. [pag. 25] Las proporciones serán los dos sexos; Supongamos que
las proporciones sean
entonces, si los dos genes dominantes se derivan del mismo padre, q , q ' serán
las relaciones de cruce, si de diferentes padres las relaciones de cruce
serán p , p ' .

Al tomar todas las combinaciones posibles de los gametos, parece que los
cuatro tipos de descendencia ocurrirán en las proporciones

El efecto del enlace se expresa totalmente por la cantidad pp ' , y de una


muestra de observaciones que dan las frecuencias observadas  ,  se
requiere obtener una estimación del valor de pp' . La regla para aplicar el
método de máxima verosimilitud es multiplicar cada frecuencia observada por
el logaritmo de la frecuencia teórica correspondiente, y encontrar el valor de
la cantidad desconocida que hace que el total de estos productos sea el
máximo. Escribiendo x para pp ' ,

 registro (2+ x) + (  +  ) registro (1- x ) +  registro x

debe hacerse un máximo; por una aplicación bien conocida de la diferencial


de cálculo, esto requiere que

lo que conduce a la ecuación cuadrática para x,

(  +  +  +  ) x 2 - (  -2  -  -  ) x - 2  = 0, [pág. 26]

La solución positiva de cuál es el valor más probable para pp ' , como se juzga
a partir de los datos.
Para dos factores en Primula se observaron los siguientes números (datos de
Winton y Bateson ):

 = 396, = 99, = 104, = 70;

la cuadrática para x es

669 x 2 + 80 x - 140 = 0,

de los cuales la solución positiva es x = .4016. Para obtener los valores de


cruce en los dos sexos por separado, utilizando solo la auto-fertilización, por
supuesto sería necesario repetir el experimento con heterocigotos de la
composición opuesta.

Los números esperados, en el supuesto de que pp ' = 4016, son :


II

DIAGRAMAS

7. El examen preliminar
de la mayoría de los
datos se facilita mediante
el uso de diagramas. Los
diagramas no prueban
nada, pero traen
características
sobresalientes al ojo; por
lo tanto, no son
sustitutos de las pruebas
críticas que pueden
aplicarse a los datos,
pero son valiosos para
sugerir tales pruebas y
para explicar las
conclusiones fundadas
sobre ellas.

8. Diagramas de
tiempo, tasa de
crecimiento y tasa de
crecimiento relativa

El tipo de diagrama en el
uso más frecuente
consiste en trazar los
valores de una variable,
como el peso de un
animal o una muestra de
plantas contra su edad, o
el tamaño de una
población en intervalos
sucesivos de
tiempo. Debe
distinguirse entre los
casos en que el mismo
grupo de animales, como
en un experimento de
alimentación, se pesa en
intervalos sucesivos de tiempo, y los casos, más característicos de la fisiología
vegetal, en los que los mismos individuos no se pueden usar dos veces, pero
Se toma una muestra paralela a cada edad. Lo mismo. La distinción se
produce en los recuentos de microorganismos [p. 28] entre los casos en que se
realizan recuentos a partir de muestras del mismo cultivo, o de muestras de
cultivos paralelos. Si es importante obtener la forma general de la curva de
crecimiento, el segundo método tiene la ventaja de que cualquier desviación
de la curva esperada puede confirmarse a partir de evidencia independiente en
la siguiente medición, mientras que al usar el mismo material no se puede
obtener tal confirmación independiente. Por otro lado, si el interés se centra en
la tasa de crecimiento, hay una ventaja en el uso del mismo material, ya que
solo así se pueden medir los aumentos reales en el peso. Ambos aspectos de la
dificultad solo pueden superarse replicando las observaciones; mediante la
realización de mediciones en varios animales bajo tratamiento paralelo, es
posible evaluar, a partir de los pesos individuales, aunque no de los medios, si
su curva de crecimiento se corresponde con un curso teórico de desarrollo
asignado o si difiere significativamente de esta o de una Serie probada de
forma diferente. Igualmente, Si una cantidad de plantas de cada muestra se
pesan individualmente, se pueden obtener tasas de crecimiento con errores
probables conocidos, y por lo tanto se pueden usar para comparaciones
críticas. Por supuesto, se debe tener cuidado de que cada una sea estrictamente
una muestra aleatoria.

La figura 1 representa el crecimiento de un bebé pesado a la onza más cercana


a intervalos semanales desde el nacimiento. La Tabla 1 indica el cálculo a
partir de estos datos de la tasa de crecimiento absoluta en onzas por día y la
tasa de crecimiento relativo por día. Las tasas de crecimiento absolutas, que
representan las tasas reales promedio a las que se agrega la sustancia durante
cada período, se encuentran en [p. 29] [figura] [p. 30] restando de cada valor
que se registró previamente, y dividiendo por la duración del período. Las
tasas de crecimiento relativas miden la tasa de aumento no solo por unidad de
tiempo, sino por unidad de peso ya alcanzada; utilizando el hecho matemático,
que

[pag. 31]

se ve que el verdadero valor promedio de la tasa de crecimiento relativo para


cualquier período se obtiene a partir de los logaritmos naturales de las
ponderaciones sucesivas, al igual que las tasas reales de aumento son las
ponderaciones en sí mismas. Estas tasas de aumento relativas se multiplican
convenientemente por 100 y, por lo tanto, se expresan como la tasa porcentual
de aumento por día. Si estas tasas porcentuales de aumento se hubieran
calculado sobre el principio del interés simple, al dividir el aumento real por el
peso al comienzo del período, se habrían obtenido valores algo más altos; La
razón de esto es que el peso real del bebé en cualquier momento durante cada
período suele ser un
poco más alto que su
peso al principio.

La figura 1A muestra
el curso del aumento
del peso absoluto; La
pendiente promedio
de dicho diagrama
muestra la tasa
absoluta de
aumento. En este
diagrama, los puntos
caen
aproximadamente en
una línea recta, lo
que muestra que la
tasa de aumento
absoluta fue casi
constante en
aproximadamente
1.66 oz. por día. La
figura 1B muestra el
curso del aumento en
el logaritmo natural
del peso; la pendiente en cualquier punto muestra la tasa relativa de aumento,
que, aparte de la primera semana, disminuye perceptiblemente con la
edad. Las características de tales curvas se resaltan mejor si las escalas de los
dos ejes se eligen de modo que la línea forme ángulos aproximadamente
iguales con los dos ejes; con líneas casi verticales o casi horizontales, los
cambios en la pendiente no se perciben tan fácilmente. [pag. 32]

Una forma rápida y conveniente de mostrar la línea de aumento del logaritmo


se obtiene mediante el uso de papel cuadriculado en el que las reglas
horizontales están espaciadas en una escala logarítmica, con los valores reales
indicados en el margen. La escala horizontal se puede ajustar para darle a la
línea una pendiente apropiada. Este método evita el uso de una tabla de
logaritmo, que, sin embargo, aún será necesaria si los valores de la tasa
relativa de aumento son necesarios.

Al hacer un examen aproximado del acuerdo de las observaciones con


cualquier ley de aumento, es deseable manipular las variables para que la ley a
probar se represente mediante una línea recta. Por lo tanto, la Fig. 1A es
adecuada para una prueba aproximada de la ley de que la tasa absoluta de
aumento es constante; si se sugiriera que la tasa relativa de aumento fuera
constante, la Fig. 1B mostraría claramente que esto no era así. Con otras
curvas de crecimiento hipotéticas se pueden usar otras transformaciones; por
ejemplo, en la llamada curva "autocatalítica", la tasa de crecimiento relativo
disminuye en proporción al peso real alcanzado en cualquier momento. Por lo
tanto, si la tasa de crecimiento relativo se grafica contra el peso real, los
puntos deberían caer en una línea recta si la curva "autocatalítica" se ajusta a
los hechos. Para este propósito, es conveniente trazar contra cada peso
observado la media de las dos tasas de crecimiento relativo adyacentes. Para
ello, los datos anteriores para el crecimiento de un infante pueden dejarse
como un ejercicio para el estudiante; Doce puntos estarán disponibles para
pesos de 114 a 254 onzas. Las tasas de crecimiento relativas, incluso después
de promediar pares adyacentes, serán muy irregulares, [pág. 33] para que no
se encuentren indicaciones claras a partir de estos datos. Si se encuentra que
una línea recta se ajusta a los datos, se debe producir para cumplir con el eje
horizontal para encontrar el peso en el que cesa el crecimiento. Las tasas de
crecimiento relativas, incluso después de promediar pares adyacentes, serán
muy irregulares, [pág. 33] para que no se encuentren indicaciones claras a
partir de estos datos. Si se encuentra que una línea recta se ajusta a los datos,
se debe producir para cumplir con el eje horizontal para encontrar el peso en
el que cesa el crecimiento. Las tasas de crecimiento relativas, incluso después
de promediar pares adyacentes, serán muy irregulares, [pág. 33] para que no
se encuentren indicaciones claras a partir de estos datos. Si se encuentra que
una línea recta se ajusta a los datos, se debe producir para cumplir con el eje
horizontal para encontrar el peso en el que cesa el crecimiento.

9. Diagramas de correlación

Aunque la mayoría de los


investigadores hacen uso gratuito de
diagramas en los que se grafica una
variable no controlada contra el tiempo,
o contra algún factor controlado como la
concentración de la solución o la
temperatura, se podría hacer mucho más
uso de los diagramas de correlación en
los que se grafica un factor no
controlado. otro. Cuando esto se hace
como un diagrama de puntos, se
obtienen una cantidad de puntos, cada
uno representando un solo experimento,
o un par de observaciones, y
generalmente queda claro a partir de dicho diagrama si existe o no alguna
relación estrecha entre las variables. Cuando las observaciones son pocas, un
diagrama de puntos a menudo nos dice si vale la pena acumular observaciones
del mismo tipo; el alcance y el alcance de nuestra experiencia es visible en
una & lance; y se pueden revelar asociaciones que valen la pena hacer un
seguimiento.

Si las observaciones son tan numerosas que los puntos no se pueden distinguir
claramente, es mejor dividir el diagrama en cuadrados, registrando la
frecuencia en cada uno; Este registro semi-esquemático es una tabla de
correlación.

La Fig. 2 muestra en un diagrama de puntos los rendimientos obtenidos de una


parcela experimental de trigo (parcela sumergida, campo de Broadbalk,
Rothamsted) en años con diferentes [p. 34] lluvia total. La parcela estuvo bajo
tratamiento uniforme durante todo el período 1854-1888; Los 35 pares de
observaciones, indicados por 35 puntos, muestran bien la asociación de alto
rendimiento con baja precipitación. Incluso cuando hay pocas observaciones
disponibles, un diagrama de puntos puede sugerir asociaciones hasta ahora
insospechadas, o lo que es igualmente importante, la ausencia de asociaciones
que se hubieran predicho con confianza. Su valor radica en dar una
perspectiva simple de la experiencia acumulada hasta ahora, y en traer a la
mente sugerencias [p. 35] que puede ser susceptible de un examen estadístico
más exacto.

En lugar de hacer un
diagrama de puntos,
a veces se adopta el
dispositivo para
organizar los valores
de una variable en
orden de magnitud, y
para trazar los
valores de una
segunda variable en
el mismo orden. Si la
línea así obtenida
muestra alguna
pendiente
perceptible, o una
tendencia general,
las variables se
consideran asociadas. La Fig. 3 representa la línea obtenida de lluvia lejana,
cuando los años están ordenados por orden de rendimiento de trigo. Dichos
diagramas suelen ser mucho menos informativos que el diagrama y, a
menudo, ocultan características de importancia presentadas por el
primero. Además, el diagrama de puntos posee la ventaja de que se usa
fácilmente [pág. 36] como una tabla de correlación si el número de puntos es
pequeño, y se transforma fácilmente en uno si el número de puntos es grande.

En la tabla de correlación, los valores de ambas variables se dividen en clases,


y los intervalos de clase deben ser iguales para todos los valores de la misma
variable. Por lo tanto, podríamos dividir el valor para el rendimiento del trigo
en intervalos de un bushel, y los valores de la lluvia en intervalos de 1
pulgada. El diagrama se divide así en cuadrados, y el número deLas
observaciones que caen en cada casilla son contadas y registradas. La tabla de
correlación es útil para tres propósitos distintos. Ofrece una valiosa
representación visual de la totalidad de las observaciones, que con un poco de
experiencia es tan fácil de comprender como un diagrama de puntos; sirve
como un registro compacto de datos extensos, que, en lo que respecta a las dos
variables, está completo. Con más de dos variables se pueden dar tablas de
correlación para cada par. Esto no permitirá al lector reconstruir los datos
originales en su totalidad, pero es un hecho afortunado que para la gran
mayoría de los propósitos estadísticos, un conjunto de distribuciones dobles
de este tipo proporciona información completa. Los datos originales que
involucran más de dos variaciones se registran más convenientemente para
referencia en tarjetas, cada caso se le da una tarjeta separada con las diversas
variables introducidas en las posiciones correspondientes sobre ellos. La
publicación de estos datos completos presenta dificultades, pero aún no se ha
dado cuenta de cuánta información esencial puede presentarse en forma
compacta por medio de tablas de correlación. La tercera característica de valor
sobre [pág. 37] la tabla de correlación es que los datos presentados de este
modo forman una base conveniente para la aplicación inmediata de métodos
de reducción estadística. Las estadísticas más importantes que proporcionan
los datos se pueden calcular más fácilmente a partir de la tabla de
correlación. Un ejemplo de una tabla de correlación se muestra en la Tabla 31,
pág. 140. · pero aún no se ha dado cuenta de cuánta información esencial
puede presentarse en forma compacta por medio de tablas de correlación. La
tercera característica de valor sobre [pág. 37] la tabla de correlación es que los
datos presentados de este modo forman una base conveniente para la
aplicación inmediata de métodos de reducción estadística. Las estadísticas
más importantes que proporcionan los datos se pueden calcular más
fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de
correlación se muestra en la Tabla 31, pág. 140. · pero aún no se ha dado
cuenta de cuánta información esencial puede presentarse en forma compacta
por medio de tablas de correlación. La tercera característica de valor sobre
[pág. 37] la tabla de correlación es que los datos presentados de este modo
forman una base conveniente para la aplicación inmediata de métodos de
reducción estadística. Las estadísticas más importantes que proporcionan los
datos se pueden calcular más fácilmente a partir de la tabla de correlación. Un
ejemplo de una tabla de correlación se muestra en la Tabla 31, pág. 140. · Las
estadísticas más importantes que proporcionan los datos se pueden calcular
más fácilmente a partir de la tabla de correlación. Un ejemplo de una tabla de
correlación se muestra en la Tabla 31, pág. 140. · Las estadísticas más
importantes que proporcionan los datos se pueden calcular más fácilmente a
partir de la tabla de correlación. Un ejemplo de una tabla de correlación se
muestra en la Tabla 31, pág. 140. ·

10. Diagramas de frecuencia

Cuando se mide una gran cantidad de individuos con respecto a las


dimensiones físicas, peso, color, densidad, etc., es posible describir con cierta
precisión la poblaciónde los cuales nuestra experiencia puede ser considerada
como una muestra. Por este medio, puede ser posible distinguirlo de otras
poblaciones que difieren en su origen genético o en circunstancias
ambientales. Por lo tanto, las razas locales pueden ser muy diferentes como
poblaciones, aunque los individuos pueden superponerse en todos los
personajes; o, en condiciones experimentales, el agregado puede mostrar
efectos ambientales, sobre el tamaño, la tasa de mortalidad, etc., que no
pueden detectarse en el individuo. Un diagrama de frecuencia proporciona una
representación visible de un gran número de mediciones de cualquier
característica. La característica medida se utiliza como abscisa, o medición a
lo largo del eje horizontal, y como ordenadas se establecen verticalmente
las frecuencias , correspondientes a cada rango.

La Fig. 4 es un diagrama de frecuencia que ilustra la distribución en estatura


de 1375 mujeres (datos modificados de Pearson y Lee). La muestra completa
de mujeres se divide en rangos de altura sucesivos de una pulgada. [pag. 38]
Las áreas iguales en el diagrama representan la misma frecuencia; si los datos
son tales que los rangos en los que los individuos están subdivididos no son
iguales, se debe tener cuidado de hacer que las áreas correspondan a las
frecuencias observadas, de modo que el área que se encuentra en cualquier
intervalo de la línea base represente la frecuencia real observada en ese
intervalo

La clase que contiene el mayor número de observaciones se conoce


técnicamente como la clase modal. En la Fig. 4, la clase modal indicada es la
clase cuyo valor central es 63 pulgadas. Cuando, como es muy frecuente el
caso, la variable varía continuamente, de modo que todos los valores
intermedios son posibles, la elección del intervalo de agrupación y los límites
es arbitraria y hará una diferencia perceptible a la apariencia del
diagrama. Generalmente, sin embargo, los posibles límites de agrupación se
regirán por las unidades más pequeñas en las que se registran las
mediciones. Si, por ejemplo, las medidas de altura se hicieran al más cercano
[pág. 39] cuarto de pulgada, de modo que todos los valores entre 66-7 / 8
pulgadas y 67-1 / 8 se registraron como 67 pulgadas, todos los valores entre
67-1 / 8 y 67-3 / 8 se registraron como 67-1 / 4, entonces no tenemos más
remedio que tomar como nuestra unidad de agrupación 1, 2, 3, 4, etc., cuartos
de pulgada, y los límites de cada grupo deben caer en un número impar de
octavos de pulgada. Para propósitos de cálculo, las unidades de agrupamiento
más pequeñas son más precisas, pero para propósitos de diagramas, a menudo
es preferible un agrupamiento más grueso. La Fig. 4 indica una unidad de
agrupación adecuada en relación con el rango total para una muestra
grande; con muestras más pequeñas, generalmente es necesario un
agrupamiento más grueso para que puedan caer suficientes observaciones en
cada clase.

En todos los casos en que la variación es continua, el diagrama de frecuencia


debe tener la forma de un histograma, con áreas rectangulares situadas en cada
intervalo de agrupación que muestra la frecuencia de las observaciones en ese
intervalo. La práctica alternativa de indicar la frecuencia mediante una sola
ordenada levantada desde el centro del intervalo es a veces preferida, ya que le
da al diagrama una forma que se parece más a una curva continua. La ventaja
es ilusoria, ya que no solo la forma de la curva así indicada es algo engañosa,
sino que siempre se debe tener mucho cuidado para distinguir la población
hipotética infinitamente grande de la que se extrae nuestra muestra de
observaciones, de la muestra real de observaciones que nosotros poseemos la
concepción de una curva de frecuencia continua es aplicable solo a la
primera, y al ilustrar esto último, no se debe hacer ningún intento de insultar
esta distinción. [pag. 40]

Esta consideración no debe de ninguna manera evitar que una curva de


frecuencia ajustada a los datos, se superponga al histograma (como en la Fig.
4); El contraste entre el histograma que representa la muestra y la curva
continua que representa una estimación de la forma de la población hipotética
se destaca bien en dichos diagramas, y se ayuda al ojo a detectar cualquier
discrepancia grave entre las observaciones y la hipótesis. Ninguna
observación ocular de tales diagramas, como se experimenta, es realmente
capaz de discriminar si las observaciones difieren o no de las expectativas en
más de lo que deberíamos esperar de las circunstancias del muestreo
aleatorio. Métodos precisos para hacer tales pruebas serán desarrollados en
capítulos posteriores.
Con la variación
discontinua, cuando,
por ejemplo, la
variable se limita a
números enteros, la
razón anterior para
insistir en la forma
del histograma tiene
poco peso, ya que,
estrictamente
hablando, no hay
rangos de variación
dentro de cada
clase. Por otro lado,
no se trata de una
curva de frecuencia
en tales casos. La
representación de
tales datos por medio
de un histograma es
usual y no
inconveniente; es
especialmente
apropiado si
consideramos la
variación discontinua
como debida a una
variable continua
subyacente, que, sin
embargo, puede
expresarse solo al número entero más cercano.

Por supuesto, es posible tratar los valores de la frecuencia como cualquier otra
variable, representando el valor de su logaritmo, o su valor real en papel
logarítmico, cuando se desea ilustrar el acuerdo [pág. 41] de las observaciones
con alguna ley particular de frecuencia. La figura 5 se muestra de esta
manera. el número de flores (ranúnculos) que tienen de 5 a 10 pétalos (datos
de Pearson), graficado en papel logarítmico, para facilitar la comparación con
la hipótesis de que la frecuencia, para pétalos por encima de cinco, disminuye
en progresión geométrica. Dichas ilustraciones no son, propiamente hablando,
diagramas de frecuencia, aunque la frecuencia es una de las variables
[pág. 42] empleados, porque no se adhieren a la convención de que las
frecuencias iguales están representadas por áreas iguales.
Una forma útil, similar a la anterior, se utiliza para comparar las tasas de
mortalidad, a lo largo de la vida, de diferentes poblaciones. El logaritmo del
número de sobrevivientes a cualquier edad se representa en función de la edad
alcanzada. Dado que la tasa de mortalidad es la tasa dedisminución del
logaritmo del número de sobrevivientes, gradientes iguales en tales curvas
representan tasas de mortalidad iguales. Por lo tanto, sirven para mostrar el
aumento de la tasa de mortalidad con la edad y para comparar poblaciones con
diferentes tasas de mortalidad. Tales diagramas son menos sensibles a
pequeñas fluctuaciones que los diagramas de frecuencia correspondientes que
muestran la distribución de la población según la edad al morir; por lo tanto,
son apropiados cuando tales pequeñas fluctuaciones se deben principalmente a
errores de muestreo aleatorio, que en el tipo de diagrama más sensible podrían
ocultar las características más amplias de la comparación. Siempre se debe
recordar que la elección de los métodos apropiados de tratamiento estadístico
es bastante independiente de la elección de los métodos de representación
diagramática.
III

DISTRIBUCIONES

11. La idea de una población infinita distribuida en una distribución de


frecuencia.con respecto a uno o más caracteres es fundamental para todo
trabajo estadístico. A partir de una experiencia limitada, por ejemplo, de
individuos de una especie, o del clima de una localidad, podemos obtener
alguna idea de la población hipotética infinita de la cual se extrae nuestra
muestra, y por lo tanto de la naturaleza probable de las muestras futuras a las
que Nuestras conclusiones deben ser aplicadas. Si una segunda muestra
desmiente esta expectativa, inferimos que, en el lenguaje de las estadísticas, se
extrae de una población diferente; que el tratamiento al que había estado
expuesta la segunda muestra de organismos hizo de hecho una diferencia
material, o que el clima (o los métodos para medirlo) se había alterado
sustancialmente. Las pruebas críticas de este tipo pueden denominarse pruebas
de significación,

Una estadística es un valor calculado a partir de una muestra observada con


vistas a caracterizar la población [pág. 44] de donde se extrae. Por ejemplo,
la media de una serie de observaciones x 1 , x 2 ,. . . x n , viene dada por la
ecuación

donde S representa la suma de toda la muestra y n el número de


observaciones. Estas estadísticas son, por supuesto, variables de una muestra a
otra, y la idea de una distribución de frecuencia se aplica con un valor especial
a la variación de dichas estadísticas. Si sabemos exactamente cómo se
distribuyó la población original, es teóricamente posible, aunque a menudo es
una cuestión de gran dificultad matemática, calcular cómo se distribuirá
cualquier estadística derivada de una muestra de un tamaño dado. La utilidad
de cualquier estadística particular, y la naturaleza de su distribución, dependen
de la distribución original, y los métodos apropiados y exactos se han
desarrollado solo en unos pocos casos. La aplicación de estos casos se
extiende en gran medida por el hecho de que la distribución de muchas
estadísticas tiende aForma normal a medida que aumenta el tamaño de la
muestra. Por este motivo, es habitual suponer que dichas estadísticas se
distribuyen normalmente y limitar la consideración de su variabilidad a los
cálculos del error estándar o error probable.
En el presente capítulo daremos cuenta de tres distribuciones principales: (i.)
La distribución normal, (ii.) La serie de Poisson, (iii.) La distribución
binomial. Es importante tener un conocimiento general de estas tres
distribuciones, los fórmulas matemáticas por las cuales se representan, el
experimental [p. 45] condiciones en las que ocurren, y los métodos
estadísticos para reconocer su ocurrencia. Sobre este último tema, nos guiará
en cierta medida a anticipar los
métodos desarrollados de manera
más sistemática en Chaps. IV. y
V.

12. La distribución normal

Se dice que una variable está


distribuida normalmente cuando
toma todos los valores desde - [infinito] hasta + [infinito] , con frecuencias
dadas por una ley matemática definida, a saber, que el logaritmo de la
frecuencia a cualquier distancia x desde el centro de la distribución es menor
que el logaritmo de la frecuencia en el centro en una cantidad proporcional
a x 2 . Por lo tanto, la distribución es simétrica, con la mayor frecuencia en el
centro; Aunque la variación es ilimitada, la frecuencia cae a valores
extremadamente pequeños a cualquier distancia considerable del centro, ya
que un gran logaritmo negativo corresponde a un número muy pequeño. La
figura 6B representa una curva normal de distribución. La frecuencia [pág. 46]
en cualquier rango infinitesimal dxpuede ser escrito como

donde xm es la distancia de la observación, x , desde el centro de la


distribución, m ; y  , llamada desviación estándar , mide en las mismas
unidades la medida en que se dispersan los valores
individuales. Geométricamente  es la distancia, a cada lado del centro, de los
puntos más inclinados, o puntos de inflexión de la curva (Fig. 4).

En aplicaciones prácticas, no queremos tan a menudo conocer la frecuencia a


cualquier distancia del centro como la frecuencia total más allá de esa
distancia; esto está representado por el área de la cola de la curva cortada en
cualquier punto. Las tablas de esta frecuencia total, o integral de probabilidad,
se han construido a partir de las cuales, para cualquier valor de
podemos encontrar qué fracción de la población total tiene una desviación
mayor; o, en otras palabras, cuál es la probabilidad de que un valor así
distribuido, elegido al azar, exceda una desviación dada. Tablas I. y II. se han
construido para mostrar las desviaciones correspondientes a diferentes valores
de esta probabilidad. La rapidez con la que disminuye la probabilidad a
medida que aumenta la desviación se muestra bien en estas tablas. Una
desviación que excede la desviación estándar ocurre aproximadamente una
vez en tres ensayos. El doble de la desviación estándar solo se supera
aproximadamente una vez en 22 intentos, tres veces la desviación estándar
solo una vez en 370 ensayos, mientras que la Tabla II. muestra que para
superar la desviación estándar se necesitarían seis veces [p. 47] casi mil
millones de juicios. El valor para el cual P = · .05, o 1 en 20, es 1.96 o casi
2; es conveniente tomar este punto como un límite para juzgar si una
desviación debe considerarse significativa o no. Las desviaciones que excedan
el doble de la desviación estándar se consideran formalmente
significativas. Utilizando este criterio, debemos llevarnos a realizar un
seguimiento de un resultado negativo solo una vez en 22 intentos, incluso si
las estadísticas son la única guía disponible. Los efectos pequeños aún no se
notarán si los datos no fueran lo suficientemente numerosos para sacarlos a la
luz, pero una reducción del estándar de importancia no enfrentaría esta
dificultad.

Algunas veces se produce una pequeña confusión por el hecho de que en


algunos casos deseamos conocer la probabilidad de que la desviación, que se
sabe que sea positiva, exceda un valor observado, mientras que en otros casos,
la probabilidad requerida es que una desviación, que es igualmente frecuente
positivo y negativo, deberá exceder un valor observado; la última probabilidad
es siempre la mitad de la primera. Por ejemplo, la Tabla I. muestra que la
desviación normal cae fuera del rango [más o menos] 1.598193 en el 10% de
los casos y, en consecuencia, supera los +1.598193 en el 5% de los casos.

El valor de la desviación más allá de la cual se encuentra la mitad de las


observaciones se llama la distancia del cuartil , y lleva a la desviación
estándar la razón .67449. · Por lo tanto, es una práctica común calcular el
error estándar y luego, multiplicarlo por este factor, para Obtener el error
probable . El error probable es, por lo tanto, alrededor de dos tercios del error
estándar y, como prueba de significación, una desviación de tres veces [p. 48]
el error probable es efectivamente equivalente a uno de dos veces el error
estándar. El uso común del error probable es su única recomendación; cuando
se requiere una prueba crítica, la desviación debe expresarse en términos del
error estándar en el uso de la tabla integral de probabilidad.

13. Ajustando la distribución normal

A partir de una muestra de n individuos de una población normal, la media y


la desviación estándar de la población pueden estimarse por medio de dos
estadísticas fácilmente calculables. La mejor estimación de m es x donde

mientras que para la mejor estimación de  , calculamos s de

estas dos estadísticas se calculan a partir de los dos


primeros momentos ( ver Apéndice, p. 74) de la muestra, y están
especialmente relacionadas con la distribución normal, en el sentido de que
resumen toda la información que proporciona la muestra en cuanto a la
distribución a partir de la cual fue dibujado, siempre que este último fuera
normal. El ajuste por momentos también se ha aplicado ampliamente a curvas
oblicuas (asimétricas), y otras que no son normales; pero tales curvas no
tienen las propiedades peculiares que hacen que los dos primeros momentos
sean especialmente apropiados, y donde las curvas difieren ampliamente de la
forma normal, las dos estadísticas anteriores pueden ser de poca o ninguna
utilidad.
Ex. 2. Ajustar una
distribución normal
a una
gran [pág. 49] muest
ra . - Al calcular las
estadísticas de una
muestra grande, no
es necesario calcular
individualmente los
cuadrados de las
desviaciones de la
media de cada
medición. Las
mediciones se
agrupan en
intervalos iguales de
la variable, y la
totalidad del cálculo
se puede realizar
rápidamente como se
muestra en la Tabla
2, donde se analiza la
distribución de la
estatura de 1164
hombres.

La primera columna
muestra la altura
central en pulgadas
de cada grupo,
seguida de las
frecuencias
correspondientes. Se
elige un grupo
central (68.5 ") como" media de trabajo ". Para formar la siguiente columna,
las frecuencias se multiplican por 1, 2, 3, etc., de acuerdo con su distancia de
la media de trabajo; este proceso se repite para formar el cuarta columna, que
se suma de arriba a abajo en una sola operación; en la tercera columna, sin
embargo, la parte superior, que representa desviaciones negativas, se suma por
separado y se resta de la suma de la parte inferior. La diferencia, en este caso
positivo, muestra que toda la muestra de 1164 individuos tiene en total 167
pulgadas más que si cada individuo tuviera 68.5 "de altura. Este saldo
dividido por 1164 da la cantidad por la cual la media de la muestra excede
68.5 ". De la varianza así corregida, la desviación estándar se obtiene tomando
la raíz cuadrada. Este proceso se puede llevar a cabo como un ejercicio con la
distribución de las tallas femeninas que figura en la misma tabla (pág. 103).

Cualquier intervalo puede ser usado como una unidad de agrupación; y todo el
cálculo se realiza en dichas unidades, los resultados finales se transforman en
otras unidades si es necesario, del mismo modo que podríamos transformar la
media y la desviación estándar de pulgadas a centímetros al multiplicar por el
factor apropiado. Es ventajoso que las unidades de agrupamiento sean
múltiplos exactos de las unidades de medida; de modo que si la muestra
anterior se hubiera medido a décimas de pulgada, podríamos haberlos
agrupado a intervalos de 0.6 "o 0.7".

Considerados como estimaciones de la media y desviación estándar de una


población normal de la que se considera lo anterior como una muestra, los
valores encontrados se ven afectados por errores de muestreo aleatorio; es
decir, no debemos esperar que una segunda muestra nos dé exactamente los
mismos valores. Sin embargo, los valores para diferentes muestras (grandes)
del mismo tamaño se distribuirían con mucha precisión en distribuciones
normales, por lo que la precisión de [p. 52] cualquiera de estas estimaciones
puede expresarse satisfactoriamente por su error estándar. Estos errores
estándar pueden calcularse a partir de la desviación estándar de la población, y
al tratar muestras grandes, tomamos nuestra estimación de esta desviación
estándar como la base del cálculo. Las fórmulas para los errores estándar de
muestreo aleatorio de estimaciones de la media y desviación estándar de una
muestra normal grande son (como se indica en el Apéndice, p. 75)

y sus valores numéricos se han agregado a las cantidades a las que se


refieren. De estos valores se ve que nuestra muestra muestra una aberración
significativa de cualquier población cuya media se encuentra fuera de los
límites 68.48 "-68.80", y por lo tanto es probable que la media de la población
de la que se extrajo se encuentre entre estos límites; de manera similar, es
probable que su desviación estándar esté entre 2.59 "y 2 · 81".

Se puede preguntar, ¿No se pierde nada por la agrupación? La agrupación en


efecto reemplaza los datos reales por datos ficticios colocados arbitrariamente
en los valores centrales de los grupos; Evidentemente, una agrupación muy
tosca puede ser muy engañosa. Se ha demostrado que, en lo que respecta a la
obtención de estimaciones de los parámetros de una población normal, la
pérdida de información causada por la agrupación es inferior al 1%, siempre
que el intervalo de grupo no exceda la cuarta parte de la desviación
estándar; la agrupación de la muestra anterior en pulgadas enteras es, por lo
tanto, algo gruesa; La pérdida en la estimación de la [p. 53] la desviación
estándar es del 2,28 por ciento, o aproximadamente 27 observaciones de
1164; la pérdida en la estimación de la media es la mitad de grande. Sin
embargo, con intervalos de grupo adecuados, se pierde poco por agrupación y
se ahorra mucho trabajo.

Otra forma de considerar la pérdida de información involucrada en la


agrupación es considerar qué tan cerca de los valores obtenidos para la media
y la desviación estándar estarán los valores obtenidos sin agrupar. Desde este
punto de vista, podemos calcular un error estándar de agrupación, que no debe
confundirse con el error estándar de muestreo aleatorio que mide la desviación
de los valores de la muestra con respecto al valor de la población. En unidades
de agrupación, el error estándar debido a la agrupación tanto de la media
como de la desviación estándar es

o en este caso 0085 ". Para una agrupación suficientemente fina, esto no debe
exceder una décima parte del error estándar de muestreo aleatorio.

En el análisis anterior de una muestra grande, la estimación de la varianza


empleada fue

que difiere de la fórmula dada anteriormente (p. 48) en que hemos dividido
por n en lugar de por ( n -1). En muestras grandes, la diferencia entre estas
fórmulas es pequeña, y el uso de n puede reclamar una ventaja teórica si
deseamos que se use una estimación junto con la estimación de la media de la
[pág. 54] misma muestra, como en el ajuste de una curva de frecuencia a los
datos; de lo contrario es mejor usar ( n-1). En muestras pequeñas, la diferencia
es aún pequeña en comparación con el error probable, pero se vuelve
importante si se calcula una variación al promediar las estimaciones de una
serie de muestras pequeñas. Por lo tanto, si se realizan una serie de
experimentos cada uno con seis paralelos y tenemos razones para creer que la
variación se debe en todos los casos a la operación de causas análogas,
podemos tomar el promedio de tales cantidades como

para obtener una estimación no desviada de la varianza, mientras que


deberíamos subestimarla si dividiéramos entre 6.
14. Prueba de salida de la normalidad.

A veces es necesario probar si una muestra observada se aparta o no


significativamente de la normalidad. Para este propósito se calcula el tercer
momento, ya veces el cuarto momento; de cada uno de estos es posible
calcular una cantidad,  , que es cero para una distribución normal, y se
distribuye normalmente alrededor de cero para muestras grandes; el error
estándar es calculable a partir del tamaño de la muestra.

La cantidad 1 , que se calcula a partir del tercer momento, es esencialmente


una medida de asimetría; es igual a [más o menos] [sqrt] 1 , de la notación
de Pearson; 2 (= 2 -3), calculado desde el cuarto momento, mide un tipo
simétrico de desviación de la forma normal, [p. 55] por el cual el vértice y las
dos colas de la curva se incrementan a expensas de la porción intermedia, o,
cuando 2 , es negativo, la parte superior y las colas se agotan y los hombros
se rellenan, formando una parte relativamente plana. curva. (Ver Fig. 6, p. 45
·)

Ex. 3. Uso de
momentos superiores
para poner a prueba
la normalidad . - Las
salidas de la forma
normal, a menos que
estén muy marcadas,
solo pueden
detectarse en
muestras
grandes; damos un
ejemplo (Tabla 3)
del cálculo para 65
valores de la
precipitación anual
en Rothamsted; El
proceso de cálculo es
similar al de
encontrar la media y
la desviación
estándar, pero se
lleva dos etapas más
allá, en el cálculo de
los momentos 3 y
4. Las fórmulas mediante las cuales las dos correcciones se aplican a los
momentos se reúnen en un apéndice, p. 74 · Por los momentos que
obtengamos.
de donde se calculan

Para muestras de una distribución normal, los errores estándar


de 1 y 2 son [sqrt] 6 / n y [sqrt] 24 / n, de los cuales se dan los valores
numéricos. Se verá que 1 , supera su error estándar, pero 2 , es bastante
insignificante; dado que 1 es positivo, parece que puede haber cierta
asimetría de la distribución en el sentido de que los años moderadamente
secos y muy húmedos son respectivamente más frecuentes que los años
moderadamente húmedos y muy secos. [pag. 56]

15. Distribuciones discontinuas.

Con frecuencia, una variable no puede tomar todos los valores posibles, pero
se limita a una serie particular de valores, como los números enteros. Esto es
obvio cuando la variable es una frecuencia, obtenida al contar, como el
número de células en un cuadrado de un hemocitómetro, [pág. 57] o el
número de colonias en una placa de medio de cultivo. La distribución normal
es la más importante de las distribuciones continuas; pero entre las
distribuciones discontinuas, la Serie Poisson es de primera importancia. Si un
número puede tomar los valores 0, 1, 2,. . ., X ,. . ., y la frecuencia con la que
se producen los valores viene dada por la serie

(donde x ! significa "factorial x " = x ( x -1) ( x -2) ... 1), entonces el número
se distribuye en la serie Poisson. Mientras que la curva normal tiene dos
parámetros desconocidos, m y , la serie Poisson tiene solo una. Este valor se
puede estimar a partir de una serie de observaciones, tomando su media,
siendo la media una estadística apropiada para las series de Poisson y para la
curva normal. Se puede demostrar teóricamente que si la probabilidad de un
evento es extremadamente pequeña, pero se toma un número suficientemente
grande de casos independientes para obtener un número de ocurrencias,
entonces este número se distribuirá en la Serie Poisson. Por ejemplo, la
posibilidad de que un hombre sea asesinado por patadas de caballos en
cualquier día es extremadamente pequeña, pero si un cuerpo de hombres del
ejército está expuesto a este riesgo por un año, a menudo se matará a un cierto
número de ellos de esta manera. . Los siguientes datos (datos de Bortkewitch)
se obtuvieron de los registros de diez cuerpos del ejército durante veinte años:
[pág. 58]

El promedio, m , es .61, y
utilizando este valor, los números
calculados concuerdan de manera
excelente con los observados.

La importancia de la serie Poisson


en la investigación biológica se
destacó por primera vez en
relación con la precisión de contar
con un hemocitómetro. Se
demostró que cuando la técnica del
proceso de conteo fue
efectivamente perfecta, el número
de celdas en cada cuadrado debería
distribuirse teóricamente en una
Serie de Poisson; Se demostró
además que esta distribución fue,
en circunstancias favorables,
realmente realizada en la
práctica. Por lo tanto, la tabla en la página 59 (datos de Student) muestra la
distribución de las células de levadura en los 400 cuadrados en que se dividió
un milímetro cuadrado.

El número total de celdas contadas es 1872, y el número medio es, por lo


tanto, de 4.68. Las frecuencias esperadas calculadas a partir de esta media
concuerdan bien con las observadas. Los métodos para apoyar el acuerdo se
explican en el Capítulo IV.

Cuando un número es la suma de varios componentes, cada uno de los cuales


se distribuye de forma independiente en un Poisson [pág. 59] Serie, entonces
el número total también se distribuye así. Por lo tanto, el recuento total de
1872 celdas puede considerarse como una muestra única de una serie, para la
cual m no está muy lejos de 1872. Para valores tan grandes de m, la
distribución de los números se aproxima mucho a la forma normal, de tal
manera que varianza es igual a m; por lo tanto, podemos adjuntar al número
contado, 1872, el error estándar [más de menos] [sqrt] 1872 = [más o menos]
43.26, para representar el error estándar de muestreo aleatorio de tal
recuento. Por lo tanto, la densidad de las celdas en la suspensión original se
estima con un error estándar de 2.31 por ciento. Si, por ejemplo, una segunda
muestra difería en un 7 por ciento, la técnica de muestreo sería
sospechosa. [pag. 60]

16. Pequeñas muestras de una serie de Poisson

Exactamente los mismos principios que rigen la precisión de un recuento de


hemocitómetro también regirán el recuento de colonias bacterianas o fúngicas
al estimar los números de esos organismos por el método de dilución, si se
pudiera suponer que la técnica de dilución proporcionó una distribución
perfectamente aleatoria de organismos, y que estos podrían desarrollarse en la
placa sin interferencia mutua. La concordancia de las observaciones con la
distribución de Poisson permite, por lo tanto, el método de dilución de contar
una prueba de la idoneidad de la técnica y el medio similar a la prueba de la
técnica de conteos de hemocitómetro. La gran diferencia práctica entre estos
casos es que del hemocitómetro podemos obtener un registro de un gran
número de cuadrados con solo unos pocos organismos en cada uno, mientras
que en un recuento de bacterias podemos tener solo 5 placas
paralelas, Teniendo quizás 200 colonias cada uno. De una sola muestra de 5
sería imposible demostrar que la distribución siguió la serie de Poisson; sin
embargo, cuando una gran cantidad de tales muestras se han obtenido en
condiciones comparables, es posible utilizar el hecho de que para todas las
series de Poisson la varianza es numéricamente igual a la media.

Para cada conjunto de placas paralelas con x 1 , x 2 ,. . ., x n , colonias


respectivamente, tomando la media x [barra], se puede calcular un índice de
dispersión mediante la fórmula

[pag. 61]

Se ha demostrado que para muestras verdaderas de una serie de Poisson,


χ 2 calculadas de esta manera se distribuirán de una manera conocida; Tabla
III . (p. 98) muestra los valores principales de χ 2 para esta
distribución; entrando en la mesa tome n igual a uno menos que el número de
placas paralelas. Para muestras pequeñas, el rango de variación permisible de
χ 2 es amplio; por lo tanto, para cinco placas con n = 4, χ 2 será inferior a
1.064 en el 10 por ciento de los casos, mientras que el 10 por ciento más alto
excederá de 7.779; una sola muestra de 5 nos da poca información; pero si
tenemos 50 o 100 muestras de este tipo, estamos en condiciones de verificar
con precisión si se
obtiene la
distribución
esperada.

Ex. 4 · Prueba de
acuerdo con una
serie de Poisson de
varias muestras
pequeñas . - A partir
de 100 conteos de
bacterias en
productos de
refinería de azúcar,
se obtuvieron los
siguientes valores
(Tabla 6); habiendo
6 placas en cada
caso, los valores de
χ 2 se tomaron de
la tabla χ 2 para n =
5.

Es evidente que las


series observadas
difieren fuertemente
de las
expectativas; hay un
exceso enorme en la
primera clase, y en
los valores altos más
de 15; los
relativamente pocos
valores de 2 a 15 no
están muy lejos de las proporciones esperadas, como se muestra en la última
columna al tomar el 43% de los valores esperados. Es posible entonces que
incluso en este caso casi la mitad de las muestras fueran satisfactorias, pero
aproximadamente el 10% eran excesivamente variables, y en
aproximadamente el 45% de los casos, la variabilidad estaba anormalmente
deprimida.

A menudo es deseable probar si la variabilidad es de la magnitud correcta


cuando no hemos acumulado [p. 62] un gran número de conteos, todos con el
mismo número de placas paralelas, pero donde un cierto número de conteos
está disponible con varios números de paralelos. En este caso, no podemos
verificar la distribución teórica con ninguna exactitud, pero podemos probar si
[p. 63] o no, el nivel general de variabilidad se ajusta a las expectativas. La
suma de un número de valores independientes de χ 2 se distribuye a sí misma
de la manera mostrada en la tabla de χ 2 , siempre que tomemos para n el
número S ( n ), calculado sumando los varios valores de npara los
experimentos separados. Así, para seis juegos de 4 placas, se encontró que el
valor total de χ 2 era 1385, el valor correspondiente de n es 6x3 = 18, y
la tabla χ 2 muestra que para n = 18 el valor de 13.85 se excede entre 70 y 80
por ciento de los casos; por lo tanto, no es un valor anormal para obtener. En
otro caso se obtuvieron los siguientes valores:

Por lo tanto, tenemos que probar si χ 2 = 170 es un valor irrazonablemente


pequeño o grande para n = 176 · La tabla χ 2 no se ha calculado más allá
de n = 30, pero para valores más altos utilizamos el hecho de que la
distribución de χ 2 se vuelve casi normal. Una buena aproximación se da
asumiendo que ([sqrt] 2χ 2 - [sqrt] 2 n -1 se distribuye normalmente alrededor
de cero con la desviación estándar de la unidad. Si esta cantidad es
sustancialmente mayor que 2, el valor de χ 2 no está de acuerdo con
expectativa. En el ejemplo anterior a nosotros [p. 64]

El conjunto de 45 conteos muestra, por lo tanto, la variabilidad entre placas


paralelas, muy cerca de lo que se espera teóricamente. La evidencia interna
sugiere que la técnica fue satisfactoria.
17. Presencia y ausencia de organismos en las muestras.

Cuando las condiciones de muestreo justifican el uso de la serie de Poisson, el


número de muestras que contienen 0, 1, 2, ... organismos está, como hemos
visto, conectado por una relación calculable con el número medio de
organismos en la muestra. Con organismos móviles, o en otros casos que no
permiten la formación discreta de colonias, el número medio de organismos
en la muestra puede inferirse a partir de la proporción de cultivos fértiles,
siempre que un solo organismo sea capaz de desarrollarse. Si m es el número
medio de organismos en la muestra, la proporción de muestras que no
contienen ninguno, es decir, la proporción de muestras estériles, es e -m , a
partir de la cual podemos calcular, como en la siguiente tabla, el número
promedio de organismos. Correspondiente a 10 por ciento, 20 por ciento, etc.,
muestras fértiles:

En relación con el uso de la tabla anterior, vale la pena señalar que para un
número dado de muestras [p. 65] probado, el porcentaje se determina con
mayor precisión al 50%, pero para el porcentaje mínimo de error en la
estimación del número de organismos, casi el 60% u 88 organismos por
muestra son los más precisos. La serie Poisson también nos permite calcular
qué porcentaje de los cultivos fértiles obtenidos se han derivado de un solo
organismo, ya que el porcentaje de cultivos impuros, es decir , los derivados
de 2 o más organismos, se puede calcular a partir del porcentaje de cultivos
que demostraron ser fértil Si e- m son estériles, yo -m Serán culturas puras, y el
resto impuro. La siguiente tabla proporciona valores representativos del
porcentaje de culturas que son fértiles y el porcentaje de culturas fértiles que
son impuras:

Si se desea que los cultivos sean puros con alta probabilidad, se debe usar una
concentración suficientemente baja para que al menos nueve décimas partes
de las muestras sean estériles.
18. La distribución binomial.

La distribución binomial es bien conocida como el primer ejemplo de una


distribución teórica que se establecerá. Bernoulli descubrió, a principios del
siglo XVIII, que si la probabilidad de que ocurriera un evento fuera p y la
probabilidad de que no ocurriera fuera q (= 1 -p ), entonces si una muestra
aleatoria de n ensayos [p . 66] fueron tomadas, las frecuencias con las que
ocurrió el evento 0, 1, 2, ..., n veces fueron dadas por la expansión del
binomio

(q+p)n.

Esta regla es un caso particular de un teorema más general que trata los casos
en los que no solo se considera una alternativa simple, sino que el evento
puede suceder de manera s con probabilidades p 1 , p 2 ..., p s ; entonces se
puede demostrar que la posibilidad de que una muestra aleatoria de n dé un 1 ,
del primer tipo, un 2 , del segundo, ..., a s del último es

que es el término general en la expansión multinomial de

( p 1 + p 2 + ... + p s ) n .

Ex. 5 · Distribución binomial dada por los registros de dados. - Al lanzar un


dado verdadero, la posibilidad de anotar más de 4 es 1/3, y si se lanzan 12
dados juntos, el número de dados de 5 o 6 debe distribuirse con frecuencias
dadas por los términos en la expansión de

(2/3 + 1/3) 12

Sin embargo, si uno o más de los dados no eran verdaderos, pero si todos
mantenían el mismo sesgo a lo largo del experimento, las frecuencias deberían
darse aproximadamente por

( q + p ) 12 ,

donde p es una fracción a determinar a partir de los datos. [pag. 67] Se


observaron las siguientes frecuencias (datos de Weldon) en un experimento de
26,306 lanzamientos.
Es evidente que las observaciones no son compatibles con la suposición de
que los dados eran. sin sesgo Con los dados verdaderos debemos esperar más
casos que los observados de 0, 1, 2, 3, 4 y menos casos que los observados de
5, 6, ..., 11 dados con más de cuatro. La misma conclusión se expone más
claramente en la quinta columna, que muestra los valores de la medida de la
divergencia.

donde m es el valor esperado y x la diferencia [p. 68] entre los valores


esperados y observados. El total de estos valores es χ 2 , que mide la
desviación de la serie completa de la serie esperada de frecuencias, y la
probabilidad real en este caso de χ 2 que excede 40.75 si los dados fueran
verdaderos es .00003.

El número total de veces en que un dado mostró 5 o 6 fue 106,602, de 315,672


intentos, mientras que el número esperado con dados verdaderos es 105,224; a
partir del número anterior, se puede calcular el valor de p , y resulta ser de
.337.698,6, y por lo tanto se obtuvieron las expectativas de la cuarta
columna. Estos valores están mucho más cerca de la serie observada y, de
hecho, se ajustan satisfactoriamente, lo que demuestra que las condiciones del
experimento eran realmente tales como para dar una serie binomial.
La desviación estándar de la serie binomial es [sqrt] pqn . Así, con dados
verdaderos y 315,672 intentos, el número esperado de dados con más de 4 es
de 105,224 con un error estándar de 264.9; el número observado supera la
expectativa en 2378, o 5.20 veces su error estándar; Esta es la prueba más
sensible del sesgo, y puede aplicarse legítimamente, ya que, para muestras tan
grandes, la distribución binomial se acerca mucho a la normal. De la tabla de
la integral de probabilidad parece que una desviación normal solo supera 5.2
veces su error estándar una vez en 5 millones de veces.

La razón por la que esta última prueba ofrece probabilidades mucho más altas
que la prueba de bondad de ajuste, es que esta última está probando las
discrepancias de cualquier tipo, como, por ejemplo, la introducción de errores
de copia. La discrepancia real se debe casi en su totalidad a un solo elemento,
a saber, el valor de p , y cuando ese punto [p. 69] se prueba por separado, su
importancia se pone de manifiesto más claramente.

Ex. 6.
Compa
ración
de la
propor
ción de
sexos
en
familia
s
human
as con
la
distrib
ución
binomi
al. - Los datos biológicos rara vez son tan extensos como este experimento
con dados; Los datos de Geissler sobre la proporción de sexos en las familias
alemanas servirán de ejemplo. Es bien sabido que los nacimientos masculinos
son ligeramente más numerosos que los nacimientos femeninos, por lo que si
una familia de 8 se considera una muestra aleatoria de ocho de la población
general, el número de niños en esas familias debería distribuirse en el
binomio.

(q+p)8,

donde p es la proporción de niños. Sin embargo, si las familias difieren no


solo por casualidad, sino también por la tendencia de algunos padres a
producir machos o hembras, entonces la distribución del número de varones
debería mostrar un exceso de familias desigualmente divididas, y una
deficiencia de partes iguales o Familias casi igualmente divididas. Los datos
en la Tabla 11 muestran que evidentemente existe tal exceso de familias muy
desigualmente divididas.

La serie observada difiere de la expectativa marcadamente en dos aspectos:


uno es el exceso de familias desigualmente divididas; la otra es la
irregularidad de los valores centrales, mostrando un sesgo aparente en favor
de los valores pares. No se sugiere ninguna razón biológica para la última
discrepancia, que por lo tanto resta valor al valor de los datos. El exceso de los
tipos extremos de familia puede tratarse con más detalle en [p. 70]
comparando lo observado con la varianza esperada. La varianza
esperada, npq , calculada a partir de los datos es de 1.998,28, mientras que la
calculada a partir de los datos es de 2.067,42, mostrando un exceso de .06914,
o 3.46 por ciento. El error estándar de la varianza es

donde N es el número de muestras, y 2 y 4 , son el segundo y cuarto


momento de la distribución teórica, a saber,

así que eso

Los valores aproximados de estos dos términos son 8 y -1 dando +7, el valor
real es 6.98966. Por lo tanto, el error estándar de la varianza es .01141; La
discrepancia es más de seis veces su error estándar. [pag. 71]

Una posible causa de la variación excesiva radica en la ocurrencia de


nacimientos múltiples, ya que se sabe que los niños del mismo nacimiento
tienden a ser del mismo sexo. Los nacimientos múltiples no están separados
en estos datos, pero se puede obtener una idea de la magnitud de este efecto a
partir de otros datos para el Imperio Alemán. Estos muestran alrededor de 12
nacimientos de gemelos por mil, de los cuales 5/8 son del mismo sexo y 3/8
de diferente, por lo que una cuarta parte de los nacimientos de gemelos, 3 por
mil, puede considerarse "idéntica" con respecto al sexo . Por lo tanto, seis
hijos por mil probablemente pertenecerían a nacimientos gemelos "idénticos",
siendo pequeño el efecto adicional de trillizos, etc. Ahora, con una población
de gemelos idénticos, es fácil ver que la varianza teórica se duplica; en
consecuencia, para aumentar la varianza en un 3,46 por ciento requerimos que
3. El 46 por ciento de los niños deben ser gemelos "idénticos"; esto es más de
cinco veces el promedio general, y aunque es probable que la proporción de
gemelos sea mayor en familias de 8 que en la población general, no podemos
atribuir razonablemente más de una fracción de la variación en exceso a los
nacimientos múltiples.

19. Pequeñas muestras de la serie binomial.

Con muestras pequeñas, como las que ocurren normalmente en trabajos


experimentales, no se puede probar el acuerdo con la serie binomial con tanta
precisión a partir de una sola muestra. Sin embargo, es posible verificar que la
variación sea aproximadamente lo que debería ser, calculando un índice de
dispersión similar al utilizado para la Serie Poisson. [pag. 72]

Ex. 7 · La exactitud de las estimaciones de infestación. - La proporción de


mazorcas de cebada infectadas con goutfly puede determinarse examinando
100 mazorcas y contando las muestras infectadas. Si esto se hace
repetidamente, los números obtenidos, si el material es homogéneo, deben
distribuirse en el binomio.

( q + p ) 100 ,

donde p es la proporción infestada, y q la proporción libre de infestación. Los


siguientes son los datos de 10 observaciones de este tipo realizadas en la
misma gráfica (datos de JGH Frew):

16, 18, 11, 18, 21, 10, 20, 18, 17, 21. Media 17.0 ·

¿Es la variabilidad de estos números atribuible al muestreo


aleatorio? Es decir, ¿el material es aparentemente homogéneo? Dichos datos
difieren de aquellos a los que la serie de Poisson es apropiada, ya que un total
fijo de 100 se divide en cada caso en dos clases, infectados y no infectados, de
modo que al tomar la variabilidad de las series infectadas estamos probando
igualmente la variabilidad De la serie de números no infectados. La forma
modificada de 2 , el índice de dispersión, apropiado para el binomio es

que difiere de la forma apropiada a la serie de Poisson en que contiene el


divisor q [barra], o en este caso, .83. · El valor de χ 2 es 9.22, que,
como muestra la tabla χ 2 , es un valor perfectamente razonable para n = 9,
uno menos que el número de valores disponibles. [pag. 73]
Esta prueba de la muestra única está, por supuesto, lejos de ser concluyente,
ya que χ 2 puede variar dentro de amplios límites. Sin embargo, si se dispone
de una cantidad de tales muestras pequeñas, aunque se extraen de parcelas con
infestaciones muy diferentes, podemos probar, al igual que con la serie de
Poisson, si la tendencia general de variabilidad concuerda con la distribución
binomial. Así, a partir de 20 de estos gráficos, el χ 2 total es 193.64, mientras
que S ( n ) es 180. Probando como antes (p. 63), encontramos

Dado que la diferencia es menor que uno, llegamos a la conclusión de que la


variación no muestra signos de desviación de la distribución binomial. La
diferencia entre el método apropiado para este caso, en el que las muestras son
pequeñas (10), pero cada valor se deriva de un número considerable (100) de
observaciones, y el apropiado para la distribución por sexo en familias de 8,
donde tuvimos muchas familias, cada una de solo 8 observaciones, radica en
la omisión del término

npq (1-6 pq )

En el cálculo del error estándar de la varianza. Cuando n es 100, este término


es muy pequeño en comparación con 2 n 2 p 2 q 2 , y en general,
el método χ 2 es altamente exacto si el número en todas las categorías de
observación es tan alto como 10. [p. 74]

ANEXO DE NOTACIÓN TÉCNICA Y FORMULÆ

A. Definición de momentos de muestra.

Las siguientes estadísticas se conocen como los primeros cuatro momentos de


la variable x ; el primer momento es la media

Los momentos segundo y superior son los valores medios de los poderes
segundo y superior de las desviaciones de la media.

B. Momentos de distribución teórica en términos de parámetros.


[pag. 75]

C. Varianza de momentos derivados de muestras de N.

D. Correcciones en el cálculo de momentos.

( a ) Corrección de la media, si v ' es el momento de la media de trabajo, yv el


valor correspondiente se corrigió a la media verdadera:

v 2 = v ' 2 - v' 1 2 ,

v 3 = v ' 3 - 3 v' 1 v ' 2 + 2 v' 1 3 ,

v 4 = v ' 4 - 4 v' 1 v ' 3 + 6 v' 1 2 v ' 2 -


3 v' 1 4 .

( b ) Corrección para la agrupación, si v es la estimación no corregida para la


agrupación, y  la estimación correspondiente corregida:

1 = v 2 - 1/12,

2 = v 3 ,

3 = v 4 -1/2 2 - 1/80. [pag. 76]


PRUEBAS DE BIENES DE AJUSTE, INDEPENDENCIA Y
HOMOGENEIDAD; CON TABLA DE χ 2

20. La distribución χ 2

En el último capítulo se ha hecho un uso de la distribución de 2 como un


medio para probar el acuerdo entre la observación y la hipótesis; En el
presente capítulo trataremos de manera más general la amplia gama de
problemas que pueden resolverse por medio de la misma distribución.

El factor común que subyace a todas estas pruebas es la comparación de los


números observados para caer en cualquier número de clases con los números
que, según algunas hipótesis, se esperan. Si m es el número esperado, y m +
x el número observado en cualquier clase, calculamos

La suma que se extiende sobre todas las clases. Esta fórmula da el valor de
χ 2 , y está claro que cuanto más de cerca coincidan los números observados
con los esperados, menor será will 2 ; para utilizar la tabla es necesario
conocer también el valor de n con el que se debe ingresar la tabla. La regla
para encontrar [p. 78] n es que n es igual al número de grados de libertad en
que las series observadas pueden diferir de las hipotéticas; en otras palabras,
es igual al número de clases en las que se pueden rellenar arbitrariamente las
frecuencias. Se darán varios ejemplos para ilustrar esta regla.

Para cualquier valor de n, que debe ser un número entero, la forma de


distribución de 2 fue establecida por Pearson en 1900; por lo tanto, es posible
calcular en qué proporción de casos se superará cualquier valor de χ 2 . Esta
proporción está representada por P, que es por lo tanto la probabilidad de que
χ 2 exceda cualquier valor especificado. A cada valor de χ 2 le corresponde un
cierto valor de P; a medida que χ 2 aumenta de 0 a infinito, P disminuye de 1 a
0. Igualmente, a cualquier valor de P en este rango corresponde un cierto valor
de χ 2. Algebraicamente, la relación entre estas dos cantidades es compleja,
por lo que es necesario tener una tabla de valores correspondientes, si
la prueba de 2 debe estar disponible para uso práctico.

Una tabla importante de este tipo fue preparada por Elderton, y se conoce
como la Tabla de bondad de ajuste de Elderton. Elderton dio los valores de P a
seis lugares decimales correspondientes a cada valor integral de χ 2 de 1 a 30,
y de allí en decenas a 70. En lugar de n, se utilizó la cantidad n ' (= n +1), ya
que Se creía entonces que esto podría equipararse al número de clases de
frecuencia. Se dieron valores de n ' de 3 a 30, que corresponden a valores
de n de 2 a 29. Una tabla para n' = 2, o n =1, fue posteriormente suministrado
por Yule. Debido a restricciones de derechos de autor [p. 79] no hemos
reimprimido la tabla de Elderton, pero hemos dado una nueva tabla ( Tabla
III . P. 98) en una forma que la experiencia ha demostrado ser más
conveniente. En lugar de dar los valores de P correspondientes a una serie
arbitraria de valores de 2 , hemos dado los valores de χ 2 correspondientes a
valores especialmente seleccionados de P. Por lo tanto, hemos podido en
forma compacta cubrir esas partes de las distribuciones. que hasta ahora no
han estado disponibles, es decir, los valores de χ 2 menos que la unidad, que
ocurren con frecuencia para valores pequeños de n, y los valores que exceden
de 30, que para valores mayores de n cobran importancia.

Es interesante observar que la medida de dispersión, 2 , introducida por el


economista alemán Lexis, es, si se calcula con precisión, equivalente a
χ 2 / n de nuestra notación. En las numerosas referencias en inglés al método
de Lexis, creo que no se ha observado que el descubrimiento de la distribución
de χ 2en realidad completó el método de Lexis. Si se deseara usar la notación
de Lexis, nuestra tabla podría transformarse en una tabla de φ 2 simplemente
dividiendo cada entrada por n.

Al preparar esta tabla, hemos tenido en cuenta que en la práctica no queremos


saber el valor exacto de P para ningún observed 2 observado , pero, en primer
lugar, si el valor observado está o no abierto a la sospecha. Si P está entre .1 y
.9, ciertamente no hay razón para sospechar la hipótesis probada. Si está por
debajo de .02, está fuertemente indicado que la hipótesis no tiene en cuenta la
totalidad de los hechos. No nos desviaremos a menudo si dibujamos una línea
convencional en .05, y consideramos que los valores más altos
de indicate 2 indican una discrepancia real. [pag. 80]

Comparar valores de χ 2 , o de P, por medio de un "error probable" es


simplemente sustituir una distribución inexacta (normal) por la distribución
exacta dada por la tabla χ 2 .

El término Bondad de ajuste ha hecho que algunos caigan en la falacia de


creer que cuanto mayor sea el valor de P, más satisfactoria será la hipótesis
verificada. En ocasiones, se han informado valores superiores a .999 que, si la
hipótesis fuera cierta, solo ocurriría una vez en mil intentos. En general, tales
casos han demostrado ser debidos al uso de fórmulas inexactas, pero en
ocasiones ocurren valores pequeños de χ 2 más allá del rango esperado, como
en Ex. 4 con los números de colonias obtenidos en el método de recubrimiento
de recuento de bacterias. En estos casos, la hipótesis considerada es tan
refutada como si P hubiera sido .001.
Cuando un gran número de valores de χ 2 están disponibles para la prueba,
puede ser posible revelar discrepancias que son demasiado pequeñas para
aparecer en un solo valor; entonces podemos comparar la distribución
observada de 2 con la esperada. Esto se puede hacer de inmediato simplemente
distribuyendo los valores observados de χ 2 entre las clases delimitadas por los
valores dados en la tabla as 2 , como en Ex. 4, p. 61. Las frecuencias esperadas
en estas clases se escriben fácilmente y, si es necesario, la prueba de 2 se
puede usar para probar la concordancia de lo observado con las frecuencias
esperadas.

Es útil recordar que la suma de cualquier número de cantidades, χ 2 , se


distribuye en la distribución de 2 , con n igual a la suma de los valores
de ncorrespondientes a los valores de χ 2 utilizados. Tal prueba es sensible,
[p. 81] y con frecuencia traerá a la luz las discrepancias que están ocultas o
que aparecen de manera oscura en los valores separados.

La tabla que damos tiene valores de n hasta 30; más allá de este punto, se
encontrará que es suficiente suponer que [sqrt] 2 distributed 2 se distribuye
normalmente con una desviación estándar de la unidad alrededor de una
media [sqrt] 2n-1, Los valores de P obtenidos al aplicar esta regla a los valores
de χ 2 dados para n = 30, puede ser. Funcionó como un ejercicio. Los errores
son pequeños para n = 30 y se vuelven progresivamente más pequeños para
valores más altos de n.

Ex. 8. Comparación con la expectativa de frecuencias de clase


mendelianas . - En un cruce que involucra dos factores mendelianos,
esperamos que al cruzar la generación híbrida (F 1 ) se obtengan cuatro clases
en la relación 9: 3: 3: 1; la hipótesis en este caso es que los dos factores se
segregan independientemente y que las cuatro clases de descendientes son
igualmente viables. ¿Las siguientes observaciones sobre Primula (de Winton
y Bateson) están de acuerdo con esta hipótesis?

Los valores esperados se calculan a partir del total observado, de modo que las
cuatro clases deben coincidir en su suma, y si se llenan arbitrariamente tres
clases, la cuarta está, por lo tanto, determinada, por lo tanto, n = 3, [p. 82]
χ 2 = 10.87, la probabilidad de superar ese valor está entre .01 y .02; si
tomamos P = .05 como límite de desviación significativa, diremos que en este
caso las desviaciones de la expectativa son claramente significativas.

Consideremos una segunda hipótesis en relación con los mismos datos, que
difiere de la primera en que suponemos que las plantas con hojas engarzadas
son, en cierta medida, menos viables que aquellas con hojas planas. Por
supuesto, tal hipótesis podría ser probada por medio de datos adicionales; Sólo
nos preocupa la cuestión de si está de acuerdo con los valores que tenemos
ante nosotros. La hipótesis no nos dice nada sobre qué grado de viabilidad
relativa se puede esperar; por lo tanto, tomamos los totales de hojas planas y
rizadas observadas, y dividimos cada clase en la proporción 3: 1.

El valor de n es ahora 2, ya que solo dos entradas pueden hacerse de manera


arbitraria; sin embargo, el valor de χ 2 se reduce tanto que P supera .2, y la
desviación de la expectativa ya no es significativa. La parte significativa de la
discrepancia original radica en la proporción de hojas planas a rizadas.

Anteriormente se creía que al entrar en el χ 2 [pág. 83] la tabla n siempre debía


equipararse a una menos que el número de clases de frecuencia; esta visión
dio lugar a muchas discrepancias, y desde entonces ha sido refutada con el
establecimiento de la regla mencionada anteriormente. En la perspectiva
anterior, cualquier complicación de la hipótesis, como la que en la instancia
anterior admitía la viabilidad diferencial, estaba destinada a darnos una mejora
aparente en el acuerdo entre la observación y la hipótesis. Cuando se
permite el cambio en n, este sesgo desaparece, y si el valor de P se calcula
correctamente; es mucho mayor, como en este caso, el aumento puede
atribuirse de manera segura a una mejora en la hipótesis, y no a un mero
aumento de las constantes disponibles.

Ex. 9. Comparación con las expectativas de la serie de Poisson y de la serie


binomial . - En la tabla 5, pág. 59, damos las frecuencias observadas y
esperadas en el caso de una serie de Poisson. Al aplicar la prueba de la χ 2 a
una serie de este tipo, es deseable que el número esperado en ningún grupo
sea menor que 5, ya que la distribución calculada de χ 2 no se realiza muy de
cerca para clases muy pequeñas. Por lo tanto, agrupamos los números para las
celdas 0 y 1, y también los de 10 y más, y obtenemos la siguiente
comparación:

[p.84]

Usando 10 clases de frecuencia tenemos χ 2 = 4.390; al determinar el valor


de n debemos recordar que las frecuencias esperadas se han calculado, no solo
a partir del número total de valores observados (400), sino también a partir de
la media observada; Quedan, por tanto, 8 grados de libertad y n = 8. Para este
valor, la tabla χ 2 muestra que P está entre .8 y .9, que muestra un acuerdo
cercano con la expectativa, pero no un cierre injustificado.

Del mismo modo en la Tabla 10, pág. 67, hemos dado el valor de χ 2 basado
en 12 clases para las dos hipótesis de "dados verdaderos" y "dados
sesgados"; con "dados verdaderos", los valores esperados se calculan a partir
del número total de observaciones solo, y n = 11, pero al permitir el sesgo
también hemos puesto de acuerdo los medios para que n se reduzca a 10. En el
primer caso χ 2 está muy lejos del rango de la tabla que muestra una
desviación altamente significativa de la expectativa; en el segundo, parece que
P se encuentra entre .2 y .3, de modo que el valor de χ 2 está dentro del rango
esperado.

21. Pruebas de independencia, tablas de contingencia.

Una clase especial e importante de casos en los que se puede probar el


acuerdo entre la expectativa y la observación comprende las pruebas
de independencia . Si el mismo grupo de individuos se clasifica de dos (o
más) formas diferentes, ya que las personas pueden clasificarse como
inoculadas y no inoculadas, y también como atacadas y no atacadas por una
enfermedad, es posible que necesitemos saber si las dos clasificaciones son
independiente. [pag. 85]

Ex. 10: Prueba de independencia en una clasificación 2x2 . - En el caso más


simple, cuando cada clasificación comprende solo dos clases, tenemos una
tabla cuádruple, como en el siguiente ejemplo (de los datos de Greenwood y
Yule) para Typhoid:

Al probar la independencia, debemos comparar los valores observados con los


valores calculados de modo que las cuatro frecuencias estén en
proporción ; ya que deseamos probar la independencia solamente, y no
ninguna hipótesis sobre los números totales atacados o inoculados, los valores
"esperados" se calculan a partir de los totales marginales observados, de modo
que los números esperados coincidan con los números [p. 86] observado en
los márgenes; solo se necesita calcular un valor, por ejemplo

los otros se escriben a la vez por sustracción de los márgenes. Por lo tanto, es
obvio que los valores observados pueden diferir de los esperados en solo 1
grado de libertad, de modo que al probar la independencia en cuatro; tabla
plegable, n = 1. Dado que χ 2 = 56.234 las observaciones se oponen
claramente a la hipótesis de independencia. Sin calcular los valores esperados,
χ 2 puede, para tablas cuádruples, calcularse directamente por la fórmula
donde a, b, c y d son los cuatro números observados.

Cuando solo una de las clasificaciones es de dos clases, el cálculo de 2 puede


simplificarse en cierta medida, si no se desea calcular los números
esperados. Si a, a ' representa cualquier par de frecuencias observadas, y n,
n' los totales correspondientes, calculamos a partir de cada par

y la suma de estas cantidades dividida por nn ' será χ 2 .

Ex. 11. Prueba de independencia en una clasificación 2xn . - De la encuesta


de pigmentación de niños escoceses (datos de Tocher), los siguientes son los
números de niños y niñas del mismo distrito (No. 1) cuyo color de cabello
corresponde a cada una de las cinco clases: [pág. 87]

Las cantidades calculadas a partir de cada par de observaciones se dan a


continuación en millones. Así

aproximadamente; el total de 39 millones impares dividido por 2100 y por


1783 da χ 2 = 10.468 · En esta tabla, 4 valores podrían llenarse arbitrariamente
sin entrar en conflicto con los totales marginales, de modo que n = 4. El valor
de P está entre .02 y .05, por lo que la diferencia de sexo en la clasificación
por colores de cabello es probablemente significativa, como lo juzga este
distrito solo. El cálculo de χ 2 a partir de los valores "esperados", aunque algo
más laborioso, tendría en este caso la ventaja de mostrar en qué clases estaban
los niños, y en qué clases las niñas, en exceso. De los números en la línea más
baja, se desprende que la discrepancia principal se encuentra en la clase "Jet
Black".

Ex. 12. Prueba de independencia en una clasificación 4x4 . - Como ejemplo


de una tabla de contingencia más compleja, podemos tomar los resultados de
una serie de cruces hacia atrás [pág. 88] en ratones, involucrando a los dos
Brown, Self-Piebald (datos de Wachter):

Los cruces cruzados se realizaron de cuatro maneras, según que los padres
varones o hembras eran heterocigotos (F 1 ) en los dos factores, y según si los
dos genes dominantes se recibieron de uno (Acoplamiento) o de uno de cada
padre ( Repulsión).

Las relaciones mendelianas simples pueden verse alteradas por la viabilidad


diferencial, por vinculación o por letales vinculados. La vinculación no se
sospecha en estos datos, y si la única perturbación se debiera a la viabilidad
diferencial, las cuatro clases en cada experimento deberían aparecer en la
misma proporción; Para comprobar si los datos muestran salidas
significativas, podemos aplicar la prueba χ 2 a toda la tabla 4x4. Los valores
esperados en la hipótesis de que las proporciones son independientes de los
apareamientos utilizados, o que las cuatro series son homogéneas, se indican
arriba entre paréntesis. Las contribuciones a χ 2 hechas por cada celda se dan
en la página 89.

El valor de χ 2 es, por lo tanto, 21.832; el valor de n es 9, ya que podríamos


llenar un bloque de tres filas y [p. 89]
Tres columnas y todavía ajustar las entradas restantes para verificar con los
márgenes. En general para una tabla de contingencia
2
de r filas yc columnas n = (r -1) ( c -1). Para n = 9, el valor de χ muestra que
P es menor que .01, y por lo tanto las desviaciones de la proporcionalidad no
son fortuitas; es evidente que la discrepancia se debe al número excepcional
de Piebalds de Brown en la serie de repulsión de machos F 1 .

Cabe señalar que los métodos empleados en este capítulo no están diseñados
para medir el grado de asociación entre una clasificación y otra, sino
únicamente para probar si las desviaciones observadas de la independencia
son o no de una magnitud atribuible al azar. El mismo grado de variación
puede ser significativo para una muestra grande, pero insignificante para una
muestra grande; Si es insignificante, no tenemos ninguna razón en los datos
presentes para sospechar algún grado de asociación, y es inútil intentar
medirlo. Si, por otro lado, es significativo el valor de χ 2Indica el hecho, pero
no mide el grado de asociación. Siempre que la desviación sea claramente
significativa, no tiene importancia práctica si P es .01 o · .000,001, y es por
esta razón que no hemos tabulado el valor de χ 2más allá de .01. Para medir
[pág. 90] el grado de asociación es necesario tener algunas hipótesis sobre la
naturaleza de la salida de la independencia para ser medido. Con las
frecuencias mendelianas, por ejemplo, el porcentaje cruzado se puede usar
para medir el grado de asociación de dos factores, y la importancia de la
evidencia para la vinculación se puede evaluar comparando la diferencia entre
el porcentaje cruzado y el 50% ( el valor para los factores no vinculados), con
su error estándar. Dicha comparación, si se realiza con precisión, debe
coincidir absolutamente con la conclusión extraída del 2prueba. Para tomar un
segundo ejemplo, los valores en una tabla cuádruple pueden considerarse a
veces como debidos a la partición de un par de variables normalmente
correlacionadas, según que los valores están por encima o por debajo de líneas
divisorias elegidas arbitrariamente; como si un grupo de medidas de estatura
de padres e hijos se dividiera entre los de arriba y los de menos de 68
pulgadas. En este caso, el abandono de la independencia puede medirse
adecuadamente por la correlación en estatura entre padre e hijo; esta cantidad
se puede estimar a partir de las frecuencias observadas, y una comparación
entre el valor obtenido y su error estándar, si se realiza con precisión,
coincidirá con la χ 2prueba en cuanto a la importancia de la asociación; la
importancia será cada vez más pronunciada a medida que la muestra aumenta
de tamaño, pero la correlación obtenida tenderá a un valor
fijo. La prueba χ 2 no intenta medir el grado de asociación, pero como prueba
de significación es independiente de todas las hipótesis adicionales en cuanto
a la naturaleza de la asociación. [pag. 91]

Las pruebas de homogeneidad son matemáticamente idénticas a las pruebas


de independencia; El último ejemplo puede ser considerado igualmente en
cualquiera de las dos luces. En el capítulo III. Las pruebas de acuerdo con la
Serie Binomial fueron esencialmente pruebas de homogeneidad; las diez
muestras de 100 espigas de cebada (Ex. 7, p. 72) podrían haber sido
representadas como una tabla de 2x10. El índice de dispersión de χ 2 sería
entonces equivalente al χ 2 obtenido de la tabla de contingencia. El método de
este capítulo es más general y se aplica a los casos en los que las muestras
sucesivas no son todas del mismo tamaño.

Ex. 13 · Homogeneidad de diferentes familias respecto al ratio negro: rojo . -


Los siguientes datos muestran en 33 familias de Gammarus (datos de Huxley)
los números con ojos negros y rojos respectivamente:

Los totales 2565 negro y 772 rojo claramente no están en la relación 3: 1, que
se atribuye al enlace. La pregunta que tenemos ante nosotros es si todas las
familias indican o no la misma proporción entre negro y rojo, o si la
discrepancia se debe solo a unas pocas familias. Para toda la tabla
χ 2 = 35.620, n = 32. Esto es [p. 92] más allá del rango de la tabla, por lo que
aplicamos el método explicado en la p. 63:
Por lo tanto, la serie no es significativamente heterogénea; efectivamente
todas las familias están de acuerdo y se confirman entre sí al indicar la
proporción negro-rojo observada en el total.

Se adoptaría exactamente el mismo procedimiento si los números negros y


rojos representaran dos muestras distribuidas de acuerdo con algún carácter o
caracteres en 33 clases. La pregunta "¿Son estas muestras de la misma
población?" es en efecto idéntico a la pregunta "¿La proporción de negro a
rojo es la misma en cada familia?" Reconocer esta identidad es importante, ya
que ha sido ampliamente ignorado.

Ex. 14 · Acuerdo con expectativa de varianza normal . - Muy similar a las


pruebas de homogeneidad es el uso de la distribución de 2 para probar si una
serie observada de valores, normalmente o casi normalmente distribuida,
concuerda en su varianza con la expectativa. Si x 1 , x 2 , ..., son una muestra
de una población normal, la desviación estándar de qué población es  ,
entonces

se distribuye en muestras aleatorias como es χ 2 , tomando n uno menos que el


número de la muestra. JW Bispham da tres series de valores experimentales
del coeficiente de correlación parcial, que él asume que deben ser [pág. 93]
distribuidos de manera que 1 / 2 = 29, pero que teóricamente debería tener
1 / 2 = 28. Th, los valores de S ( x - x [barra]) 2 para las tres muestras de
1000, 200, 100 respectivamente son, a juzgar por los datos agrupados,

35.0278, 7.1071, 3.6169,

de donde los valores de χ 2 en las dos teorías son

Se verá que la verdadera fórmula para la varianza da un poco mejor


acuerdo. Que la diferencia no es significativa puede verse en las dos últimas
columnas. Se necesitarían alrededor de 6000 observaciones para discriminar
experimentalmente, con alguna certeza, entre las dos fórmulas.
22. Partición de χ 2 en sus componentes

Del mismo modo que los valores de χ 2 se pueden agregar para hacer una
prueba más completa, en algunos casos es posible separar las contribuciones a
χ 2 hechas por los grados individuales de libertad, y así probar los
componentes separados de una discrepancia.

Ex. I5 · Partición de las discrepancias observadas de la expectativa


mendeliana . - La siguiente tabla (los datos de De Winton y Bateson) da la
distribución de dieciséis familias de primula en las ocho clases obtenidas de
un cruce cruzado con el triple recesivo: [pág. 94]

[pag. 95]

La expectativa teórica es que las ocho clases deben aparecer en números


iguales, correspondientes a la hipótesis de que en cada factor los alelomorfos
se producen con la misma frecuencia, y que los tres factores están
desvinculados. Esta expectativa se cumple bastante en los totales de las
dieciséis familias, pero las familias individuales son algo irregulares. Los
valores de χ 2 obtenidos al comparar cada familia con la expectativa se dan en
la línea más baja. Cada uno de estos valores corresponde a siete grados de
libertad, y parece que en 5 de los 16 casos, P es menor que .1, y de estos 2 son
menores que .02. Esto confirma la impresión de irregularidad y el valor total
de χ 2 (no debe confundirse con χ 2derivado de los totales), que corresponde a
112 grados de libertad, es de 151.78. Ahora
de modo que, a juzgar por el total de 2 , la evidencia de desviaciones de las
expectativas en familias individuales, es clara.

Cada familia es libre de diferir de las expectativas en siete formas


independientes. Para continuar con el análisis, debemos separar la
contribución a 2 de cada uno de estos siete grados de
libertad. Matemáticamente, la subdivisión puede llevarse a cabo de más de
una manera, pero la única forma que parece ser de interés biológico es la que
separa las partes debido a la desigualdad de los alelomorfos de los tres
factores, y las tres conexiones de vinculación posibles. Si nos separamos
[p. 95] las frecuencias en valores positivos y negativos de acuerdo con las
siguientes siete formas,

luego se verá que las siete subdivisiones son totalmente independientes, ya


que dos de ellas concuerdan en cuatro signos y discrepan en cuatro. Los
primeros tres grados de libertad representan las desigualdades en los
alelomorfos de los tres factores Ch, G y W; los siguientes son los grados de
libertad involucrados en una investigación sobre la vinculación de los tres
pares de factores, mientras que el séptimo grado de libertad no tiene un
significado biológico simple, pero es necesario para completar el análisis. Si
tomamos la primera familia, por ejemplo, la diferencia entre los números de
las plantas W y w, es decir, 8, entonces la contribución de este grado de
libertad a χ 2 se encuentra al cuadrar la diferencia y dividir por el número en el
familia, por ejemplo82/72 = 889. De esta manera, la contribución de cada uno
de los 112 grados de libertad en las dieciséis familias se encuentra por
separado, como se muestra en la siguiente tabla: [pág. 97]
Al observar los valores totales de χ 2 para cada columna, ya que n es 16 para
estos, vemos que todos, excepto el primero, tienen valores de P entre .05 y
.95, mientras que la contribución del primer grado de libertad es muy
claramente significativa . Entonces, parece que la mayor parte, si no la
totalidad, de la discrepancia es atribuible al comportamiento del factor
Sinensis-Stellata, y su comportamiento sugiere un vínculo estrecho con un gen
letal recesivo de uno de los tipos familiares. En cuatro familias, 107-121, la
única contribución alta está en la primera columna. Si se excluyen estas cuatro
familias χ 2 = 97.545, y esto excede la expectativa de n= 84 solo por encima
del error estándar; Por lo tanto, la discrepancia total no puede considerarse
significativa. Sin embargo, parece que hay un exceso de entradas muy
grandes, y es notable de las siete más grandes, [pág. 98-99]
[pag. 100]

Seis aparecen en parejas pertenecientes a la misma familia. La distribución de


las 12 familias restantes según el valor de P es la siguiente:

de lo cual parece que hay alguna evidencia leve de un exceso de familias con
valores altos de χ 2 . Este efecto, al igual que otros efectos no significativos,
solo merece una discusión adicional en relación con alguna hipótesis plausible
capaz de explicarlo.

NB . - Tabla de χ 2 , p. 98.
PRUEBAS DE SIGNIFICADO DE MEDIOS, DIFERENCIAS DE
MEDIOS Y COEFICIENTES DE REGRESIÓN

23. El error estándar de la media.

La proposición fundamental en la que se basa el tratamiento estadístico de los


valores medios es que: si una cantidad se distribuye normalmente con la
desviación estándar  , entonces la media de una muestra aleatoria de n tales
cantidades se distribuye normalmente con la desviación
estándar / [sqrt] norte.

La utilidad de esta proposición se ve algo aumentada por el hecho de que,


incluso si la distribución original no fuera exactamente normal, la de la media
suele ser normal, a medida que aumenta el tamaño de la muestra; por lo tanto,
el método se aplica de manera amplia y legítima a los casos en los que no
tenemos pruebas suficientes para afirmar que la distribución original era
normal, pero tenemos razones para pensar que no pertenece a la clase
excepcional de distribuciones para las cuales la distribución de El medio no
tiende a la normalidad.

Por lo tanto, si conocemos la desviación estándar de una población, podemos


calcular la desviación estándar de [p. 102] la media de una muestra aleatoria
de cualquier tamaño, y así probar si difiere o no significativamente de
cualquier valor fijo. Si la diferencia es muchas veces mayor que el error
estándar, es ciertamente significativa, y es una convención conveniente tomar
el doble del error estándar como límite de significación; esto es
aproximadamente equivalente al límite correspondiente P = .05, ya utilizado
para la distribución 2 . Las desviaciones en la distribución normal
correspondientes a una serie de valores de P se dan en la línea más baja de la
tabla de t al final de este capítulo (pág. 137). En la Tabla I se proporciona
información más detallada.

Ex. 16. Significado de la media de una muestra grande. - Podemos considerar


desde este punto de vista el experimento de fundición a presión de Weldon
(Ex. 5, p. 66). La cantidad variable es el número de dados que puntúan "5" o
"6" en un lanzamiento de 12 dados. En el experimento, este número varía de
cero a once, con una media observada de 4.0524; la media esperada, en la
hipótesis de que los dados eran verdaderos, es 4, por lo que la desviación
observada es .0524 · Si ahora estimamos la varianza de la muestra total de
26,306 valores como se explica en la p. 50, pero sin usar la corrección de
Sheppard (para los datos no se agrupan), encontramos
2 = 2.69825,

de donde 2 / n = .0001025,

y  / [sqrt] n = .01013.

El error estándar de la media es, por lo tanto, alrededor de .01, y la desviación


observada es casi 5.2 veces mayor; así llegamos por un camino ligeramente
diferente [p. 103] en la misma conclusión que la de la p. 68. La diferencia
entre los dos métodos es que nuestro tratamiento de la media no depende de la
hipótesis de que la distribución es de forma binomial, pero, por otro lado,
asumimos la exactitud del valor de  derivado de las observaciones. Esta
suposición se desglosa para muestras pequeñas, y el propósito principal de
este capítulo es mostrar cómo se puede hacer una asignación precisa en estas
pruebas de importancia para los errores en nuestras estimaciones de la
desviación estándar.

Para volver a la teoría más cruda, a menudo podemos, como en el ejemplo


anterior, comparar la media observada con el valor apropiado para una
hipótesis que deseamos probar; pero igualmente o más a menudo deseamos
comparar dos valores experimentales y probar su acuerdo. En tales casos,
requerimos el error estándar de la diferencia entre dos cantidades cuyos
errores estándar son conocidos; para encontrar esto utilizamos la proposición
de que la varianza de la diferencia de dos variables independientes es igual a
la suma de sus varianzas. Por lo tanto, si las desviaciones estándar
son 1 , 2 , las variaciones son 1 2 , 2 2 ; en consecuencia la varianza
de la diferencia es1 2 + 2 2 , y el error estándar de la diferencia es
[sqrt] 1 2 + 2 2 .

Ex. 17 · Error estándar de diferencia de medias de grandes muestras.. - En la


Tabla 2 se da la distribución en estatura de un grupo de hombres, y también de
un grupo de mujeres; los medios son 68.64 y 63.85 pulgadas, dando una
diferencia de 4.79 pulgadas. La varianza obtenida para los hombres fue de
7.2964 pulgadas cuadradas; este es el valor obtenido al dividir la suma de los
cuadrados de [p. 104] las desviaciones por 1164; si hubiésemos dividido por
1163, para hacer que el método sea comparable al apropiado para muestras
pequeñas, deberíamos haber encontrado 7.3027. Dividiendo esto por 1164,
encontramos que la varianza de la media es .006274. De manera similar, la
varianza para las mujeres es .63125, que dividida por 1456 da la varianza de la
media de las mujeres como .004335. Para encontrar la varianza de la
diferencia entre los medios, debemos sumar estas dos contribuciones y
encontrar en todo .010609; El error estándar de la diferencia entre los medios
es por lo tanto. 1030 pulgadas. La diferencia de sexo en estatura puede por lo
tanto expresarse como
4.79 [más o menos] .103 pulgadas.

Es evidente que esta diferencia es significativa, el valor encontrado es más de


46 veces su error estándar. En este caso, no solo podemos afirmar una
diferencia significativa, sino que podemos colocar su valor con cierta
confianza entre 4½ y 5 pulgadas. Cabe señalar que hemos tratado las dos
muestras como independientes,como si hubieran sido dadas por diferentes
autoridades; de hecho, en muchos casos aparecieron hermanos y hermanas en
los dos grupos; dado que los hermanos y las hermanas tienden a ser iguales en
estatura, hemos sobreestimado el posible error de nuestra estimación de la
diferencia de sexo. Siempre que sea posible, se debe sacar provecho de tales
hechos al diseñar experimentos. En la frase común, las hermanas brindan un
mejor "control" a sus hermanos que las mujeres no relacionadas. Por lo tanto,
la diferencia de sexo podría estimarse con mayor precisión a partir de la
comparación de cada hermano con su propia hermana. En p. 105] el siguiente
ejemplo (datos de Pearson y Lee), tomado de una tabla de correlación de
estatura de hermanos y hermanas, el material es casi de esta forma;

Ex. I8 Error estándar de la media de las diferencias . - La siguiente tabla


muestra la distribución del exceso de estatura de un hermano sobre su
hermana en 1401 pares.

Tratando esta distribución como antes, obtenemos: media = 4.895, varianza =


6.4074, varianza de la media = .004573, error estándar de la media =
.0676; demostrando que podemos estimar la diferencia de sexo media en 4¾ a
5 pulgadas.

En los ejemplos anteriores, que son típicos del uso del error estándar aplicado
a los valores medios, hemos asumido que la varianza de la población se
conoce con exactitud. En 1908, "Student" señaló que, con muestras pequeñas,
como son necesariamente habituales en los experimentos de campo y de
laboratorio, la variación de la población solo se puede estimar
aproximadamente de la muestra, y que los errores de estimación afectan
seriamente El uso del error estándar. [pag. 106]

Si x (por ejemplo, la media de una muestra) es un valor con distribución


normal y  es su verdadero error estándar, entonces la probabilidad de que x
/ exceda cualquier valor especificado puede obtenerse de la tabla apropiada
de la distribución normal; pero si no sabemos  , pero en su lugar tenemos s ,
una estimación del valor de  , la distribución requerida será la de x / s , y esto
no es normal. El valor verdadero se ha dividido por un factor, s /  , que
introduce un error. Hemos visto en el último capítulo que la distribución en
muestras aleatorias de s 2 / 2es la de 2 / n , cuando n es igual al número
de grados de libertad, del grupo (o grupos) de los cuales s 2 es la desviación
cuadrática media. En consecuencia, la distribución de s /  calculable, y si su
variación es completamente independiente de la de x /  (como en los casos a
los que se aplica este método), se puede calcular la distribución real de x / s , y
se permite una asignación precisa. Hecho para su salida de la normalidad. La
única modificación requerida en estos casos depende únicamente del
número n , que representa el número de grados de libertad disponibles para la
estimación de  . Las distribuciones necesarias fueron dadas por "Estudiante"
en 1908; desde entonces, el mismo autor ha proporcionado tablas más
completas, y al final de este capítulo (pág. 137) proporcionamos las
distribuciones de forma similar a la utilizada para nuestra tabla de 2 .

24. El significado de la media de una muestra única

Si x 1 , x 2 , ..., x n , es una muestra de n ' valores de una variable, x , y si esta


muestra constituye la totalidad de [p. 107] la información disponible sobre el
punto en cuestión, entonces podemos comprobar si la media de x difiere
significativamente de cero, calculando las estadísticas

La distribución de t para muestras aleatorias de una población normal


distribuida alrededor de cero como media, se proporciona en la tabla de t para
cada valor de n. Las columnas sucesivas muestran, para cada valor de n, los
valores de t para los cuales P, la probabilidad de caer fuera del rango [más o
menos] t, toma los valores .9, ...,. 01, a la cabeza de las columnas. Por lo tanto,
la última columna muestra que, cuando n = 10, solo el 1% de dichas muestras
aleatorias dará valores de t que superen +3.169, o menos de -3.169. Si se
propone considerar la posibilidad de exceder los valores dados de t,solo en
una dirección positiva (o negativa), entonces los valores de P deben reducirse
a la mitad. En la tabla se verá que para cualquier grado de certeza que
necesitemos valores más altos de t, menor será el valor de n. La línea inferior
de la tabla, correspondiente a valores infinitos de n, da los valores de una
variable distribuida normalmente, en términos de su desviación estándar, para
los mismos valores de P.

Ex. 19. Significado de la media de una pequeña muestra . - Las siguientes


cifras (datos de Cushny y Peebles) [pág. 108] que cito del artículo de Student
muestra el resultado de un experimento con diez pacientes, sobre el efecto de
los isómeros ópticos del bromhidrato de hiosciamina en la producción de
sueño.

La última columna proporciona una comparación controlada de la eficacia de


los dos fármacos como soporíficos, para los mismos pacientes que se
utilizaron para probar cada uno; De la serie de diferencias encontramos.
Para n = 9, solo un valor en cien excederá 3250 por casualidad, por lo que la
diferencia entre los resultados es claramente significativa. Por los métodos de
la [p. 109] capítulos anteriores deberíamos, en este caso, haber llegado a la
misma conclusión con casi la misma certeza; porque si los dos medicamentos
hubieran sido igual de efectivos, los signos positivos y negativos aparecerían
en la última columna con igual frecuencia. De los 9 valores distintos de cero,
sin embargo, todos son positivos, y aparecen en la distribución binomial,

(½ + ½) 9 ,

que todos serán del mismo signo, por casualidad, solo dos veces en 512
intentos. El método del presente capítulo difiere del que tiene en cuenta los
valores reales y no meramente de sus signos, y por lo tanto es el método más
confiable cuando los valores reales están disponibles.

Para probar si dos muestras pertenecen a la misma población, o difieren


significativamente en sus medios. Si x ' 1 , x' 2 , ..., x ' n 1 +1, y si x 1 , x 2 ,
..., x n 2+1 son dos muestras, la importancia de la diferencia entre sus medias
puede comprobarse calculando Las siguientes estadísticas.

Los medios se calculan como de costumbre; El estándar [pág. 110] la


desviación se calcula juntando las sumas de cuadrados de las dos muestras y
dividiendo por el número total de los grados de libertad que aportan; si a fuera
la verdadera desviación estándar, la varianza de la primera media
sería 2 /( n 1 +1), de la segunda media 2 / ( n 2 +1), y por lo tanto de la
diferencia 2 {1 / ( n 1 +1) + 1 / ( n 2 +1)}; Por lo tanto, t se encuentra
dividiendo x[barra] - x '[barra] por su error estándar según lo estimado, y el
error de la estimación se permite ingresando la tabla con n igual al número de
grados de libertad disponibles para estimar s ; es decir n = n 1 + n 2 . Por lo
tanto, es posible extender el tratamiento de Student del error de a -an a la
comparación de las medias de dos muestras.
Ex. 20. Significación de la diferencia de medias de pequeñas muestras . -
Supongamos que las cifras anteriores (Tabla 27) se obtuvieron utilizando
diferentes pacientes para los dos fármacos; el experimento habría sido menos
controlado y deberíamos esperar obtener resultados menos seguros de la
misma cantidad de observaciones, ya que es a priori probable, y las cifras
anteriores sugieren que las variaciones personales en respuesta a los
medicamentos serán, en cierta medida extensión correlacionada.

Tomando, entonces, las cifras para representar dos grupos diferentes de


pacientes, tenemos

El valor de P está, por lo tanto, entre .1 y .05, y [p. 111] no puede considerarse
significativo. Este ejemplo muestra claramente el valor del diseño en
experimentos a pequeña escala y que la eficacia de dicho diseño es capaz de
realizar mediciones estadísticas.

El uso de la distribución de Student nos permite apreciar el valor de observar


un número suficiente de casos paralelos; su valor radica, no solo en el hecho
de que el error probable de una media disminuye inversamente como la raíz
cuadrada del número de paralelos, sino en el hecho de que la precisión de
nuestra estimación del error probable aumenta simultáneamente. La necesidad
de experimentos duplicados se realiza suficientemente ampliamente; no se
comprende tan bien que en algunos casos, cuando se desea colocar un alto
grado de confianza (p.ej. P = .01) en los resultados, los experimentos por
triplicado nos permitirán detectar con confianza diferencias tan pequeñas
como una séptima parte de aquellos que, con un experimento duplicado,
justificarían el mismo grado de confianza.

La confianza que se debe colocar en un resultado depende no solo del valor


real del valor medio obtenido, sino también del acuerdo entre experimentos
paralelos. Por lo tanto, si en un experimento agrícola un primer ensayo
muestra una ventaja aparente de 8 toneladas por acre, y un experimento
duplicado muestra una ventaja de 9 toneladas, tenemos n = 1, t = 17, y los
resultados justificarían cierta confianza en que se había observado un efecto
real; pero si el segundo experimento mostró una ventaja aparente de 18
toneladas, aunque la media es ahora más alta, deberíamos depositar más
confianza en la conclusión de que el tratamiento fue [p. 112] beneficioso,
porque t ha caído a 2.6, un valor que para n =1 es a menudo superado por
casualidad. La aparente paradoja puede explicarse señalando que la diferencia
de 10 toneladas entre los experimentos indica la existencia de circunstancias
incontroladas tan influyentes que en ambos casos el beneficio aparente puede
deberse al azar, mientras que en el primer caso el acuerdo relativamente
estrecho de los resultados sugieren que los factores no controlados no son tan
influyentes. Gran parte de la ventaja de una mayor replicación radica en el
hecho de que duplicar nuestra estimación de la importancia de los factores no
controlados es extremadamente peligroso.

En los casos en que cada observación de una serie corresponde en algunos


aspectos a una observación particular de la segunda serie, siempre es legítimo
tomar las diferencias y probarlas como en Ex. 18, 19 como una sola
muestra; Pero no siempre es deseable hacerlo. Mediante este método se puede
obtener una comparación más precisa si los valores correspondientes de las
dos series están correlacionados positivamente, y solo si están correlacionados
en una medida suficiente para compensar la pérdida de precisión debida a la
base de nuestra estimación de varianza en menos grados de libertad . Un
ejemplo dejará esto claro.

Ex. 21. Significación del cambio en los números bacterianos . - La siguiente


tabla muestra el número medio de colonias bacterianas por placa obtenidas
mediante cuatro métodos ligeramente diferentes de las muestras de suelo
tomadas a las 4 PM y 8 PM respectivamente (datos de HG Thornton):
[pág. 113]

De la serie de diferencias tenemos x [barra] = + 10.775, ¼ s 2 = 3.756, t


= 5.560, n = 3, donde la tabla muestra que P está entre .01 y .02. Si, por el
contrario, usamos el método del ej. 20, y al tratar las dos series separadas,
encontramos x [bar] -x '[bar] = + 10.775, ½ s 2 = 2.188, t = 7.285, n = 6; esto
no es solo un valor mayor de n, sino un valor mayor de t, que ahora está
mucho más allá del rango de la tabla, lo que muestra que P es extremadamente
pequeño. En este caso, los efectos diferenciales de los diferentes métodos son
insignificantes o han actuado de manera muy diferente en las dos series, por lo
que se perdió la precisión al comparar cada valor con su contraparte en las
otras series. En casos como este, a veces ocurre que un método no muestra
una diferencia significativa, mientras que el otro lo resalta; Si cualquiera de
los métodos indica una diferencia definitivamente significativa, su testimonio
no puede ser ignorado, incluso si el otro método no muestra el efecto. Cuando
no existe correspondencia entre los miembros de una serie y los de la otra,
solo está disponible el segundo método. [pag. 114]

25. Coeficientes de regresión

Los métodos de este capítulo son aplicables no solo a los valores medios, en el
sentido estricto de la palabra, sino a la amplia clase de estadísticas conocidas
como coeficientes de regresión. La idea de regresión generalmente se
introduce en relación con la teoría de la correlación, pero en realidad es más
general y, en algunos aspectos, una idea más simple, y los coeficientes de
regresión son de interés e importancia científica en muchas clases de Los
datos en los que el coeficiente de correlación, si se usa, es un concepto
artificial de no utilidad real. Los siguientes ejemplos cualitativos tienen la
intención de familiarizar al estudiante con el concepto de regresión y preparar
el camino para el tratamiento preciso de los ejemplos numéricos.

Es un lugar común que la altura de un niño depende de su edad, aunque


conociendo su edad, no podemos calcular su altura con precisión. En cada
edad, las alturas se dispersan en un rango considerable en una distribución de
frecuencia característica de esa edad; Cualquier característica de esta
distribución, como la media, será una función continua de la edad. La función
que representa la altura media en cualquier edad se denomina función de
regresión de la altura en la edad; se representa gráficamente mediante una
curva de regresión, o una línea de regresión. En relación con tal regresión, la
edad se denomina variable independiente , y altura la variable dependiente .

Las dos variables tienen relaciones muy diferentes con la línea de


regresión. Si se producen errores en las alturas, este [p. 115] no influirá en la
regresión de la altura en la edad, siempre que en todas las edades los errores
positivos y negativos sean igualmente frecuentes, de modo que se equilibren
en los promedios. Por el contrario, los errores en la edad en general alterarán
la regresión de la altura en la edad, por lo que a partir de un registro con
edades sujetas a error, o clasificadas en grupos de edad amplios, no
deberíamos obtener la verdadera relación física entre la altura media y la edad.
. Se debe tener en cuenta una segunda diferencia: la función de regresión no
depende de la distribución de frecuencia de la variable independiente, por lo
que se puede obtener una verdadera línea de regresión incluso cuando los
grupos de edad se seleccionan arbitrariamente, como cuando una
investigación trata con niños de la "escuela". años."
De las instancias anteriores se desprende claramente que la regresión de la
altura en la edad es bastante diferente de la regresión de la edad en la altura; y
que uno puede tener un significado físico definido en los casos en que el otro
solo tiene el significado convencional que le da la definición matemática. En
ciertos casos, ambas regresiones son de igual posición; así, si expresamos en
términos de la altura del padre la altura promedio de los hijos de padres de una
altura determinada, la observación muestra que cada centímetro adicional de
la altura de los padres corresponde a aproximadamente media pulgada en la
altura media de los hijos . Igualmente, si tomamos la altura media de los
padres de hijos de una altura determinada, encontramos que cada centímetro
adicional de la altura de los hijos corresponde a media pulgada en la altura
media de los padres. Sin selección [pág. 116] se ha ejercido en las alturas, ya
sea de padres o de hijos; cada variable se distribuye normalmente, y el
agregado de pares de valores forma una superficie de correlación
normal. Ambas líneas de regresión son rectas y, por lo tanto, es posible
expresar los hechos de regresión en las reglas simples establecidas
anteriormente.

Cuando la línea de regresión que nos ocupa es recta, o, en otras palabras,


cuando la función de regresión es lineal, la especificación de regresión se
simplifica mucho, ya que además de los medios generales, solo tenemos que
indicar la relación que el incremento de la media de la variable dependiente se
refiere al incremento correspondiente de la variable independiente. Tales
relaciones se denominan coeficientes de regresión. La función de regresión
toma la forma.

Y = a + b ( x - x [barra]),

donde b es el coeficiente de regresión de y en x, e Y es el valor medio


de y para cada valor de x. Las dimensiones físicas del coeficiente de regresión
dependen de las de las variables; por lo tanto, en un rango de edad en el que el
crecimiento es uniforme, podríamos expresar la regresión de la altura en edad
en pulgadas por año, de hecho como una tasa de crecimiento promedio,
mientras que la regresión de la altura del padre en la altura del hijo es de
media pulgada por pulgada, o simplemente ½. Los coeficientes de regresión
pueden, por supuesto, ser positivos o negativos.

Las líneas de regresión curvadas son de ocurrencia común; en tales casos


tendremos que usar una función de regresión como

Y = a + bx + cx 2 + dx 3 , [pág. 117]

en el que los cuatro coeficientes de la función de regresión pueden, mediante


un uso prolongado del término, llamarse coeficientes de regresión. Se pueden
usar funciones más elaboradas de x , pero su empleo práctico ofrece
dificultades en los casos en que carecemos de orientación teórica para elegir la
forma de la función de regresión, y en la actualidad la serie de potencias
simples (o, el polinomio en x ) está sola en el uso frecuente . Con mucho, el
caso más importante en la práctica estadística es la recta de regresión.

26. Errores de muestreo de los coeficientes de regresión.

La recta de regresión con fórmula.

Y = a + b ( x - x [barra])

se ajusta mediante el cálculo de los datos, las dos estadísticas

estas son estimaciones, derivadas de los datos, de las dos constantes


necesarias para especificar la línea recta; la verdadera fórmula de regresión,
que deberíamos obtener de una infinidad de observaciones, puede
representarse por

 +  ( x - x [barra]),

y las diferencias a -  , b -  son los errores de muestreo aleatorio de nuestras


estadísticas. Si 2 representa la varianza de y para cualquier valor de xsobre
una media dada por la fórmula anterior, entonces la varianza de a , la media
de n ' observaciones, será 2 / n' , mientras que la de b , que es [pag. 118]
simplemente una media ponderada de los valores de y observados, será

Para probar el significado de la diferencia entre b y cualquier valor


hipotético,  , con el cual se comparará, debemos estimar el valor de 2 ; La
mejor estimación para el propósito es

encontrado sumando los cuadrados de las desviaciones de y de su valor


calculado Y, y dividiendo por ( n ' -2). La razón por la que el divisor es ( n ' -
2) es que a partir de los valores n' de y ya se han calculado dos estadísticas
que entran en la fórmula para Y, por lo tanto, el grupo de diferencias, y -Y,
representa en realidad solo n ' -2 grados de libertad.
Cuando n ' es pequeña, la estimación de s 2 obtenido anteriormente es algo
incierto, y en la comparación de la diferencia b-  con su error estándar, con el
fin de probar su significado tendremos que utilizar el método de Student,
con n = n' - 2. Cuando n ' es grande, esta distribución tiende a la distribución
normal. El valor de t con el que se debe introducir la tabla es

De manera similar, para probar el significado de la diferencia entre a y


cualquier valor hipotético  , la tabla se ingresa con [p. 119]

esta prueba para el significado de a será más sensible que el método explicado
anteriormente, si la variación en y es expresable en términos considerables en
términos de x, ya que el valor de s obtenido de la línea de regresión será
menor que La obtenida del grupo original de observaciones. Por otro lado,
siempre se pierde un grado de libertad, de modo que si b es pequeño, no se
obtiene mayor precisión.

Ex. 22. Efecto de los fertilizantes nitrogenados en el mantenimiento del


rendimiento . - Los rendimientos de grano vestido en bushels por acre que se
muestran en la Tabla 29 se obtuvieron de dos parcelas en el campo de trigo de
Broadbalk durante treinta años; la única diferencia en el tratamiento de
tratamiento fue que "9 a " recibió nitrato de sodio, mientras que "7 b " recibió
una cantidad equivalente de nitrógeno como sulfato de amoniaco. En el curso
de la trama experimento "9 una " parece estar ganando en rendimiento en la
parcela "7 b ". ¿Es esta ganancia aparente significativa?

Una gran parte de la variación en el rendimiento de un año a otro es


evidentemente similar en las dos parcelas; En consecuencia, la serie de
diferencias dará el resultado más claro. En un aspecto, los datos anteriores son
especialmente simples, ya que los treinta valores de la variable independiente
forman una serie con intervalos iguales entre los valores sucesivos, con un
solo valor de la variable dependiente correspondiente a cada uno. En tales
casos, el trabajo se simplifica utilizando la fórmula

S ( x - x [barra]) 2 = 1/12 n ' ( n' 2 -1), [pág. 120]


donde n ' es el número de términos, o 30 en este caso. Para evaluar 6 es
necesario calcular.

S { y ( xx [barra])};

Esto se puede hacer de varias maneras. Podemos multiplicar [pág. 121] los
valores sucesivos de y por -29, -27,… +27, +29, sumar y dividir por 2. Este es
el método directo sugerido por la fórmula. El mismo resultado se obtiene

multiplicando por 1, 2, ..., 30 y restando 15½ veces la suma de


los valores de y ; este último método puede llevarse a cabo convenientemente
por adición sucesiva. A partir de la parte inferior de la columna, se anotan las
sumas sucesivas 2.69, 9.76, 6.82, ..., cada una de las cuales se encuentra
agregando un nuevo valor de y al total ya acumulado; La suma de la nueva
columna, menos 15½ veces la suma de la columna anterior, será el valor
requerido. En este caso encontramos el valor 599.615, y dividiendo por
2247.5, el valor de bse encuentra que es .2668. El rendimiento de trama
"9 un " por lo tanto parece haber ganado en la de "7 b " a una velocidad algo
más de un cuarto de un bushel por año.

Para estimar el error estándar de 6, requerimos el valor de

S ( y -Y) 2 ;

sabiendo el valor de b , es fácil calcular los treinta valores de Y a partir de la


fórmula

Y = y [barra] + ( x - x [barra]) b ;

para el primer valor, xx [barra] = -14.5 y los valores restantes se pueden


encontrar en sucesión agregando b cada vez. Al restar cada valor de Y de
la ycorrespondiente , la cuadratura y la suma, la cantidad requerida se puede
calcular directamente. Este método es laborioso, y es preferible en la práctica
utilizar el hecho algebraico de que [pág. 122]

El trabajo consiste entonces en cuadrar los valores de y y sumar, luego restar


las dos cantidades que se pueden calcular directamente del valor medio de y y
el valor de b. En el uso de este método abreviado cabe señalar que los
pequeños errores en y [bar] y b puede introducir errores considerables en el
resultado, por lo que es necesario para asegurarse de que éstos se calculan con
precisión a tantas cifras significativas que son necesarios en el Cantidades a
restar. Los errores de aritmética que tendrían poco efecto en el primer método,
pueden viciar los resultados si se usa el segundo método. El trabajo posterior
en el cálculo del error estándar de bse puede seguir mejor en el esquema que
se da junto a la tabla de datos; el error estándar estimado es .1169, de modo
que al probar la hipótesis de que = 0, es decir, que la gráfica "9 a " no ha
ido ganando en la gráfica "7 b ", dividimos b entre esta cantidad y
encontramos t = 2.282. Dado que s se encontró a partir de 28 grados de
libertad n = 28, y la tabla de t muestra que P está entre .02 y .05. ·

El resultado debe juzgarse significativo, aunque apenas sea así; En vista de los
datos, no podemos ignorar la posibilidad de que en este campo, y en relación
con los demás estiércol utilizados, el nitrato de soda haya conservado la
fertilidad mejor que el sulfato de amoniaco; Sin embargo, estos datos no
demuestran el punto más allá de la posibilidad de duda.

El error estándar de y [barra], calculado a partir de los datos anteriores, es


1.012, por lo que no puede haber ninguna duda de que [p. 123] la diferencia
en los rendimientos medios es significativa; Si hubiéramos probado el
significado de la media, sin tener en cuenta el orden de los valores, que es el
cálculo de s 2 al dividir 1020.56 por 29, el error estándar habría sido 1.083. El
valor de b era, por lo tanto, lo suficientemente alto como para haber reducido
el error estándar. Esto sugiere la posibilidad de que si hubiéramos ajustado
una línea de regresión más compleja a los datos, los errores probables se
reducirían aún más hasta un punto que pondría la importancia de b fuera de
toda duda. Trataremos más adelante el ajuste de las líneas de regresión curvas
a este tipo de datos.

Al igual que el método de comparación de medias es aplicable cuando las


muestras son de diferentes tamaños, al obtener una estimación del error
combinando las sumas de cuadrados obtenidas de las dos muestras diferentes,
podemos comparar los coeficientes de regresión cuando la serie de valores de
la variable independiente no es idéntica; o si son idénticos, podemos ignorar el
hecho al comparar los coeficientes de regresión.

Ex. 23. Comparación de la tasa de crecimiento relativo de dos cultivos de un


alga . - La Tabla 30 muestra el logaritmo (en la base 10) de los volúmenes
ocupados por células de algas en días sucesivos, en cultivos paralelos, cada
uno tomado durante un período durante el cual la tasa de crecimiento relativo
fue aproximadamente constante. En la cultura A hay nueve valores
disponibles, y en la cultura B ocho (datos del Dr. M. Bristol-Roach).

El método para hallar S y ( x - x [barra]) por suma se muestra en el segundo


par de columnas: los valores originales se suman desde la parte inferior, dando
sucesivas [pág. 124] totales de 6.087 a 43.426; el valor final debe, por
supuesto, coincidir con el total debajo de los valores originales. De la suma de
la columna de totales se resta la suma de los valores originales multiplicada
por 5 para A y por 4½ para B. Las diferencias son S y ( x - x [barra]); estos
deben dividirse por los valores respectivos de S ( x - x barra]) 2 ,
a saber, 60 y 42, para dar los valores de b , midiendo las tasas de crecimiento
relativas de las dos culturas. Para probar si la diferencia es significativa ,
calculamos en los dos casos S ( y 2 ) y restamos sucesivamente el producto de
la media con el total, y el producto de b con S y ( x - x [barra]); este proceso
deja los dos valores de S ( y -Y) 2 , que se agregan como se muestra en la
tabla, y la suma dividida por n , para dar s 2 . El valor de nse encuentra
agregando los 7 grados de libertad de la serie A a los 6 grados de la serie B, y
por lo tanto es 13. [p. 125] Las estimaciones de la varianza de los dos
coeficientes de regresión se obtienen al dividir s 2 entre 60 y 42, y la de la
varianza de su diferencia es la suma de estos. Tomando la raíz cuadrada,
encontramos que el error estándar es .01985, y t = 1.844 · La diferencia entre
los coeficientes de regresión, aunque es relativamente grande, no puede
considerarse significativa. No hay pruebas suficientes para afirmar que el
cultivo B estaba creciendo más rápidamente que el cultivo A.

27. La adaptación de líneas de regresión curvadas

Se ha avanzado poco con la teoría del ajuste de las líneas de regresión curvas,
salvo en el caso limitado pero más importante cuando la variabilidad de la
variable independiente es la misma para todos los valores de la variable
dependiente, y es normal para cada uno de esos valores. Cuando este es el
caso, una técnica ha sido completamente desarrollada para ajustarse por etapas
sucesivas en cualquier línea del formulario.

Y = a + bx + cx 2 + dx 3 + ..;
Daremos detalles del caso donde los valores sucesivos de x están en intervalos
iguales.

Tal como está, la forma anterior sería un inconveniente en la práctica, ya que


la adaptación no se pudo realizar en etapas sucesivas. Lo que se requiere es
obtener sucesivamente la media de y , una ecuación lineal en x , una ecuación
cuadrática en x , y así sucesivamente, cada ecuación se obtiene del último al
sumar, un nuevo término que se calcula al llevar un solo proceso de [
pag. 126] computación a través de una nueva etapa. Para hacer esto tomamos

Y = A + B 1 + C 2 + D 3 +…,

donde 1 , 2 , 3 serán funciones de x de los grados 1º, 2º y 3º, a partir de
los cuales se puede construir la fórmula de regresión. Se puede mostrar que las
funciones requeridas para este propósito se pueden expresar en términos de
los momentos de la distribución x , de la siguiente manera:

donde los valores de las funciones momento se han expresado en términos


de n', el número de observaciones, por lo que se necesita para curvas de ajuste
de hasta el 5 º grado. Los valores de x se toman para aumentar por unidad.

Algebraicamente el proceso de ajuste ahora puede ser representado por las


ecuaciones

[pag. 127]
y, en general, el coeficiente del término del grado r es

A medida que se ajusta cada término, la línea de regresión se acerca más a los
valores observados, y la suma de los cuadrados de la desviación

S ( y -Y) 2

se disminuye Es deseable poder calcular esta cantidad, sin evaluar los valores
reales de Y en cada punto de la serie; esto se puede hacer restando de S ( y 2)
las cantidades sucesivas

y así. Estas cantidades representan la reducción que sufre la suma de los


cuadrados de los residuos cada vez que la curva de regresión se ajusta a un
grado mayor; y permite que su valor se calcule en cualquier etapa mediante
una mera extensión del proceso ya utilizado en los ejemplos anteriores. Para
obtener una estimación, s 2 , de la varianza residual, dividimos por n , el
número de grados de libertad que queda después del ajuste, que se encuentra
en n ' al restar el número de constantes en la fórmula de regresión. Por lo
tanto, si se ha ajustado una línea recta, n = n ' -2; mientras que si se ha
ajustado una curva de quinto grado, n = n ' -6. [pag. 128]

28. El procedimiento aritmético de la adaptación.

El principal trabajo aritmético de ajustar líneas de regresión curvas a datos de


este tipo puede reducirse a una repetición del proceso de suma ilustrado en
Ex. 23. Asumiremos que los valores de y se escriben en una columna en orden
de valores crecientes de x, y que en cada etapa la suma comienza en la parte
superior de la columna (no en la parte inferior, como en ese ejemplo) . Las
sumas de las columnas sucesivas se indicarán por S 1 , S 2 , ... Cuando se
hayan obtenido estos valores, cada uno se divide por un divisor apropiado, que
depende solo de n ', lo que nos da una nueva serie de cantidades a, b, c, ...
deacuerdo a las siguientes ecuaciones

y así.

De estas, una nueva serie de cantidades a ', b', c ', ... se obtienen mediante las
ecuaciones independientes n', de las cuales damos a continuación las primeras
seis, que son suficientes para llevar el proceso de ajuste hasta el 5º grado:

[pag. 129]

Estas nuevas cantidades son proporcionales a los coeficientes requeridos de la


ecuación de regresión, y solo necesitan ser divididas por un segundo grupo de
divisores para dar los valores reales. Las ecuaciones son

La parte numérica del factor es


para el término de grado r .

Si se ha ajustado una ecuación de grado r , la estimación de los errores


estándar de los coeficientes se basa en el mismo valor de s 2 , es decir

a partir del cual el error estándar estimado de cualquier coeficiente, como el


de p , se obtiene dividiendo por

y sacando la raíz cuadrada. El número de grados de libertad en que se basa la


estimación es (n'-r- 1), y esto debe equipararse a n en el uso de la tabla de t.

Se puede obtener un ejemplo adecuado del uso de este método ajustando los
valores de Ej. 22 (p. 120) con una curva de segundo o tercer grado. [pag. 130]

29. Regresión con varias variables independientes.

Con frecuencia sucede que los datos nos permiten expresar el valor promedio
de la variable dependiente y , en términos de un número de diferentes
variables independientes x 1 , x 2 , ... x p. Por ejemplo, la precipitación en
cualquier punto dentro de un distrito se puede registrar en una cantidad de
estaciones para las cuales se conocen la longitud, latitud y altitud. Si todas
estas tres variables influyen en la lluvia, puede ser necesario determinar el
efecto promedio de cada una por separado. Al hablar de la longitud, la latitud
y la altitud como variables independientes, todo lo que está implícito es que es
en términos de ellos que se expresará la precipitación promedio; no está
implícito que estas variaciones varían independientemente, en el sentido de
que no están correlacionadas. Por el contrario, puede suceder que las
estaciones más al sur descansen más hacia el oeste que las estaciones más al
norte, de modo que para las estaciones disponibles, la longitud medida hacia
el oeste puede estar correlacionada negativamente con la medida de latitud
hacia el norte. Si entonces la lluvia aumentó hacia el oeste, pero fue
independiente de la latitud, debemos obtenerla simplemente, al comparar la
precipitación registrada en diferentes latitudes, una regresión ficticia que
indica una caída de la lluvia a medida que aumenta la latitud. Lo que
necesitamos es una ecuación que tenga en cuenta las tres variables en cada
estación y que esté de acuerdo lo más cerca posible con los valores
registrados; Esto se denomina ecuación de regresión parcial y sus coeficientes
se conocen como coeficientes de regresión parcial. [pag. 131] Esto se
denomina ecuación de regresión parcial y sus coeficientes se conocen como
coeficientes de regresión parcial. [pag. 131] Esto se denomina ecuación de
regresión parcial y sus coeficientes se conocen como coeficientes de regresión
parcial. [pag. 131]

Para simplificar el álgebra, supongamos que y, x 1 , x 2 , x 3 , todos se miden a


partir de sus valores medios, y que estamos buscando una fórmula de la forma

Y = b 1, x 1 + b 2x 2 + b 3x 3.

Si S representa la suma de todos los conjuntos de observaciones, construimos


las tres ecuaciones

de los cuales los nueve coeficientes se obtienen a partir de los datos, ya sea
por multiplicación y adición directa, o, si los datos son numerosos,
construyendo tablas de correlación para cada uno de los seis pares de
variables. Las tres ecuaciones simultáneas para b 1 , b 2 y b 3 se resuelven de
manera ordinaria; el primer b 3 se elimina del primero y el tercero, y de la
segunda y tercera ecuaciones, dejando dos ecuaciones
para b 1 y b 2 ; eliminando b 2 de estos, se encuentra b 1 , y de allí por
sustitución, b 2 yb 3 .

Con frecuencia sucede que, para el mismo conjunto de valores de las variables
independientes, se desea examinar las regresiones para más de un conjunto de
valores de las variables dependientes; por ejemplo, si para el mismo conjunto
de estaciones de lluvia teníamos datos para varios meses o años diferentes. En
tales casos, es preferible evitar resolver las ecuaciones simultáneas de nuevo
en cada ocasión, pero obtener una fórmula más simple que se pueda aplicar a
cada nuevo caso.

Esto se puede hacer resolviendo de una vez por todas [pág. 132] tres
conjuntos, cada uno compuesto por tres ecuaciones simultáneas:
Las tres soluciones de estos tres conjuntos de ecuaciones pueden escribirse.

Una vez que se conocen los seis valores de c , entonces los coeficientes de
regresión parcial pueden obtenerse en cualquier caso particular simplemente
calculando S ( x 1 y ), S ( x 2 y ), S ( x 3 y ) y sustituyendo en las fórmulas,

El método de regresión parcial es de muy amplia aplicación. Vale la pena


señalar que las diferentes variables independientes pueden estar relacionadas
de alguna manera; por ejemplo, si quisiéramos expresar la lluvia como una
función lineal de la latitud y la longitud, y como una función cuadrática de la
altitud, el cuadrado de la altitud se introduciría como una cuarta variable
independiente, sin interrumpir de ninguna manera el proceso. descrito
anteriormente, excepto que S ( x 3 x 4 ), S ( x 3 3 ) se calcularía directamente a
partir de la distribución de altitud.

En la estimación de los errores de muestreo de parcial [p. 133] coeficientes de


regresión que necesitamos para saber cuánto de nuestro valor calculado, Y, ha
reproducido los valores observados de y ; como en casos anteriores, la suma
de los cuadrados de ( y- Y) se puede calcular por diferencias, para, con tres
variables,

S ( y -Y) 2 = S ( y 2 ) - b 1 S (x 1 y ) - b 2 S ( x 2 y ) - b 3 S ( x 3 y ). ·

Si tuviéramos n ' observaciones, y p variables independientes, deberíamos


encontrar

y para probar si b 1 , difería significativamente de cualquier valor


hipotético, 1 , debemos calcular
entrando en la tabla de t con n = n'-p -1.

En el uso práctico de varias variables, es conveniente utilizar tarjetas, en cada


una de las cuales se ingresan los valores de las diversas variables que pueden
ser necesarias. Al clasificar estas tarjetas en unidades de agrupación
adecuadas con respecto a cualquiera de las dos variables, la tabla de
correlación correspondiente puede construirse con poco riesgo de error, y de
allí se obtienen las sumas necesarias de cuadrados y productos.

Ex. 24. Dependencia de las precipitaciones en la posición y altitud . - Las


situaciones de 57 estaciones de lluvia en Hertfordshire tienen una longitud
media de 12'.4 W., una latitud media de 51 ° 48'.5 N. y una altitud media de
302 pies. Tomando como unidades 2 minutos de longitud, uno [p. 134] minuto
de latitud y 20 pies de altitud, se obtuvieron los siguientes valores de las
sumas de cuadrados y productos de desviaciones de la media:

Para encontrar los multiplicadores adecuados para cualquier conjunto


particular de datos meteorológicos de estas estaciones, primero resuelva las
ecuaciones

1934.1 c 11 - 772.2 c 12 + 924.1 c 13 = 1


-772.2 c 11 + 2889.5 c 12 + 119.6 c 13 = 0
+924.1 c 11 + 119.6 c 13 [ sic ] + 1750.8 c 13 = 0;

Usando la última ecuación para eliminar c 13 de los dos primeros, tenemos

2532.3 c 11 - 1462.5 c 12 = 1.7508


= 1462.5 c 11 + 5044.6 c 12 = 0;

De estos se eliminan c 12 , obteniendo

10,635.5 c 11 = 8,8321;

De dónde
c 11 = .00083043, c 12 = .00024075, c 13 = -.00045476

Los dos últimos se obtienen sucesivamente por sustitución.

Dado que las ecuaciones correspondientes para c 12 , c 22 , c 23 difieren solo en


los cambios en el número de la mano derecha, podemos escribir
inmediatamente

-1462.5 c 12 + 5044.6 c 22 = 1.7508;

de donde, sustituyendo por c 12 el valor ya obtenido,

c 22 = .00041686, c 23 = -.00015554; [pag. 135]

Finalmente, para obtener c 33 solo tenemos que sustituir en la ecuación.

924.1 c 13 + 119.6 c 23 + 1750.8 c 33 = 1,

dando

c 33 = .00082182.

Por lo general, vale la pena, para facilitar la detección de pequeños errores


mediante la comprobación, para mantener por encima de un lugar más
decimal que la garantía de datos.

La regresión parcial de cualquier dato meteorológico particular sobre estas


tres variables se puede encontrar ahora con poco trabajo. En enero de 1922, la
precipitación media registrada en estas estaciones fue de 3.87 pulgadas, y las
sumas de los productos de las desviaciones con las de las tres variables
independientes fueron (tomando 0.1 pulgadas como unidad para la lluvia)

S ( x 1 y ) = +1137.4, S ( x 2 y ) = -592.9, S ( x 3 y ) = +891.8;

multiplicando estos primero por c 11 , c 12 , c 13 y sumando, tenemos para la


regresión parcial en longitud

b 2 = .39624;

de manera similar, utilizando los multiplicadores c 12 , c 22 , c 23 obtenemos


para la regresión parcial en latitud

b 2 = -11204;

y finalmente, usando c 13 , c 23 , c 33 ,
b 3 = .30787

Da la regresión parcial sobre la altitud.

Recordando ahora las unidades empleadas, parece que en el mes en cuestión


la lluvia aumentó en 0.0198 de pulgada por cada minuto de longitud hacia el
oeste, [pág. 136] se reduce en .0112 de pulgada por cada minuto de latitud
hacia el norte, y se incrementa en .00154 de pulgada por cada pie de altitud.

Calculemos hasta qué punto la regresión en altitud se ve afectada por errores


de muestreo. Para las 57 desviaciones registradas de la lluvia de su valor
medio, en las unidades utilizadas anteriormente

S ( y 2 ) = 1786.6;

de donde, conociendo los valores de b 1 , b 2 y b 3 , obtenemos por diferencias

S ( y -Y) 2 = 994,9.

Para encontrar s 2 , debemos dividir esto por el número de grados de libertad


que quedan después de ajustar una fórmula que incluye tres variables, es decir,
entre 53, de modo que

s 2 = 8,772;

multiplicando esto por c 33 , y tomando la raíz cuadrada,

s [sqrt] c 33 = .12421.

Dado que n es tan alto como 53, no estaremos muy equivocados al tomar la
regresión de la precipitación en altitud para estar en unidades de trabajo .308,
con un error estándar .124; o en pulgadas de lluvia por 100 pies como .154,
con un error estándar .062.
EL COEFICIENTE DE CORRELACIÓN

30. Ninguna cantidad es más característica del trabajo estadístico moderno


que el coeficiente de correlación, y ningún método se ha aplicado con éxito a
datos tan diversos como el método de correlación. Los datos de observación
en particular, en los casos en que podemos observar la aparición de varias
posibles causas contributivas de un fenómeno, pero no podemos controlarlas,
se ha dado por sus medios una importancia totalmente nueva. En el trabajo
experimental propiamente dicho su posición es mucho menos central; se
encontrará útil en las etapas exploratorias de una investigación, como cuando
dos factores que se habían considerado independientes parecen estar asociados
en su aparición; pero rara vez, con condiciones experimentales controladas, se
desea expresar nuestra conclusión en forma de un coeficiente de correlación.

Uno de los primeros y más sorprendentes éxitos del método de correlación fue
en el estudio biométrico de la herencia. En un momento en que no se sabía
nada del mecanismo de la herencia, o de la estructura del material germinal,
este método podía demostrar la existencia de la herencia, y [p. 139] "medir su
intensidad"; y esto en un organismo en el que no se podía practicar la
reproducción experimental, a saber, el Hombre. Al comparar los resultados
obtenidos de las mediciones físicas en el hombre con los obtenidos de otros
organismos, se estableció que la naturaleza del hombre no está menos
gobernada por la herencia que la del resto del mundo animado.

Estos resultados siguen siendo de importancia fundamental, ya que no solo la


herencia en el hombre sigue siendo incapaz de un estudio experimental, y los
métodos existentes de prueba mental aún no pueden analizar la disposición
mental, sino que incluso con organismos adecuados para la experimentación y
la medición, es solo en los casos más favorables de que los diversos factores
que causan la variabilidad fluctuante pueden resolverse, y sus efectos
estudiarse, mediante métodos mendelianos. Dicha variabilidad fluctuante, con
una distribución aproximadamente normal, es característica de la mayoría de
las cualidades útiles de las plantas y animales domésticos; y aunque hay
fuertes razones para pensar que la herencia en tales casos es en última
instancia mendeliana, el método de estudio biométrico es actualmente solo
capaz de mantener la esperanza de un progreso inmediato.

Damos en la Tabla 31 un ejemplo de una tabla de correlación. Consiste en un


registro en forma compacta de la estatura de 1376 padres e hijas. (Los datos
de Pearson y Lee.) Las mediciones se agrupan en [pág. 140-141] [tabla]
[pág. 142] pulgadas, y aquellos cuya medida se registró como un número
integral de pulgadas se han dividido; por lo tanto, un padre registrado a partir
de 67 pulgadas aparecerá como 1/2 debajo de 66.5 y 1/2 debajo de 67.5. Del
mismo modo con las hijas; en consecuencia, cuando ambas mediciones son
números enteros, el caso aparece en cuatro trimestres. Esto le da a la tabla una
apariencia confusa, ya que la mayoría de las entradas son fraccionarias,
aunque representan frecuencias. Es preferible, si se puede evitar el sesgo en la
medición, agrupar las observaciones de tal manera que cada observación
posible se encuentre completamente dentro de un grupo.

La característica más obvia de la tabla es que no ocurren casos en los que el


padre es muy alto y la hija muy baja, y viceversa; las esquinas superior
derecha e inferior izquierda de la tabla están en blanco, por lo que podemos
llegar a la conclusión de que es tan raro que ocurran en una muestra de
aproximadamente 1400 casos. Las observaciones registradas se encuentran en
una figura aproximadamente elíptica que se encuentra en diagonal sobre la
mesa. Si marcamos la región en la que las frecuencias exceden de 10, parece
que esta región, aparte de las irregularidades naturales, es similar y se
encuentra en una situación similar. La frecuencia de ocurrencia aumenta desde
todos los lados hasta la región central de la tabla, donde se pueden ver unas
pocas frecuencias por encima de 30. Las líneas de igual frecuencia son
aproximadamente elipsis similares y similares. En la zona exterior las
observaciones ocurren solo ocasionalmente, y por lo tanto irregularmente; más
allá de esto solo podríamos explorar tomando una muestra mucho más grande.

La tabla se ha dividido en cuatro cuadrantes por [p. 143] marcando valores


centrales de las dos variables; estos valores, 67.5 pulgadas para los padres y
63.5 pulgadas para las hijas, están cerca de los medios. Cuando la tabla está
tan dividida, es obvio que los cuadrantes inferior derecho e izquierdo son
claramente más poblados que los otros dos; No solo hay más cuadrados
ocupados, sino que las frecuencias son más altas. Es evidente que los hombres
altos tienen hijas altas con más frecuencia que los hombres bajos,
y viceversa. El método de correlación tiene como objetivo medir el grado en
que existe esta asociación.

Los totales marginales muestran las distribuciones de frecuencia de los padres


y las hijas, respectivamente. Estas son distribuciones aproximadamente
normales, como suele ser el caso con datos biométricos recopilados sin
selección. Esto marca una diferencia frecuente entre los datos biométricos y
los experimentales. Un experimentador quizás se habría criado a partir de dos
grupos contrastados de padres de, por ejemplo, 63 y 72 pulgadas de
altura; todos sus padres pertenecerían entonces a estas dos clases, y el
coeficiente de correlación, si se usara, carecería de sentido. Tal experimento
serviría para determinar la regresión de la altura de la hija en la altura del
padre, y así determinar el efecto en las hijas de la selección aplicadas a los
padres,

Del mismo modo que la variación normal con una variable puede
especificarse mediante una fórmula de frecuencia en la que [p. 144] el
logaritmo de la frecuencia es una función cuadrática de la variable, por lo que
con dos variables la frecuencia puede expresarse en términos de una función
cuadrática de los valores de las dos variables. Entonces tenemos una
superficie de correlación normal, para la cual la frecuencia puede escribirse
convenientemente en la forma

En esta expresión, x e y son las desviaciones de las dos variables de sus


medias, 1 y 2 son las dos desviaciones estándar, y  es
la correlación entre x e y. La correlación en la expresión anterior puede ser
positiva o negativa, pero no puede exceder la unidad en magnitud; Es un
número puro sin dimensiones físicas. Si  = 0, la expresión para la frecuencia
degenera en el producto de los dos factores
que muestra que el límite de la superficie de correlación normal, cuando la
correlación se desvanece, es simplemente el de dos variables normalmente
distribuidas que varían en completa independencia. En el otro extremo,
cuando p es +1 o -1, la variación de las dos variables es en proporción estricta,
de modo que el valor de cualquiera de ellas puede calcularse con precisión a
partir del otro. En otras palabras, dejamos de tener estrictamente dos variables,
pero simplemente dos medidas de la misma cantidad variable.

Si seleccionamos los casos en los que una variable tiene un valor asignado,
tenemos lo que se denomina una matriz; [pag. 145] las columnas y filas de la
tabla pueden, excepto en lo que respecta a la variación dentro de los límites
del grupo, ser consideradas como matrices. Con la correlación normal, la
variación dentro de una matriz puede obtenerse a partir de la fórmula general,
dando a x un valor constante, (por ejemplo) a , y dividiendo por la frecuencia
total con la que ocurre este valor; entonces nosotros tenemos

mostrando (i.) que la variación de y dentro de la matriz es normal; (ii.) que el


valor medio de y para esa matriz es a 2 / 1 , de modo que la regresión
de y sobre x es lineal, con coeficiente de regresión

y (iii.) que la varianza de y dentro de la matriz es 2 2 (1- 2 ), y es la


misma dentro de cada matriz. Podemos expresar esto diciendo que de la
varianza total de y la fracción (1- 2 ) es independiente de x , mientras que la
fracción restante, 2 , está determinada por, o calculable a partir del valor
de x .

Estas relaciones son recíprocas, la regresión de x sobre y es lineal, con un


coeficiente de regresión 1 / 2 ; la correlación  es, pues, la media
geométrica de las dos regresiones. Las dos líneas de regresión que representan
el valor medio de x para una y dada , y el valor medio de y para una x dada ,
no pueden coincidir a menos que = [más o menos] 1. La variación
de x dentro de una matriz en la que y es fija, es normal con una varianza igual
a 1 2(1- 2 ), por lo que podemos decir que de la varianza de x la fracción
(1- 2 ) [p. 146] es independiente de y , y la fracción restante, 2 , está
determinada por, o calculable a partir del valor de y.

Tales son las consecuencias matemáticas formales de la correlación


normal. Muchos datos biométricos muestran ciertamente un acuerdo general
con las características que se esperan de este supuesto; aunque no tengo
conocimiento de que la pregunta haya sido sometida a una investigación
suficientemente crítica. El acuerdo aproximado es quizás todo lo que se
necesita para justificar el uso de la correlación como una cantidad descriptiva
de la población; su eficacia a este respecto es indudable, y no es improbable
que en algunos casos proporcione una descripción completa de la variación
simultánea de las variables.

31. La estimación estadística de la correlación.

Del mismo modo que la media y la desviación estándar de una población


normal en una variable pueden estimarse de manera más satisfactoria a partir
de los dos primeros momentos de la distribución observada, la única
estimación satisfactoria de la correlación, cuando las variables están
normalmente correlacionadas, se encuentra en el "momento del
producto". Si x e y representan las desviaciones de las dos variables de sus
medias, calculamos las tres estadísticas s 1 , s 2 , r mediante las tres ecuaciones

ns 1 2 = S ( x 2 ), ns 2 2 = S ( y 2 ), nrs 1 s 2 = S ( xy );

entonces s 1 y s 2 son estimaciones de las desviaciones estándar 1 , y 2 ,


y r es una estimación de la correlación  . Dicha estimación se
denomina coeficiente de correlación , o la correlación del
momento del producto , el último término [p. 147] en referencia a la suma de
los términos del producto, xy, en la última ecuación.

El método de cálculo anterior podría haberse derivado de la consideración de


que la correlación de la población es la media geométrica de los dos
coeficientes de regresión; para nuestras estimaciones de estas dos regresiones
sería
de modo que esté de acuerdo con estas estimaciones para tomar como nuestra
estimación de 

que es de hecho la correlación producto momento.

Ex. 25. Correlación parental en estatura. - El trabajo numérico requerido para


calcular el coeficiente de correlación se muestra a continuación en la Tabla
32.

Las primeras ocho columnas no requieren explicación, ya que simplemente


repiten el proceso habitual de encontrar la media y la desviación estándar de
las dos distribuciones marginales. En realidad, no es necesario encontrar la
media, al dividir el total de la tercera columna, 480.5, por 1376, ya que
podemos trabajar con los totales no divididos. La corrección por el hecho de
que significa nuestro trabajo no es la media real se realiza restando
(480,5) 2/1376 en la cuarta columna; una corrección similar aparece al pie de
la 8 ªColumna, y al pie de la última columna. La corrección de la suma de
productos se realiza restando 4805x2605 / 1376 · Esta corrección de
[pág. 148] [tabla] [pág. 149] el término del producto puede ser positivo o
negativo; Si las desviaciones totales de las dos variables son de signo opuesto,
se debe agregar la corrección. La suma de los cuadrados, con y sin la
corrección de Sheppard (1376/12), se muestra por separado; no hay una
corrección correspondiente que deba hacerse al término del producto.
La novena columna muestra las desviaciones totales de la altura de la hija para
cada una de las 18 columnas en las que se divide la tabla. Cuando los números
son pequeños, generalmente se pueden escribir por inspección de la tabla. En
el presente caso, donde los números son grandes y las entradas se complican
por la división en cuartos, se requiere más cuidado. El total de la columna 9 se
verifica con el de la tercera columna. Para que lo haga, debe incluirse la
entrada central +15.5, que no contribuye a los productos. Cada entrada en la
novena columna se multiplica por la desviación paterna para dar la décima
columna. En el presente caso, todas las entradas en la columna 10 son
positivas; con frecuencia se producen entradas tanto positivas como negativas,
y es conveniente formar una columna separada para cada una. Se proporciona
una verificación útil al repetir el trabajo de las dos últimas
columnas, intercambiando las variables; Entonces deberíamos encontrar la
desviación total de los padres para cada grupo de hijas, y multiplicar por la
desviación de las hijas. Los totales no corregidos, 5136.25, entonces deberían
estar de acuerdo. Esta verificación es especialmente útil con tablas pequeñas,
en las que el trabajo de las dos últimas columnas, llevado a cabo rápidamente,
está sujeto a errores.

El valor del coeficiente de correlación, utilizando la corrección de Sheppard,


se encuentra al dividir 5045.28 [p. 150] por la media geométrica de 9209.0 y
10,392.5; su valor es + .5157 · Si la corrección de Sheppard no se hubiera
utilizado, deberíamos haber obtenido +.5097. En este caso, la diferencia no es
grande en comparación con los errores del muestreo aleatorio, y los efectos
completos sobre la distribución en muestras aleatorias del uso de la corrección
de Sheppard nunca se han examinado por completo, pero puede haber pocas
dudas de que se deba usar la corrección de Sheppard, y Que su uso da en
general una mejor estimación de la correlación. Por otro lado, la distribución
en muestras aleatorias del valor no corregido es más simple y mejor
comprendida, por lo que el valor no corregido debe usarse en pruebas de
importancia, en las cuales el efecto de la corrección no tiene que ser, por
supuesto, ser pasado por alto Por simplicidad, se debe evitar la agrupación
gruesa donde se pretenden tales pruebas. El hecho de que con muestras
pequeñas la correlación obtenida mediante el uso de la corrección de
Sheppard pueda exceder la unidad, ilustra la perturbación introducida en la
distribución de muestreo aleatorio.

32. Correlaciones parciales

Una gran extensión de la utilidad de la idea de correlación reside en su


aplicación a grupos de más de dos variables. En tales casos, donde se conoce
la correlación entre cada par de tres variables, es posible eliminar cualquiera
de ellas, y así encontrar cuál sería la correlación de las otras dos en una
población seleccionada de manera que la tercera variable fuera constante.

Ex. 26. Eliminación de la edad en las correlaciones orgánicas [p. 151] con
niños en crecimiento. - Por ejemplo, se encontró (datos de Mumford y Young)
en un grupo de niños de diferentes edades, que la correlación de
la altura de pie con la circunferencia del pecho fue de +.836. Se podría
esperar que parte de esta asociación se debiera al crecimiento general con la
edad. Sería más conveniente para muchos propósitos conocer la correlación
entre las variables para los niños de una edad determinada; pero, de hecho,
solo algunos de los niños tendrán exactamente la misma edad, e incluso si
hacemos grupos de edad tan amplios como un año, tendremos en cada grupo
mucho menos que el número total medido. Para utilizar todo el material, solo
necesitamos conocer las correlaciones de la altura de pieCon la edad , y de la
circunferencia del pecho con la edad . Estos se dan como .714 y .708. ·

La fórmula fundamental para calcular los coeficientes de correlación parcial


puede escribirse

Aquí las tres variables están numeradas 1, 2 y 3, y deseamos encontrar la


correlación entre 1 y 2, cuando se elimina 3; esto se denomina correlación
"parcial" entre 1 y 2, y se designa con r 12. 3 , para mostrar que la variable 3 se
ha eliminado. Los símbolos r 12 , r 13 , r 23 , indican las correlaciones
encontradas directamente entre cada par de variables; estas correlaciones se
distinguen como correlaciones "totales".

Al insertar los valores numéricos en la fórmula anterior encontramos r 12. 3 = ·


.668, que muestra que cuando se elimina la edad, la correlación, aunque
todavía considerable, [pág. 152] se ha reducido notablemente. El valor medio
dado por los autores mencionados anteriormente para las correlaciones
encontradas al agrupar a los niños por años, es .653, no un valor muy
diferente. De manera similar, dos o más variables pueden ser eliminadas en
sucesión; por lo tanto, con cuatro variables, primero podemos eliminar la
variable 4, aplicando tres veces la fórmula anterior para encontrar r 12. 4 , r 13.
4 , y r 23. 4 . Luego aplicando la misma fórmula nuevamente, a estos tres
nuevos valores, tenemos

La mano de obra aumenta rápidamente con el número de variables a


eliminar. Para eliminar las variables s , el número de operaciones
involucradas, cada una de las aplicaciones de la fórmula anterior es
1/6 s ( s +1) ( s +2); para valores de s de 1 a 6, esto da 1, 4, 10, 20, 35, 56
operaciones. Gran parte de este trabajo se puede ahorrar utilizando tablas de
[sqrt] 1-r 2 como la publicada por JR Miner. [ 1 ]

El significado del coeficiente de correlación debe tenerse en cuenta


claramente. El objetivo original de medir la "fortaleza de la herencia"
mediante este método se basó claramente en la suposición de que toda la clase
de factores que tienden a hacer que los familiares sean iguales, en contraste
con la diferencia de personas no relacionadas, pueden agruparse como
herencia. El hecho de que esto sea así para todos los propósitos prácticos es,
creo, admitido, pero la correlación no nos dice que esto sea así; simplemente
[p. 153] nos dice el grado de semejanza en la población real estudiada, entre
padre e hija. Nos dice hasta qué punto la altura del padre es información
relevante con respecto a la altura de la hija, o, si se interpreta de otra manera,
nos dice la importancia relativa de los factores que actúan por igual en las
alturas de padre e hija, En comparación con la totalidad de los factores en el
trabajo. Si sabemos que B es causada por A, junto con otros factores
independientes de A, y que B no tiene influencia sobre A, entonces la
correlación entre A y B nos dice cuán importante, en relación con las otras
causas en el trabajo, es la influencia de A. Si no tenemos tal conocimiento, la
correlación no nos dice si A causa B, o B causa A, o si ambas influencias
están actuando, junto con los efectos de causas comunes.
Esto es verdad igualmente de las correlaciones parciales. Si sabemos que un
fenómeno A no es en sí mismo influyente para determinar ciertos otros
fenómenos B, C, D, ..., pero, por el contrario, probablemente esté
directamente influenciado por ellos, entonces el cálculo de las correlaciones
parciales A con B, C, D, ... en cada caso, eliminar los valores restantes,
formará un análisis muy valioso de la causa de A. Si por el contrario, elegimos
un grupo de fenómenos sociales sin conocimiento previo de la causa o
ausencia de causa entre ellos, Entonces, el cálculo de los coeficientes de
correlación, total o parcial, no nos hará avanzar un paso hacia la evaluación de
la importancia de las causas en el trabajo.

La correlación entre las medidas A y B, en una [p. 154] escala convencional,


la importancia de los factores que (en un balance de acción similar y
diferente) actúan por igual en A y B, en comparación con los factores
restantes que afectan a A y B de forma independiente. Si eliminamos una
tercera variable C, estamos eliminando de la comparación todos los factores
que se vuelven inoperantes cuando C es fijo. Si estos son solo los que afectan
a A y B de forma independiente, entonces la correlación entre A y B, ya sea
positiva o negativa, aumentará numéricamente. Habremos eliminado los
factores perturbadores irrelevantes y habremos obtenido, por así decirlo, un
experimento mejor controlado. También es posible que debamos eliminar C si
estos factores actúan de manera similar, o de manera opuesta en las dos
variables correlacionadas; en tal caso, la variabilidad de C en realidad
enmascara el efecto que deseamos investigar. En tercer lugar,viceversa. El
grado en que C es el canal a través del cual pasa la influencia puede estimarse
eliminando C; como se puede demostrar el pequeño efecto de los factores
latentes en la herencia humana al encontrar la correlación de abuelo y nieto,
eliminando al padre intermedio. En ningún caso, sin embargo, podemos juzgar
si es rentable eliminar una cierta variedad a menos que sepamos, o estamos
dispuestos a asumir, un esquema cualitativo de causalidad. Para el propósito
puramente descriptivo de especificar una población con respecto a un número
de variables, las correlaciones parciales o totales son efectivas, y las
correlaciones de cualquier tipo pueden ser de interés.

Como ilustración podemos considerar en qué sentido [pág. 155] el coeficiente


de correlación mide la "fuerza de la herencia", suponiendo que la herencia
solo se preocupa por causar el parecido entre los familiares; es decir, que
cualquier efecto ambiental se distribuye al azar. En primer lugar, podemos
observar que si los efectos ambientales aumentan en magnitud, las
correlaciones se reducirían; por lo tanto, la misma población, genéticamente
hablando, mostraría correlaciones más altas si se criara en condiciones
nutricionales relativamente uniformes, que si las condiciones nutricionales
hubieran sido muy diversas; Aunque los procesos genéticos en los dos casos
fueron idénticos. En segundo lugar, si los efectos ambientales tuvieran alguna
influencia (como en la población estudiada parece no ser el caso), deberíamos
obtener mayores correlaciones de una población mixta de cepas
genéticamente muy diversas, que las que deberíamos obtener de una
población más uniforme. En tercer lugar, aunque la influencia del padre sobre
la hija es en cierto sentido directa, en el sentido de que el padre contribuye a la
composición germinal de su hija, no debemos suponer que este hecho es
necesariamente la causa de toda la correlación; porque se ha demostrado que
el marido y la mujer también muestran un parecido considerable en estatura, y
en consecuencia los padres más altos tienden a tener hijas más altas en parte
porque eligen, o son elegidas por, esposas más altas. Por esta razón, por
ejemplo, debemos esperar encontrar una correlación positiva notable entre los
padrastros y las hijastras; también que, cuando se elimina la estatura de la
esposa, la correlación parcial entre el padre y la hija será menor que la
correlación total. [pag. 156] Estas consideraciones sirven, en cierta medida,
para definir el sentido en el que debe interpretarse la frase algo vaga, "fuerza
de herencia", al hablar del coeficiente de correlación. Se comprenderá
fácilmente que, en casos menos entendidos, las consideraciones análogas
pueden ser de cierta importancia y, si es posible, deben considerarse
críticamente.

33. Exactitud del coeficiente de correlación

Con muestras grandes y correlaciones moderadas o pequeñas, la correlación


obtenida de una muestra de n pares de valores se distribuye normalmente
sobre el valor verdadero  , con varianza,

por lo tanto, es habitual adjuntar a un valor observado r , un error estándar (1-


r 2 ) / [srqt] n -1, o (1- r 2 ) / [sqrt] n . Este procedimiento solo es valido bajo
las restricciones mencionadas anteriormente; con muestras pequeñas, el valor
de r suele ser muy diferente del valor verdadero,  , y del factor 1 -r 2 ,
correspondientemente en error; además la distribución de restá lejos de ser
normal, por lo que las pruebas de significación basadas en la fórmula anterior
son a menudo muy engañosas. Dado que es con muestras pequeñas, menos de
100, que el investigador práctico normalmente desea utilizar el coeficiente de
correlación, daremos cuenta de métodos más precisos para manejar los
resultados.

En todos los casos, el procedimiento es similar para las correlaciones totales y


parciales. Se pueden tener en cuenta exactamente las diferencias en las
distribuciones en los dos casos, [pág. 157] al deducir la unidad del número de
muestra para cada variable eliminada; por lo tanto, una correlación parcial
encontrada al eliminar tres variables, y en base a los datos que dan 13 valores
para cada variable, se distribuye exactamente igual que una correlación total
basada en 10 pares de valores.

34. El significado de una correlación observada

Al probar la importancia de una correlación observada, necesitamos calcular


la probabilidad de que dicha correlación surja, mediante un muestreo
aleatorio, de una población no correlacionada. Si la probabilidad es baja,
consideramos que la correlación es significativa. La tabla de t que
se proporciona al final del capítulo anterior (pág. 137) puede utilizarse para
realizar una prueba exacta. Si n ' es el número de pares de observaciones en
que se basa la correlación, y r la correlación obtenida, sin usar la corrección
de Sheppard, entonces tomamos

y se puede demostrar que la distribución de t calculada de este modo


coincidirá con la que se da en la tabla.

Debe observarse que esta prueba, como es obviamente necesario, es idéntica a


la que se dio en el último capítulo para probar si el coeficiente de regresión
lineal difiere significativamente de cero o no.

La TABLA VA (pág. 174) permite que esta prueba se aplique directamente


desde el valor de r , para muestras de hasta 100 pares de
observaciones. Tomando los cuatro niveles definidos [pág. 158] de
importancia, representada por P = · .10, .05, .02 y .01, la tabla muestra para
cada valor de n , de 1 a 20, y de allí en intervalos mayores a 100, los valores
correspondientes de r .

Ex. 27. Significado de un coeficiente de correlación entre las precipitaciones


de otoño y la cosecha de trigo . - Durante los veinte años, 1885-1904, se
encontró que el rendimiento promedio de trigo del este de Inglaterra estaba
correlacionado con la lluvia de otoño; La correlación encontrada fue -
.629. ¿Es este valor significativo? Lo obtenemos en sucesión.
Para n = 18, esto muestra que P es menor que .01, y la correlación es
definitivamente significativa. La misma conclusión puede leerse de inmediato
en la Tabla VA ingresada con n = 18.

Si hubiéramos aplicado el error estándar,

Nosotros deberíamos tener

un valor mucho mayor que el verdadero, exagerando mucho el


significado. Además, suponiendo que r se distribuyera normalmente ( n =
[infinito]), el significado del resultado sería exagerado. Esta ilustración será
suficiente para mostrar cuán engañoso, en muestras pequeñas, es el uso del
error estándar de la [pág. 159] coeficiente de correlación, en el supuesto de
que se distribuirá normalmente. Sin este supuesto, el error estándar es sin
utilidad. El carácter engañoso de la fórmula aumenta si n ' se sustituye por n'-
1, como se hace a menudo. A juzgar por la desviación normal de 4.536,
deberíamos suponer que la correlación obtenida se superaría en muestras
aleatorias de material no correlacionado solo 6 veces en un millón de
pruebas. En realidad, se superaría unas 3000 veces en un millón de intentos, o
con 500 veces la frecuencia supuesta.

Es necesario advertir al alumno enfáticamente contra el carácter engañoso del


error estándar del coeficiente de correlación deducido de una muestra
pequeña, porque la utilidad principal del coeficiente de correlación se
encuentra en su aplicación a sujetos de los cuales se sabe poco y sobre los
cuales los datos son relativamente escasos Con el extenso material apropiado
para las investigaciones biométricas, existe poco peligro de que se extraigan
conclusiones falsas, mientras que con los pocos casos comparativos en que el
experimentador debe buscar orientación, la aplicación no crítica de métodos
estandarizados en biometría debe ser tan engañosa como para poner en
peligro. El crédito de esta valiosa arma de investigación. No es cierto, como
muestra el ejemplo anterior, que las conclusiones válidas no se pueden extraer
de muestras pequeñas; Si se utilizan métodos precisos para calcular la
probabilidad, por lo tanto, tenemos en cuenta el tamaño de la muestra y, a
nuestro juicio, solo debemos influir en el valor de la probabilidad indicada. El
gran aumento de la certeza que se acumula al aumentar los datos es [pág. 160]
reflejado en el valor de P, si se usan métodos precisos.

Ex. 28. Significación de un coeficiente de correlación parcial . - En un grupo


de 32 sindicatos de ayuda de la ley deficientes, Yule encontró que el cambio
porcentual de 1881 a 1891 en el porcentaje de la población que recibe alivio
se correlacionó con el cambio correspondiente en la proporción de los
números proporcionados como socorro al aire libre a los números aliviado en
el lugar de trabajo, cuando se habían eliminado otras dos variables, a saber,
los cambios correspondientes en el porcentaje de la población mayor de 65
años, y en la propia población.

La correlación encontrada por Yule después de eliminar las dos variables fue
de +.457; tal correlación se denomina correlación parcial del segundo
orden. Prueba su significado.

Se ha demostrado que la distribución en muestras aleatorias de los


coeficientes de correlación parcial puede derivarse de la de los coeficientes de
correlación total simplemente deduciendo del número de la muestra, el
número de variables eliminadas. Deduciendo 2 de las 32 uniones utilizadas,
tenemos 30 como el número efectivo de la muestra; por lo tanto

n = 28

Calculando t de r como antes, encontramos

t = 2.719,

de donde aparece en la tabla que P se encuentra entre .02 y .01. La correlación


es por lo tanto significativa. Esto, por supuesto, como en otros casos, está en
el supuesto [p. 161] que las variables correlacionadas (pero no necesariamente
las eliminadas) se distribuyen normalmente; las variables económicas rara vez
dan distribuciones normales, pero el hecho de que estamos aquí tratando con
las tasas de cambio hace que el supuesto de distribución normal sea mucho
más plausible. Los valores dados en la Tabla V. (A) para n = 25, y n = 30, dan
una indicación suficiente del nivel de significancia alcanzado por esta
observación.

35. Correlaciones transformadas

Además de probar el significado de una correlación, para determinar si existe


alguna evidencia sustancial de asociación, a menudo también se requiere
realizar una o más de las siguientes operaciones, para cada una de las cuales
se usaría el error estándar en la caso de una cantidad distribuida
normalmente. Con las correlaciones derivadas de muestras grandes, el error
estándar puede, por lo tanto, ser usado, excepto cuando la correlación se
acerca [más o menos] 1; pero con muestras pequeñas como las que ocurren
con frecuencia en la práctica, se deben aplicar métodos especiales para
obtener resultados confiables.

(i.) Para probar si una correlación observada difiere significativamente


de un valor teórico dado.

(ii.) Para probar si dos correlaciones observadas son significativamente


diferentes.

(iii.) Si se dispone de varias estimaciones independientes de una


correlación, combinarlas en una estimación mejorada.

(iv.) Para realizar pruebas (i.) y (ii.) con dichos valores


promedio. [pag. 162]

Los problemas de este tipo pueden resolverse mediante un método análogo al


que hemos resuelto el problema de probar la importancia de una correlación
observada. En ese caso, a partir del valor dado r, pudimos calcular una
cantidad t que se distribuye de una manera conocida, para la cual las tablas
estaban disponibles. La transformación llevó exactamente a una distribución
que ya había sido estudiada. La transformación que ahora emplearemos
conduce aproximadamente a la distribución normal en la que todas las pruebas
anteriores se pueden llevar a cabo sin dificultad. Dejar

z = ½ {log e (1+ r ) - log e (1- r )}

luego, cuando r cambia de 0 a 1, z pasará de 0 a [infinito]. Para valores


pequeños de r , z es casi igual a r , pero cuando r se acerca a la
unidad, z aumenta sin límite. Para valores negativos de r , z es negativo. La
ventaja de esta transformación radica en la distribución de las dos cantidades
en muestras aleatorias. La desviación estándar de r depende del valor
verdadero de la correlación,  ; como se ve en la formula

Dado que  es desconocido, tenemos que sustituirlo por el valor observado r ,


y este valor no será, en muestras pequeñas, una estimación muy precisa
de . El error estándar de z es más simple en la forma,

y es prácticamente independiente del valor de la [p. 163] correlación en la


población de la que se extrae la muestra.

En segundo lugar, la distribución de r es sesgada en muestras pequeñas, e


incluso para muestras grandes permanece muy sesgada para correlaciones
altas. La distribución de z no es estrictamente normal, pero tiende a
normalizarse rápidamente a medida que aumenta la muestra, cualquiera sea el
valor de la correlación. Daremos ejemplos para probar el efecto de la salida de
la distribución z desde la normalidad.

Finalmente, la distribución de r cambia de forma rápidamente a medida que se


cambia  ; por consiguiente, no se puede hacer ningún intento, con una
esperanza razonable de éxito, de permitir la asimetría de la distribución. Por el
contrario, la distribución de z es casi constante en su forma, y la precisión de
las pruebas puede mejorarse con pequeñas correcciones de sesgo; Sin
embargo, tales correcciones son, en cualquier caso, algo laboriosas, y no nos
ocuparemos de ellas. La simple suposición de que z se distribuye normalmente
será, en todos los casos ordinarios, lo suficientemente precisa.

Estas tres ventajas de la transformación de r a z pueden verse comparando las


Figs. 7 y 8. En la Fig. 7 se muestran las distribuciones reales de r , para 8
pares de observaciones, de poblaciones que tienen correlaciones 0 y 0.8; La
figura 8 muestra las curvas de distribución correspondientes para z. Las dos
curvas en la Fig. 7 son muy diferentes en sus alturas modales; ambas son
curvas claramente no normales; en la forma también están fuertemente
contrastados, uno simétrico y el otro altamente asimétrico. Por el contrario, en
[p. 164] Fig. 8 las dos curvas no difieren mucho en altura; aunque no son
exactamente normales en su forma, se acercan tanto a ella, incluso para una
pequeña muestra de 8 pares de observaciones, [pág. 165] que el ojo no puede
detectar la diferencia; y esta normalidad aproximada se mantiene hasta los
límites extremos  = [más o menos] 1. Una característica adicional es
presentada por la Fig. 8; en la distribución para = 0.8, aunque la curva en sí
misma es tan simétrica como el ojo puede juzgar, sin embargo, la ordenada de
error cero no se coloca en el centro. La figura, de hecho, revela el pequeño
sesgo que se introduce en la estimación del coeficiente de correlación como se
calcula ordinariamente; trataremos más allá de este sesgo en la siguiente
sección, y en el siguiente capítulo trataremos un sesgo similar introducido en
el cálculo de las correlaciones intraclase.
Para facilitar la transformación, damos en la Tabla V. (B) (pág. 175) los
valores de r correspondientes a los valores de z , que se realizan por intervalos
de, 01, de 0 a 3. En la parte anterior de esta tabla será visto que los valores
de r y z no difieren mucho; pero con correlaciones más altas, los cambios
pequeños en r corresponden a cambios relativamente grandes en z . De hecho,
medida en la escala z , una correlación de .99 difiere de una correlación de .95
en más de una correlación .6 supera a cero. Los valores de z dan una imagen
más precisa de la importancia relativa de las correlaciones de diferentes
tamaños, que los valores de r .

Para encontrar el valor de z correspondiente a un valor dado de r , digamos .6,


las entradas en la tabla que se encuentran a cada lado de .6, se encuentran
primero, donde vemos que z se encuentra entre .69 y .70; el intervalo entre
estas entradas se divide proporcionalmente para encontrar la fracción que se
agregará a .69. En este caso tenemos 20/64, o .31, de modo que z = .6931. Del
mismo modo, en encontrar [p. 166] el valor de r correspondiente a cualquier
valor de z , digamos .9218, vemos de inmediato que se encuentra entre .7259 y
.7306; la diferencia es 47, y el 18 por ciento de esto da 8 para agregarse al
valor anterior, lo que nos da finalmente r = .7267. La misma tabla puede ser
utilizada para transformar.r en z , y para revertir el proceso.

Ex. 29. Prueba de la normalidad aproximada de la distribución de z . - Para


ilustrar el tipo de precisión que se puede obtener mediante el uso de z ,
tomemos el caso que ya ha sido tratado por un método exacto en Ex. 26. Se ha
obtenido una correlación de -629 a partir de 20 pares de observaciones; prueba
su importancia.

Para r = -.629 tenemos, usando una tabla de logaritmos naturales, o la tabla


especial para z , z = .7398. Dividir esto por su error estándar es equivalente a
multiplicarlo por [sqrt] 17. · Esto da -3.050, que interpretamos como una
desviación normal. De la tabla de desviaciones normales, parece que este
valor se superará aproximadamente 23 veces en 10,000 intentos. La frecuencia
real, como hemos visto, es aproximadamente 30 veces en 10,000 intentos. El
error tiende ligeramente a exagerar el significado del resultado.

Ex. 30. · Prueba adicional de la normalidad de la distribución de z . - Se


obtuvo una correlación parcial de +.457 de una muestra de 32, después de
eliminar dos variables. ¿Esto difiere significativamente de cero? Aquí z =
.4935; deduciendo las dos variables eliminadas, el tamaño efectivo de la
muestra es 30, y el error estándar de z es 1 / [sqrt] 27; multiplicando z por
[sqrt] 27, tenemos como a. Variable normal 2.564. Tabla IV. muestra, como
antes, que P está justo por encima de .01. Hay una ligera exageración [p. 167]
de importancia, pero es incluso más ligero que en el ejemplo anterior.
Los ejemplos anteriores muestran que la transformación z dará una variable
que, para los propósitos más prácticos, se puede considerar que se distribuye
normalmente. En el caso de pruebas simples de significación, se prefiere el
uso de la tabla de t ; en los siguientes ejemplos, este método no está
disponible, y el único método disponible que es tolerablemente preciso y
suficientemente rápido para el uso práctico reside en el uso de z .

Ex. 31 · Significación de la desviación de la expectativa de un coeficiente de


correlación observado . - En una muestra de 25 pares de padres e hijos, se
encontró que la correlación era de .60. ¿Es este valor consistente con la
opinión de que la verdadera correlación en ese carácter era .46?

El primer paso es encontrar la diferencia de los valores correspondientes


de z . Esto se muestra a continuación:

Para obtener la desviación normal, multiplicamos por [sqrt] 22 y obtenemos


.918. La desviación es menor que la desviación estándar y, por lo tanto, el
valor obtenido está bastante de acuerdo con la hipótesis. [pag. 168]

Ex. 32. Significación de la diferencia entre dos correlaciones observadas . -


De las dos muestras, la primera, de 20 pares, da una correlación .6, la segunda,
de 25 pares, da una correlación .8: ¿son estos valores significativamente
diferentes?

En este caso requerimos no solo la diferencia de los valores de z , sino


también el error estándar de la diferencia. La varianza de la diferencia es la
suma de los recíprocos de 17 y 22; El trabajo se muestra a continuación:
El error estándar que se agrega a la diferencia de los valores de z es la raíz
cuadrada de la varianza encontrada en la misma línea. La diferencia no excede
el doble del error estándar y, por lo tanto, no puede considerarse
significativa. Por lo tanto, no hay pruebas suficientes para concluir que las dos
muestras no se tomaron de poblaciones igualmente correlacionadas.

Ex. 33 · Combinación de valores a partir de pequeñas muestras. -


Suponiendo que las dos muestras en el último ejemplo se tomaron de
poblaciones igualmente correlacionadas, estime el valor de la correlación.

Los dos valores de z deben tener un peso inversamente proporcional a su


varianza. Por lo tanto [p. 169] multiplica el primero por 17, el segundo por 22
y suma, dividiendo el total por 39. Esto da un valor estimado de z para la
población, y el valor correspondiente de r se puede encontrar en la tabla.

El valor promedio ponderado de z es .9218, al que corresponde el valor r =


.7267; el valor de z así obtenido puede considerarse sujeto a errores
distribuidos normalmente de muestreo aleatorio con una varianza igual a 1/39
· La precisión es, por lo tanto, equivalente a la de un valor único obtenido de
42 pares de observaciones. Por lo tanto, se pueden aplicar pruebas de
importancia a tales valores promediados de z , como a valores individuales.
36. Errores sistemáticos

En relación con el promedio de las correlaciones obtenidas a partir de


pequeñas muestras, vale la pena considerar los efectos de dos clases de errores
sistemáticos que, aunque de poca o ninguna importancia cuando solo hay
valores individuales disponibles, adquieren una importancia creciente a
medida que aumenta el número de muestras. se promedian

El valor de z obtenido de cualquier muestra es una estimación de un valor


verdadero, r , perteneciente a la muestra [p. 170] población, así como el valor
de r obtenido de una muestra es una estimación del valor de una
población,  . Si el método para obtener la correlación estuviera libre de
sesgo, los valores de z se distribuirían normalmente alrededor de una
media z [barra], que coincidiría en valor con  . En realidad, hay un pequeño
sesgo que hace que el valor medio de z sea un poco mayor numéricamente
que ; por lo tanto, la correlación, ya sea positiva o negativa, es ligeramente
exagerada. Este sesgo puede corregirse efectivamente restando del valor
de z la corrección

Para muestras individuales, esta corrección no es importante, ya que es


pequeña en comparación con el error estándar de z . Por ejemplo, si n ' = 10, el
error estándar de z es .378, mientras que la corrección es  / l8 y no puede
exceder de .056. Sin embargo, si z [bar] fuera la media de 1000 valores de z ,
derivados de muestras de 10, el error estándar de z [bar] es solo .012, y la
corrección, que no se altera al tomar la media, puede cobran gran importancia.

El segundo tipo de error sistemático es el que se introduce al descuidar la


corrección de Sheppard. Al calcular el valor de z , siempre debemos tomar el
valor de r encontrado sin usar la corrección de Sheppard, ya que esta última
complica la distribución.

Pero la omisión de la corrección de Sheppard introduce un error sistemático,


en la dirección opuesta a la mencionada anteriormente; y que, aunque
normalmente es muy pequeño, aparece tanto en muestras grandes como
grandes. En caso de promediar las correlaciones de un número de [pág. 171]
muestras pequeñas agrupadas de forma gruesa, el promedio z debe obtenerse
de los valores de r encontrados sin la corrección de Sheppard, y para el
resultado se puede aplicar una corrección, que representa el efecto promedio
de la corrección de Sheppard.

37. Correlación entre series

El caso extremadamente útil en el que se requiere encontrar la correlación


entre dos series de cantidades, como las cifras anuales, dispuestas en
intervalos iguales de tiempo, es en realidad un caso de correlación parcial,
aunque puede tratarse más directamente por El método de ajuste de las líneas
de regresión curvadas que se muestra en el último capítulo (pág. 128).

Si, por ejemplo, tuviéramos un registro del número de muertes por una
determinada enfermedad por años sucesivos, y quisiéramos estudiar si esta
mortalidad estaba asociada con condiciones meteorológicas, o la incidencia de
alguna otra enfermedad, o la mortalidad de otra edad. Grupo, la dificultad
destacada en la aplicación directa del coeficiente de correlación es que la
cantidad de muertes consideradas probablemente muestre un cambio
progresivo durante el período disponible. Dichos cambios pueden deberse a
cambios en la población entre los cuales ocurren las muertes, ya sea la
población total de un distrito o la de un grupo de edad en particular, o a
cambios en las condiciones sanitarias en que vive la población, o en el
Habilidad y disponibilidad de asistencia médica, o cambios en la composición
racial o genética de la población. En cualquier caso, generalmente se
encuentra que los cambios aún son evidentes [p. 172] cuando el número de
muertes se convierte en una tasa de mortalidad en la población existente en
cada año, por lo que se elimina uno de los efectos directos del cambio de
población.

Si el cambio progresivo pudiera representarse efectivamente por una línea


recta, sería suficiente considerar el tiempo como una tercera variable y
eliminarlo al calcular el coeficiente de correlación parcial
correspondiente. Generalmente, sin embargo, el cambio no es tan simple, y
necesitaría una expresión que involucre los poderes cuadrado y superior del
tiempo de manera adecuada para representarlo. La correlación parcial
requerida es una que se encuentra eliminando no solo t , sino t 2 , t 3 , t 4 , ...,
considerando estas como variables separadas; porque si hemos eliminado todo
esto hasta (digamos) el cuarto grado, hemos eliminado incidentalmente de la
correlación cualquier función del tiempo deEl cuarto grado, incluido aquel por
el cual el cambio progresivo está mejor representado.

Esta correlación parcial se puede calcular directamente a partir de los


coeficientes de la función de regresión obtenidos como en el último capítulo
(pág. 128). Si y y y ' son las dos cantidades a correlacionar, obtenemos
para y los coeficientes A, B, C, ..., y para y' los coeficientes correspondientes
A ', B', C ', ...; la suma de los cuadrados de las desviaciones de las variables de
las líneas de regresión curvas se obtiene como antes, de las ecuaciones

[pag. 173]

mientras que la suma de los productos se puede obtener de la ecuación similar

siendo la correlación parcial requerida, entonces,

En este proceso, el número de variables eliminadas es igual al grado de t al


que se ha llevado la adaptación; Se entenderá que ambas variables deben
ajustarse en el mismo grado, incluso si una de ellas es capaz de representarse
adecuadamente mediante una curva de menor grado que la otra. [pag. 174]
[pag. 175]
Notas al pie

[1] Tablas de [sqrt] 1-r 2 para uso en correlación parcial y en


trigonometría . Johns Hopkins Press, 1922.
CORRELACIONES DE INTRACLASS Y EL ANÁLISIS DE LA
VARIANZA

38.Un tipo de datos, que es muy frecuente, puede tratarse con métodos muy
similares a los de la tabla de correlación, mientras que al mismo tiempo puede
tratarse de manera más útil y precisa mediante el análisis de varianza, es decir,
mediante la separación de la varianza atribuible a un grupo de causas, desde la
varianza atribuible a otros grupos. En este capítulo, trataremos primero de
esos casos, que surgen en la biometría, en los que la analogía con las
correlaciones tratadas en el último capítulo puede ser útil, y luego pasar a los
casos más generales, prevalentes en los resultados experimentales, en los que
el tratamiento La correlación parece artificial, y en la que el análisis de
varianza parece arrojar una luz real sobre los problemas que tenemos ante
nosotros. Una comparación de los dos métodos de tratamiento ilustra el
principio general, que a menudo se pierde de vista, que las pruebas de
significación, en la medida en que se llevan a cabo con precisión, están de
acuerdo en cualquier proceso estadístico de reducción. [pag. 177]

Si tenemos medidas de n ' pares de hermanos, podemos determinar la


correlación entre hermanos de dos maneras ligeramente diferentes. En primer
lugar, podemos dividir a los hermanos en dos clases, como por ejemplo el
hermano mayor y el hermano menor, y encontrar la correlación entre estas dos
clases exactamente como lo hacemos con los padres y el niño. Si procedemos
de esta manera, hallaremos la media de las medidas de los hermanos mayores
y, por separado, la de los hermanos menores. Igualmente, las desviaciones
estándar sobre la media se encuentran por separado para las dos clases. La
correlación así obtenida, siendo que entre dos clases de mediciones, se
denomina por distinción una correlación interclase . Dicho procedimiento
sería imperativo si las cantidades a correlacionar fueran, por ejemplo,
lasedades , o alguna característica que depende sensiblemente de la edad, en
una fecha fija. Por otro lado, es posible que no sepamos, en cada caso, qué
medida pertenece al mayor y cuál al hermano menor, o tal distinción puede ser
bastante irrelevante para nuestro propósito; en tales casos, es habitual utilizar
una media común derivada de todas las mediciones, y una desviación estándar
común sobre esa media. Si x 1 , x ' 1 ; x 2 , x ' 2 ; ...; x n ' ; x ' n' son los pares de
medidas dados, calculamos
[pag. 178]

Cuando se hace esto, r se distingue como una correlación intraclase , ya que


hemos tratado a todos los hermanos como pertenecientes a la misma clase y
con la misma media y desviación estándar. La correlación intraclase, cuando
su uso está justificado por la irrelevancia de cualquier distinción como la
edad, puede esperarse que proporcione una estimación más precisa del valor
verdadero que cualquiera de las posibles correlaciones interclase derivadas del
mismo material, ya que hemos utilizado estimaciones de la media y
desviación estándar basadas en 2 n 'en lugar de en n'valores. De hecho, este es
el caso; La correlación intraclase no es una estimación equivalente a una
correlación interclase, pero es algo más precisa. Sin embargo, como veremos,
la distribución de errores se ve afectada también de otras maneras, lo que
requiere que la correlación intraclase se trate por separado.

La analogía de este tratamiento con la de las correlaciones interclases puede


ilustrarse adicionalmente mediante la construcción de lo que se llama una
tabla simétrica. En lugar de ingresar cada par de observaciones una vez en
dicha tabla de correlación, se ingresa dos veces, las coordenadas de las dos
entradas son, por ejemplo, ( x 1 , x ' 1 ) y ( x' 1 , x 1 ). El total de entradas en la
tabla será entonces 2 n ' , y las dos distribuciones marginales serán idénticas,
cada una representando la distribución de todo el 2 n'observaciones Las
ecuaciones anteriores, para calcular la correlación intraclase, tienen la misma
relación con la tabla simétrica que las ecuaciones para la correlación interclase
con la tabla asimétrica correspondiente con n ' entradas. Aunque la correlación
intraclase es algo más precisa, [pág. 179] de ninguna manera es tan precisa
como lo es una correlación interclase con 2 n 'Pares de observaciones
independientes. El contraste entre los dos tipos de correlación se vuelve más
obvio cuando tenemos que tratar no con pares, sino con conjuntos de tres o
más mediciones; por ejemplo, si se han medido tres hermanos en cada
familia. En tales casos también se puede construir una tabla simétrica. Cada
trío de hermanos proporcionará tres pares, cada uno de los cuales dará dos
entradas, de modo que cada trío proporcionará 6 entradas en la tabla. Para
calcular la correlación de una tabla de este tipo es equivalente a las siguientes
ecuaciones:
En muchos casos, el número de observaciones en la misma "fraternidad" o
clase es grande, como cuando se estudia el parecido entre las hojas en el
mismo árbol al recoger 26 hojas de varios árboles diferentes, o cuando se
toman 100 vainas de cada una. Árbol en otro grupo de estudios de
correlación. Si k es el número en cada clase, entonces cada conjunto
de valores de k proporcionará los valores de k (k -1) para la tabla simétrica,
que por lo tanto puede contener un número enorme de entradas y ser muy
laborioso de construir. Para evitar esta dificultad, Harris introdujo un método
abreviado de cálculo mediante el cual el valor de [p. 180] la correlación dada
por la tabla simétrica se puede obtener directamente de dos distribuciones: (i.)
La distribución de todo el grupo de kn 'observaciones, de las cuales
obtenemos, como arriba, los valores de x [barra] y s ; (ii.) La distribución de
los n ' medios de clases. Si x [barra] 1 , x[barra] 2 , ..., x [barra] n representan
estos medios derivados de k valores, entonces

es una ecuación a partir de la cual se puede calcular el valor de r , la


correlación intraclase derivada de la tabla simétrica. Es instructivo verificar
este hecho, para el caso k = 3, derivando de ello la fórmula completa
para r dada anteriormente para ese caso.

Un hecho sobresaliente surge de la relación anterior; para la suma de un


número de cuadrados, y por lo tanto la mano izquierda de esta ecuación, es
necesariamente positiva. En consecuencia, r no puede tener un valor negativo
menor que -1 / ( k -1) No existe tal limitación para los valores positivos,
siendo posibles todos los valores hasta +1. Además, si k , el número en
cualquier clase, no es necesariamentemenos que algún valor fijo, la
correlación en la población no puede ser negativa en absoluto. Por ejemplo, en
juegos de cartas, donde el número de palos se limita a cuatro, la correlación
entre el número de cartas en palos diferentes en la misma mano puede tener
valores negativos hasta -1/3; pero es probable que no haya nada en la
producción de una hoja o un niño que requiera que el número en tal clase sea
menor que cualquier número, por grande que sea, y en ausencia de una
restricción tan necesaria no podemos esperar encontrar correlaciones
negativas [p . 181] dentro de tales clases. Esto contrasta más claramente con la
aparición sin restricciones de valores negativos entre las correlaciones
interclases, y es obvio, ya que los límites extremos de variación son diferentes
en los dos casos.

39. Errores de muestreo de las correlaciones intraclase.

El caso k = 2, que es una correlación interclase estrechamente análoga, puede


tratarse mediante la formación empleada previamente, a saber

z = 1/2 {log (1+ r ) - log (1- r )};

Luego, z se distribuye casi en una distribución normal, la distribución es


totalmente independiente del valor de la correlación  en la población de la
cual se extrae la muestra y, por consiguiente , la varianza de z depende solo
del tamaño de la muestra. por la formula

La transformación tiene, por lo tanto, las mismas ventajas en este caso que
para las correlaciones interclases. Se observará que la precisión ligeramente
mayor de la correlación intraclase, en comparación con una correlación
interclase basada en el mismo número de pares, se indica mediante el uso de n
'-3/2 en lugar de n' -3. La ventaja es, por lo tanto, equivalente a 11/2 pares
adicionales de observaciones. Una segunda diferencia radica en el sesgo al
que están sujetas dichas estimaciones. Para interclases [p. 182] correlaciones
el valor encontrado en las muestras, ya sea positivo o negativo, se exagera en
la medida en que requiere una corrección,

Para ser aplicado al valor promedio de z. Con las correlaciones intraclase, el


sesgo siempre está en la dirección negativa y es independiente de  ; la

corrección necesaria en estos casos es o


aproximadamente. Este sesgo es característico de las
correlaciones intraclase para todos los valores de k , y se debe al hecho de que
la tabla simétrica no nos proporciona la mejor estimación de la correlación.

El efecto de la transformación sobre las curvas de error puede verse


comparando las Figs. 9 y 10. La Fig. 9 muestra las curvas de error reales
de rderivadas de una tabla simétrica formada por 8 pares de observaciones,
extraídas de poblaciones que tienen correlación o y 0 · 8. La figura 10 muestra
las curvas de error correspondientes para la distribución de z. Las tres
principales ventajas señaladas en las Figs. 7 y 8 son igualmente visibles en la
comparación de las Figs. 9 y 10. Las curvas de varianza muy desigual son
reemplazadas por curvas de varianza igual, curvas de sesgo por curvas
aproximadamente normales, curvas de forma diferente por curvas de forma
similar. En un aspecto, el efecto de la transformación es más perfecto para las
clases intraclase que para las correlaciones interclases, ya que, en ambos
casos, las curvas no son precisamente [pág. 183] normal, con las correlaciones
intraclase son completamente constantes en varianza y forma, mientras que
con las correlaciones entre clases existe una ligera variación en ambos
[p. 184], ya que la correlación en la población es variada. La Fig. 10 muestra
claramente el efecto del sesgo introducido al estimar la correlación de la tabla
simétrica; el sesgoz .
Ex. 34 · Exactitud de una correlación intraclase observada . - Una
correlación intraclase .6000 se deriva de 13 pares de observaciones: estime la
correlación en la población de la que se extrajo y encuentre los límites dentro
de los cuales probablemente se encuentre.

Colocando los valores de r y z en columnas paralelas, tenemos


El cálculo se lleva a cabo en la columna z , y los valores correspondientes de r
se encuentran como se requiere en la Tabla V. (B) (pág. 175). El valor de rse
obtiene de la tabla simétrica y se calcula el valor correspondiente de z. Estos
valores sufren de un pequeño sesgo negativo, y esto se elimina agregando a z
la corrección; la estimación no desviada de z es, por lo tanto, .7330, y el valor
correspondiente de r , .6249, es una estimación no sesgada, basada en la
muestra, de la correlación en la población de la cual la muestra [p. 185] fue
dibujado. Para encontrar los límites dentro de los cuales se puede esperar que
se encuentre esta correlación, el error estándar de zse calcula, y el doble de
este valor se agrega y se resta del valor estimado para obtener los valores
de zen los límites superior e inferior. De estos obtenemos los valores
correspondientes de r . La correlación observada debe considerarse
significativa en este caso, ya que el límite inferior es positivo; rara vez nos
equivocaremos al llegar a la conclusión de que excede .14 y es menor que .87
·

Los errores de muestreo de los casos en que k excede de 2 pueden tratarse más
satisfactoriamente desde el punto de vista del análisis de varianza; pero para
aquellos casos en los que se prefiere pensar en términos de correlación, es
posible dar una transformación análoga adecuada para todos los valores
de k. Dejar

una transformación, que se reduce a la forma utilizada anteriormente


cuando k = 2. Luego, en muestras aleatorias de conjuntos de observaciones k ,
la distribución de errores en z es independiente del valor verdadero y se
aproxima a la normalidad a medida que n ' aumenta, aunque no tan
rápidamente como cuando k = 2. La varianza de z puede tomarse, cuando n
' es suficientemente grande, para ser aproximadamente

Para encontrar r para un valor dado de z en esta transformación, la Tabla V


(B) todavía puede utilizarse, como en el siguiente ejemplo. [pag. 186]

Ex. 35 · Uso extendido de la Tabla V. (B) . - Encuentra el valor


de r correspondiente a z = +1.0605, cuando k = 100. Primero deduzca del
valor dado de z lamitad del logaritmo natural de ( k -1); ingrese la diferencia
como " z " en la tabla y multiplique el valor correspondiente de " r "
por k ; sume k -2 y divida por 2 ( k -1). El trabajo numérico se muestra a
continuación:

Ex. 36. Significación de la correlación intraclase de muestras grandes . - Se


encontró una correlación +.0684 entre los "óvulos que fallan" en las diferentes
vainas del mismo árbol de Cercis Canadensis. Se tomaron 100 vainas de cada
uno de los 60 árboles (datos de Harris). ¿Es esta una correlación significativa?

Como muestra el último ejemplo, z = I.0605; el error estándar de z es .0933 ·


El valor de z supera su error estándar más de 11 veces, y la correlación es sin
duda significativa.

Cuando n ' es lo suficientemente grande, hemos visto que, sujeto a


limitaciones algo severas, es posible suponer que la correlación interclase se
distribuye normalmente en muestras aleatorias con error estándar
[pag. 187]

La fórmula correspondiente para las correlaciones intraclase, utilizando k en


una clase, es

La utilidad de esta fórmula está sujeta a limitaciones aún más drásticas que la
de la correlación interclase, ya que n ' es más pequeña en el primer
caso. Además, las regiones para las que la fórmula es inaplicable, incluso
cuando n ' es grande, ahora no están en la vecindad de [más o menos] 1, sino

en la vecindad de +1 y cuando k es grande, este último se


aproxima a cero, por lo que una distribución muy sesgada para rSe encuentra
no solo con altas correlaciones sino también con muy bajas. Por lo tanto, no
suele ser una fórmula precisa para usar en pruebas de importancia. Esta
anormalidad en la vecindad del cero es particularmente notable, ya que solo
en esta vecindad se puede ganar mucho al tomar valores altos de k . Cerca de
cero, como muestra la fórmula anterior, la precisión de una correlación
intraclase es con muestras grandes equivalentes a la de 1/2 k ( k -1) n ' pares
de observaciones independientes; Lo que da a los altos valores de k una
enorme ventaja en precisión. Para las correlaciones cerca de 0,5, por
grande k hacerse, la precisión no es mayor que la que puede obtenerse a partir
de 9 n'/2 pares; mientras que cerca de +1 tiende a no ser más preciso que los n
' pares. [pag. 188]

40. La correlación intraclase como un ejemplo del análisis de varianza

Se introduce una gran simplificación en las preguntas relacionadas con la


correlación intraclase cuando reconocemos que en tales casos, la correlación
simplemente mide la importancia relativa de dos grupos de factores que
causan variación. Hemos visto que en el cálculo práctico de la correlación
intraclase solo obtenemos las dos cantidades necesarias kn's 2 y n's 2 {1+ ( k -
1 ) r }, al compararlas con las dos cantidades
de los cuales el primero es la suma de los cuadrados ( kn ' en número) de las
desviaciones de todas las observaciones de su media general, y el segundo
es k veces la suma de los cuadrados de las n' desviaciones de la media de cada
clase De la media general. Ahora se puede demostrar fácilmente que

en el que el último término es la suma de los cuadrados de las desviaciones de


cada medida individual de la media de la clase a la que pertenece. La siguiente
tabla resume estas relaciones al mostrar el número de grados de libertad
involucrados en cada caso y, en la última columna, la interpretación aplicada a
cada expresión en el cálculo de una correlación intraclase que corresponde al
valor obtenido de una tabla simétrica. [pag. 189]

Ahora se observará que z de la sección anterior es, aparte de una constante, la


mitad de la diferencia de los logaritmos de las dos partes en las que se ha
analizado la suma de los cuadrados. El hecho de que la forma de la
distribución de z en muestras aleatorias sea independiente de la correlación de
la población muestreada es, por lo tanto, una consecuencia del hecho de que
las desviaciones de las observaciones individuales de los medios de sus clases
son independientes.de las desviaciones de esos medios de la media
general. Los datos nos proporcionan estimaciones independientes de dos
variaciones; si estas varianzas son iguales, la correlación es cero; Si nuestras
estimaciones no difieren significativamente, la correlación es
insignificante. Sin embargo, si son significativamente diferentes, podríamos,
si elegimos, expresar el hecho en términos de una correlación.

La interpretación de tal desigualdad de varianza en términos de una


correlación se puede aclarar de la siguiente manera, mediante un método que
también sirve para demostrar que la interpretación hecha por el uso de la tabla
simétrica es [pág. 190] ligeramente defectuoso. Deje que una cantidad se
componga de dos partes, cada una distribuida normalmente e
independientemente; deja que la varianza de la primera parte sea A, y la de la
segunda parte, B; entonces es fácil ver que la varianza de la cantidad total es
A + B. Considere una muestra de n ' valores de la primera parte, y a cada una
de ellas agregue una muestra de k valores de la segunda parte, tomando una
nueva muestra de k en cada caso. Entonces tenemos n ' clásicos de valores
con ken cada clase En la población infinita de la cual se extraen, la correlación
entre pares de números de la misma clase será

De tal conjunto de valores de kn ' podemos hacer estimaciones de los valores


de A y B, o en otras palabras, podemos analizar la varianza en las porciones
contribuidas por las dos causas; la correlación intraclase será simplemente la
fracción de la varianza total debida a la causa que tienen en común las
observaciones en la misma clase. El valor de B puede estimarse directamente,
ya que la variación dentro de cada clase se debe únicamente a esta causa, por
lo tanto

La media de las observaciones en cualquier clase se compone de dos partes, la


primera parte con varianza A y una segunda parte, que es la media de
los valores k de las segundas partes de los valores individuales, y por lo tanto
tiene una varianza B / k ; en consecuencia de lo observado [p. 191] variación
de los medios de las clases, tenemos

Por lo tanto, la Tabla 38 se puede reescribir, escribiendo en la última


columna s 2 para A + B, yr para la estimación no correlacionada de la
correlación.
Comparando la última columna con la de la Tabla 38, es evidente que la
diferencia surge únicamente de poner n ' -1 en lugar de n' en la segunda
línea; la relación entre las sumas de cuadrados se altera en la relación n ' :
( n' -1), que elimina con precisión el sesgo negativo observado en z derivado
del método anterior. El error de ese método consistió en suponer que la
varianza total derivada de n ' conjuntos de individuos relacionados podría
estimarse con precisión comparando la suma de los cuadrados de todos los
individuos de su media, con n's 2 k ; este error no es importante cuando n ' es
grande, como suele ser cuandok = 2, pero con valores más altos de k, los datos
pueden ser de gran valor incluso cuando n ' es muy pequeño, y en tales casos
surgen discrepancias serias del uso de los valores no corregidos. [pag. 192]

La prueba directa de la importancia de una correlación intraclase puede


aplicarse a una tabla de este tipo del análisis de varianza sin calcular
realmente r . Si no hay correlación, entonces A no es significativamente
diferente de cero; no hay diferencia entre las varias clases que no se tienen en
cuenta, como un efecto de muestreo aleatorio de la diferencia dentro de cada
clase. De hecho, todo el grupo de observaciones es un grupo homogéneo con
varianza igual a B.

41. Prueba de significación de la diferencia de varianza.

La prueba de significación de las correlaciones intraclase es, por lo tanto,


simplemente un ejemplo de la clase mucho más amplia de pruebas de
significación que surgen en el análisis de la varianza. Todas estas pruebas se
pueden reducir al único problema de comprobar si una estimación de varianza
derivada de n 1 grados de libertad es significativamente mayor que una
segunda estimación derivada de n 2 grados de libertad. Este problema se
reduce a su forma más simple calculando z igual a la mitad de la diferencia de
la naturallogaritmos de las estimaciones de la varianza, o de la diferencia de
los logaritmos de las desviaciones estándar correspondientes. Entonces, si P es
la probabilidad de exceder este valor por casualidad, es posible calcular el
valor de z que corresponden a diferentes valores de p, n 1 , y n 2 .
Una tabla completa de este tipo, que incluya tres variables, sería muy
extensa; por lo tanto, solo proporcionamos una pequeña tabla para P = · .05 y
valores seleccionados de n 1 y n 2 , que serán de ayuda inmediata en la práctica
[pág. 193] problemas, pero podría amplificarse con ventaja (Tabla VI., P.
210). Daremos varios ejemplos del uso de esta tabla, cuando
tanto n 1 como n 2 son grandes, y también para valores moderados cuando son
iguales o casi iguales, la distribución de z es suficientemente normal para que
se pueda hacer un uso efectivo de Su desviación estándar, que puede estar
escrita.

Esto incluye el caso de la correlación intraclase, cuando k = 2, porque si


tenemos n ' pares de valores, la variación entre clases se basa en n' -1 grados
de libertad, y eso dentro de las clases se basa en n ' grados de libertad, para
que

n 1 = n ' -1, n 2 = n' ,

y para valores moderadamente grandes de n ' podemos tomar z para que se


distribuya normalmente como se explicó anteriormente. Cuando k excede de
2, tenemos

n 1 = n ' -1, n 2 = ( k -1) n' ;

estos pueden ser muy desiguales, por lo que, a menos que n ' sea bastante
grande, la distribución de z será perceptiblemente asimétrica y la desviación
estándar no proporcionará una prueba de significación satisfactoria.

Ex. 37 · Diferencia de sexo en la varianza de la estatura . - A partir de 1164


mediciones de varones, se encontró que la suma de los cuadrados de las
desviaciones era 8493; mientras que a partir de 1456 mediciones de hembras
fue de 9747: ¿existe una diferencia significativa en la variabilidad
absoluta? [pag. 194]
Los cuadrados medios se calculan a partir de las sumas de cuadrados
dividiendo por los grados de libertad; la diferencia de los logaritmos es .0864,
de modo que z es .0432. · La varianza de z es la mitad de la suma de la última
columna, de modo que la desviación estándar de z es .02781. La diferencia en
la variabilidad, aunque sugiere un efecto real, no puede considerarse
significativa en estos datos.

Ex. 38. Homogeneidad de pequeñas muestras . - En un experimento sobre la


precisión del recuento de bacterias del suelo, una muestra de suelo se dividió
en cuatro muestras paralelas, y de cada una de estas, después de la dilución, se
inocularon siete placas. El número de colonias en cada placa se muestra a
continuación. ¿Los resultados de las cuatro muestras coinciden dentro de los
límites del muestreo aleatorio? En otras palabras, ¿el conjunto completo de 28
valores es homogéneo o existe una correlación intraclase
perceptible? [pag. 195]

De estos valores obtenemos


La variación dentro de las clases es en realidad la mayor, de modo que si se
indica alguna correlación, debe ser negativa. Los números de grados de
libertad son pequeños y desiguales, por lo que usaremos la Tabla VI. Esto se
ingresa con n 1 igual a los grados de libertad correspondientes a la varianza
mayor, en este caso 24; n 2 = 3. La tabla muestra que P = .05 para z = 1.078I,
por lo que la diferencia observada, .3224, es realmente muy [pág. 196]
moderado, y bastante insignificante. Todo el conjunto de 28 valores parece ser
homogéneo con una variación de alrededor de 57.07.

Debe notarse que si solo hubieran estado presentes dos clases, la prueba en el
ejemplo anterior hubiera sido equivalente a probar la importancia de t , como
se explica en el Capítulo V. De hecho, los valores para n 1 = 1 en la tabla
de z (p. 210) no son más que los logaritmos de los valores para P = .05 en la
tabla de t (p. 137) · De manera similar, los valores para n 2 = 1 en la Tabla
VI. son los logaritmos de los recíprocos de los valores, que aparecerían en la
Tabla IV. bajo P = .95 · El presente método puede considerarse como una
extensión del método del Capítulo V., apropiado cuando deseamos comparar
más de dos medios. Igualmente, puede considerarse como una extensión de
los métodos del Capítulo IV.n 2 si infinito z sería igual a 1/2 log 2 / n de la
Tabla III. para P = .05, y si n 1 fuera infinito sería igual a -1/2 log 2 / n para
P = .95. Por lo tanto, las pruebas de bondad de ajuste, en las cuales la varianza
muestral no es calculable a priori , pero pueden estimarse a partir de los datos,
se pueden hacer por medio de la Tabla VI.

Ex. 39 · Comparación de correlaciones intraclase . - Se proporcionan las


siguientes correlaciones (datos de Harris) para el número de óvulos en
diferentes vainas del mismo árbol, y se cuentan 100 vainas en cada árbol
( Cercis Canadensis ):

Tierras Altas de Meramec 60 arboles +.3527

Lawrence, Kansas 22 árboles +.3999


[pag. 197]

¿Es la correlación en Lawrence significativamente mayor que la de las tierras


altas de Meramec?

Primero encontramos z en cada caso a partir de la fórmula.

z = 1/2 {log (1 + 99 r ) - log (1- r )}

(p. 185); esto da z = 2.0081 para Meramec y 2.1071 para Lawrence; ya que
estos se obtuvieron por el método de la tabla simétrica, insertaremos la
pequeña corrección 1 / (2 n ' -1) y obtendremos 2.0165 para Meramec, y
2.1506 para Lawrence, como los valores que se habrían obtenido por el
método del Análisis de variación.

Para determinar a qué errores están sujetas estas determinaciones, considere


primero el caso de Lawrence, que al estar basado en solo 22 árboles está
sujeto a los errores más grandes. Tenemos n 1 = 21, n 2 = 22x99 = 2178 ·
Estos valores no se dan en la tabla, pero a partir del valor de n 1 = 24, n 2 =
[infinito], parece que se producirán errores positivos superiores a .2085 en
Más del 5 por ciento de las muestras. Solo este hecho resuelve la cuestión de
la importancia, ya que el valor para Lawrence solo supera al obtenido para
Meramec en .1341. ·

En otros casos puede requerirse mayor precisión. En la tabla para z, los cinco
valores 6, 8, 12, 24, [infinito] se eligen para estar en progresión armónica, y
así facilitar la interpolación, si usamos 1 / n como variable. Si tenemos que
interpolar tanto para n 1 como para n 2 , procedemos en tres pasos. Primero
encontramos los valores de z para n 1 = 12, n 2 = 2178, y para n 1 = 24, n 2 =
2178, y de estos obtenemos el valor requerido para n 1 = 21, n 2 =
2178. [pag. 198]

Para encontrar el valor para n 1 = 12, n 2 = 2178, observe que

para n 2 = [infinito] tenemos .2804, y para n 2 = 24 un valor mayor en .1100,


de modo que .2804 + .0110x.1100 = 2816 da el valor aproximado para n 2 =
2178.

Del mismo modo para n 1 = 24

.2085 + .0110x.1340 = .2100.


De estos dos valores debemos encontrar el valor para n 1 = 21; ahora

de modo que debemos agregar al valor para n 1 = 24 una séptima parte de su


diferencia del valor para n 1 = 2; esto da

que es aproximadamente la desviación positiva que se superaría por


casualidad en el 5% de las muestras aleatorias.

Así como hemos encontrado el punto del 5 por ciento para las desviaciones
positivas, el punto del 5 por ciento para las desviaciones negativas se puede
encontrar al intercambiar n 1 y n 2 ; esto resulta ser .2957 · Si asumimos que
nuestro valor observado no transgrede el punto del 5 por ciento en ninguna de
las desviaciones, es decir, que se encuentra en las nueve décimas partes de su
distribución de frecuencias, podemos decir que el valor de z para Lawrence,
Kansas, se encuentra entre 1.9304 y 2.4463; estos valores se encuentran
[p. 199] respectivamente, restando las desviaciones positivas y agregando la
desviación negativa al valor observado.

El hecho de que las dos desviaciones son claramente desiguales, como suele
ser el caso cuando n 1 y n 2 son desiguales y no ambos grandes, muestra que
tal caso no puede tratarse con precisión por medio de un error probable.

Se pueden obtener valores algo más precisos que los anteriores mediante
métodos mejorados de interpolación; sin embargo, el método anterior será
suficiente para todos los requisitos ordinarios, excepto en la esquina de la
tabla donde n 1 y n 2 exceden de 24. Para los casos que se encuentran en esta
región, la siguiente fórmula proporciona el punto del 5 por ciento dentro de
uno. centésima parte de su valor. Si h es la media armónica de n 1 y n 2 ,
entonces
entonces

Apliquemos esta fórmula a los valores anteriores para Meramec


Highlands, n 1 = 59, n 2 = 5940; El cálculo es el siguiente:

El punto del 5 por ciento para las desviaciones positivas es, por lo tanto, de
.1397 y para las desviaciones negativas de .1660; [pag. 200] con los mismos
estándares que antes, por lo tanto, podemos decir que el valor para Meramec
se encuentra entre 1.8768 y 2.1825; la gran superposición de este rango con la
de Lawrence muestra que las correlaciones encontradas en los dos distritos no
son significativamente diferentes.

42. Análisis de la varianza en más de dos porciones

A menudo es necesario dividir la varianza total en más de dos porciones; A


veces sucede, tanto en datos experimentales como observacionales, que las
observaciones pueden agruparse en clases de más de una manera; cada
observación pertenece a una clase de tipo A y a una clase diferente de tipo B.
En tal caso, podemos encontrar por separado la varianza entre clases de tipo A
y entre clases de tipo B; el balance de la varianza total puede representar solo
la varianza dentro de cada subclase, o puede haber además una interacción de
causas, de modo que un cambio en la clase de tipo A no tenga el mismo efecto
en todas las clases B. Si las observaciones no ocurren individualmente en las
subclases, la varianza dentro de las subclases se puede determinar de forma
independiente y se puede verificar la presencia o ausencia de interacción. A
veces también, por ejemplo,

Ex. 40. Variación diurna y anual de la frecuencia de lluvia . - Las siguientes


frecuencias de lluvia a diferentes horas en diferentes meses se observaron en
Richmond durante 10 años (citado de Shaw, con dos correcciones en los
totales). [pag. 201]
;[pag. 202]

La varianza se puede analizar de la siguiente manera:

La media de los 288 valores dados en los datos es 24.7, y si los datos
originales hubieran representado posibilidades de muestreo independientes,
deberíamos esperar que el residuo cuadrado medio sea casi tan grande como
este o mayor, si la distribución de lluvia durante el día difiere en diferentes
meses Claramente, la varianza residual es subnormal, y la razón de esto es
obvia cuando consideramos que la probabilidad de que llueva en la segunda
hora no es independiente de si está lloviendo o no en la primera hora
del mismo día.Por lo tanto, probablemente se habrá ingresado a cada ducha
varias veces, y los valores para las horas vecinas en el mismo mes se
relacionarán positivamente. Gran parte de la variación aleatoria se ha incluido
en la asignada a los meses, y probablemente explica la secuencia muy
irregular de los totales mensuales. Sin embargo, la variación entre las 24 horas
es bastante mayor que la variación residual, y esto muestra que las horas de
lluvia han sido en general similares en los diferentes meses, de modo que las
cifras indican claramente la influencia de la hora del día. [pag. 203] A partir
de los datos, no es posible estimar la influencia de la época del año o discutir
si el efecto de la hora del día es el mismo en todos los meses.

Ex. 41 · Análisis de variación en ensayos de campo experimental . - La tabla


en la página siguiente muestra el rendimiento en libras por planta en un
experimento con papas (datos de Rothamsted). Una parcela de tierra, la
totalidad de la cual había recibido un apósito de estiércol, se dividió en 36
parches, en los cuales se cultivaron 12 variedades, cada una con 3 parches
dispersos en el área. Cada parche se dividió en tres líneas, una de las cuales
recibió, además del estiércol, solo un apósito basal, que no contenía potasa,
mientras que las otras dos recibieron aderezos adicionales de sulfato y cloruro
de potasa, respectivamente.

De datos de este tipo se puede derivar una variedad de información. Los


rendimientos totales de los 36 parches nos dan 35 grados de libertad, de los
cuales 11 representan diferencias entre las 12 variedades y 24 representan las
diferencias entre los diferentes parches que crecen en la misma variedad. Al
comparar la varianza en estas dos clases, podemos probar la importancia de
las diferencias de variedad en el rendimiento para el suelo y el clima del
experimento. Los 72 grados adicionales de libertad otorgados por los
rendimientos de las filas separadas constan de 2 debido al tratamiento
manurial, que podemos subdividir en uno que representa las diferencias
debidas a un apósito de potasa frente al apósito basal, y un segundo que
representa la diferencia manurial entre el sulfato y el cloruro; y 70 más que
representan las diferencias observadas en la respuesta manurial en la
[pág. 204] [Tabla 46] [p 205] diferentes parches. Estos últimos a su vez
pueden dividirse en 22 que representan la diferencia en la respuesta manurial
de las diferentes variedades, y 48 que representan las diferencias en la
respuesta manurial en diferentes parches que crecen en la misma
variedad. Para probar la importancia de los efectos de manura, podemos
comparar la varianza en cada uno de los dos grados de libertad de manura con
la de los 70 restantes; para probar el significado de las diferencias en la
respuesta varietal al estiércol, comparamos la varianza en los 22 grados de
libertad con la del 48; mientras que para probar la importancia de la diferencia
en el rendimiento de la misma variedad en diferentes parches,
Para cada variedad se requerirá el rendimiento total para la totalidad de cada
parche, el rendimiento total para los 3 parches y el rendimiento total para cada
estiércol; también necesitaremos el rendimiento total de cada abono para el
agregado de las variedades de It; estos valores se dan a continuación (Tabla
47) · [pág. 206]

[pag. 207]
La suma de los cuadrados de las desviaciones de todos los 108 valores de su
media es 71.699; dividido, según los parches, en 36 clases de 3, el valor para
los 36 parches es 61.078; dividiendo esto nuevamente según las variedades en
12 clases de 3, el valor para las 12 variedades es 43.638 · Podemos expresar
los hechos de la siguiente manera:

El valor de z , que se encuentra como la diferencia de los logaritmos en la


última columna, es casi 85, o más del doble del valor del 5%; El efecto de la
variedad es por lo tanto muy significativo.

De la variación dentro de los parches, la porción atribuible a las dos


diferencias de tratamiento manurial puede derivarse de los totales para los tres
tratamientos manuriales. La suma de los cuadrados de las tres desviaciones,
dividida por 36, es .3495; de esto, el cuadrado de la diferencia de los totales
para los dos apósitos de potasa, dividido por 72, contribuye .0584, mientras
que el cuadrado de la diferencia entre su media y el total para el aderezo basal,
dividido por 54, da el resto,. 2913. Es posible, sin embargo, que la [p. 208] el
efecto total de los apósitos puede no aparecer en estas figuras, ya que si las
diferentes variedades hubieran respondido de diferentes maneras, o en
diferentes grados, a los apósitos, el efecto total no aparecería en los
totales. Los setenta grados de libertad restantes no serían homogéneos. Los 36
valores,de variedad, 2 las diferencias de abono y las 22 restantes muestran las
diferencias en la respuesta de las diferentes variedades. El análisis de este
grupo se muestra a continuación:
Para probar el significado de la variación observada en el rendimiento de los
parches que tienen la misma variedad, podemos comparar el valor .727
encontrado arriba de 24 grados de libertad, con .1683 recién encontrado de 48
grados. El valor de z , la mitad de la diferencia de los logaritmos, es .7316,
mientras que el punto del 5 por ciento de la tabla de z es aproximadamente
.28. La evidencia de la fertilidad desigual de los diferentes parches es, por lo
tanto, inconfundible. [pag. 209] Como siempre se encuentra en pruebas de
campo cuidadosas, las irregularidades locales en la naturaleza o profundidad
del suelo afectan materialmente los rendimientos. En este caso, la
irregularidad del suelo quizás se combinó con la calidad o cantidad desigual
del estiércol suministrado.

No hay signos de respuesta diferencial entre las variedades; de hecho, la


diferencia entre parches con diferentes variedades es menor que la encontrada
para parches con la misma variedad. La diferencia entre los valores no es
significativa; z = .2623, mientras que el punto del 5 por ciento es
aproximadamente .33 ·

Finalmente, el efecto de los apósitos maniales probados es pequeño; la


diferencia debida a la potasa es de hecho mayor que el valor para los efectos
diferenciales, que ahora podemos llamar fluctuaciones aleatorias, pero z es
solo .3427, y requeriría que aproximadamente .7 sea significativo. Sin una
respuesta total, es de esperarse, aunque no como una consecuencia necesaria,
que los efectos diferenciales sean insignificantes. Evidentemente, las plantas
con el aderezo basal tenían toda la potasa necesaria y, además, no se produjo
ningún efecto aparente en el rendimiento por la diferencia entre los iones
cloruro y sulfato. [pag. 210]
MÁS APLICACIONES DEL ANÁLISIS DE LA VARIANZA

43. En este capítulo daremos ejemplos de las aplicaciones adicionales del


método del análisis de varianza desarrollado en el último capítulo en relación
con la teoría de las correlaciones intraclase. Es imposible en un breve espacio
dar ejemplos de todas las diferentes aplicaciones que se pueden hacer con este
método; por lo tanto, nos limitaremos a aquellos de la importancia práctica
más inmediata, prestando especial atención a aquellos casos en los que se han
utilizado en gran medida métodos erróneos, o donde hasta ahora no se ha
presentado ningún método alternativo de ataque.

44. Forma física de las fórmulas de regresión


No existe una necesidad más apremiante en relación con el examen de los
resultados experimentales que probar si un conjunto de datos dado está o no
de acuerdo con alguna hipótesis sugerida. Los capítulos anteriores se han
referido en gran medida a tales pruebas apropiadas para hipótesis que
involucran frecuencia de ocurrencia, como la hipótesis mendeliana de [p. 212]
genes de segregación, o la hipótesis de la disposición lineal en grupos de
enlace, o las hipótesis más generales de la independencia o correlación de
variables. Más frecuentemente, sin embargo, se desea probar hipótesis que
involucren, en lenguaje estadístico, la forma de líneas de regresión. Podemos
desear probar, por ejemplo, si el crecimiento de un animal, planta o población
sigue una ley asignada, si por ejemplo aumenta con el tiempo en progresión
aritmética o geométrica, o según la llamada ley de aumento
"autocatalítica"; es posible que deseamos probar si con el aumento de las
aplicaciones del crecimiento de plantas de estiércol aumenta de acuerdo con
las leyes que se han presentado, o si, de hecho, los datos en cuestión son
incompatibles con tal suposición. Tales preguntas surgen no solo en pruebas
cruciales de leyes ampliamente reconocidas, sino en todos los casos en que
una relación, por empírica que sea, se considera descriptiva de los datos, y son
de valor no solo en la etapa final del establecimiento de las leyes de la
naturaleza. pero en las primeras etapas de probar la eficiencia de una
técnica. Los métodos que presentaremos para probar la bondad de ajuste de
las líneas de regresión están dirigidos no solo a simplificar los cálculos al
reducirlos a una forma estándar, y así hacerlo es posible que deseamos probar
si con el aumento de las aplicaciones del crecimiento de plantas de estiércol
aumenta de acuerdo con las leyes que se han presentado, o si, de hecho, los
datos en cuestión son incompatibles con tal suposición. Tales preguntas
surgen no solo en pruebas cruciales de leyes ampliamente reconocidas, sino en
todos los casos en que una relación, por empírica que sea, se considera
descriptiva de los datos, y son de valor no solo en la etapa final del
establecimiento de las leyes de la naturaleza. pero en las primeras etapas de
probar la eficiencia de una técnica. Los métodos que presentaremos para
probar la bondad de ajuste de las líneas de regresión están dirigidos no solo a
simplificar los cálculos al reducirlos a una forma estándar, y así hacerlo es
posible que deseamos probar si con el aumento de las aplicaciones del
crecimiento de plantas de estiércol aumenta de acuerdo con las leyes que se
han presentado, o si, de hecho, los datos en cuestión son incompatibles con tal
suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes
ampliamente reconocidas, sino en todos los casos en que una relación, por
empírica que sea, se considera descriptiva de los datos, y son de valor no solo
en la etapa final del establecimiento de las leyes de la naturaleza. pero en las
primeras etapas de probar la eficiencia de una técnica. Los métodos que
presentaremos para probar la bondad de ajuste de las líneas de regresión están
dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar,
y así hacerlo o si, de hecho, los datos en cuestión son inconsistentes con tal
suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes
ampliamente reconocidas, sino en todos los casos en que una relación, por
empírica que sea, se considera descriptiva de los datos, y son de valor no solo
en la etapa final del establecimiento de las leyes de la naturaleza. pero en las
primeras etapas de probar la eficiencia de una técnica. Los métodos que
presentaremos para probar la bondad de ajuste de las líneas de regresión están
dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar,
y así hacerlo o si, de hecho, los datos en cuestión son inconsistentes con tal
suposición. Tales preguntas surgen no solo en pruebas cruciales de leyes
ampliamente reconocidas, sino en todos los casos en que una relación, por
empírica que sea, se considera descriptiva de los datos, y son de valor no solo
en la etapa final del establecimiento de las leyes de la naturaleza. pero en las
primeras etapas de probar la eficiencia de una técnica. Los métodos que
presentaremos para probar la bondad de ajuste de las líneas de regresión están
dirigidos no solo a simplificar los cálculos al reducirlos a una forma estándar,
y así hacerlo y son de valor no solo en la etapa final de establecer las leyes de
la naturaleza, sino en las primeras etapas de prueba de la eficiencia de una
técnica. Los métodos que presentaremos para probar la bondad de ajuste de
las líneas de regresión están dirigidos no solo a simplificar los cálculos al
reducirlos a una forma estándar, y así hacerlo y son de valor no solo en la
etapa final de establecer las leyes de la naturaleza, sino en las primeras etapas
de prueba de la eficiencia de una técnica. Los métodos que presentaremos
para probar la bondad de ajuste de las líneas de regresión están dirigidos no
solo a simplificar los cálculos al reducirlos a una forma estándar, y así
hacerloEs posible realizar pruebas precisas , pero al mostrar todo el proceso,
puede ser evidente exactamente a qué preguntas puede responder un examen
estadístico de los datos.

Si para cada uno de una serie de valores seleccionados de la variable


independiente x se realiza una cantidad de observaciones de la variable
dependiente y, deje que la cantidad de valores de x disponibles
sea a ; entonces a es el número [pág. 213] de matrices en nuestros datos. Al
designar cualquier matriz en particular mediante el sufijo p , el número de
observaciones en cualquier matriz se indicará por n p , y la media de sus
valores por y [barra] p ; y [barra] es la media general de todos los valores
de y . Entonces sea cual sea la naturaleza de los datos, la identidad puramente
algebraica.

S ( y - y [bar]) 2 = S { n p ( y [bar] p - y [bar]) 2 } + SS ( yy [bar] p ) 2

expresa el hecho de que la suma de los cuadrados de las desviaciones de todos


los valores de y de su media general puede dividirse en dos partes, una que
representa la suma de los cuadrados de las desviaciones de las medias de las
matrices de la media general , cada una multiplicada por el número en la
matriz, mientras que la segunda es la suma de los cuadrados de las
desviaciones de cada observación de la media de la matriz en la que
ocurre. Esto se asemeja al análisis utilizado para las correlaciones intraclase,
salvo que ahora el número de observaciones puede ser diferente en cada
matriz. Las desviaciones de las observaciones de los medios de las matrices se
deben a causas de variación, incluidos errores de agrupación, errores de
observación, etc., que no dependen del valor de x; la desviación estándar
debida a estas causas proporciona una base para la comparación por la cual
podemos probar si las desviaciones de las medias de las matrices de los
valores esperados por hipótesis son o no significativas.

Deje que Y p represente el valor medio en cualquier matriz esperada en la


hipótesis a probar, entonces

S { n p ( y [bar] p -Y p ) 2 } [p. 214]

Medirá la discrepancia entre los datos y la hipótesis. Al comparar esto con las
variaciones dentro de las matrices, debemos, por supuesto, considerar cuántos
grados de libertad están disponibles, en los cuales las observaciones pueden
diferir de la hipótesis. En algunos casos, que son relativamente raros, la
hipótesis especifica el valor medio real que se espera en cada matriz; en tales
casos un grado de libertad están disponibles, unasiendo el número de las
matrices. Con más frecuencia, la hipótesis especifica solo la forma de la línea
de regresión, teniendo uno o más parámetros que deben determinarse a partir
de las observaciones, como cuando deseamos probar si la regresión se puede
representar mediante una línea recta, de modo que nuestra hipótesis se
justifique si Cualquier línea recta se ajusta a los datos. En tales casos, para
encontrar el número de grados de libertad debemos deducir de un número de
parámetros obtenidos de los datos.

Ex. 42 Prueba de rectitud de la línea de regresión . - Los siguientes datos se


tomaron de un artículo de AH Hersh ( Journal of Experimental Zoology ,
xxxix. P. 62) sobre la influencia de la temperatura en el número de facetas
oculares en Drosophila melanogaster , en varias fases homocigotas y
heterocigotas de la "barra". "factor. Representan hembras heterocigotas para
"completo" y "ultra-bar", siendo medido el número de faceta en unidades
factoriales, efectivamente una escala logarítmica. ¿Se puede representar la
influencia de la temperatura en el número de faceta mediante una línea recta,
en estas unidades? [pag. 215]
Hay 9 matrices que representan 9 temperaturas diferentes. Tomando una
media de trabajo en -1.93, calculamos el exceso total y promedio sobre la
media de trabajo de cada matriz, y para el agregado de los 9. Cada promedio
se encuentra dividiendo el exceso total por el número en la matriz; tres
decimales son suficientes, salvo en el agregado, donde se necesitan
cuatro. Tenemos [p. 216]

La suma de los productos de estos nueve pares de números, menos el producto


del par final, da el valor de

S { n p ( y [barra] p - y [barra]) 2 } = 12,370,


mientras que a partir de la distribución del agregado de todos los valores
de y tenemos

S ( y - y [barra]) 2 = 16,202,

de donde se deduce la siguiente tabla:

La varianza dentro de los arreglos es, por lo tanto, solo alrededor de 4.7; la
varianza entre las matrices se compondrá de una parte que puede representarse
mediante una regresión lineal y de una parte que representa las desviaciones
de los medios observados de las matrices desde una línea recta. Parte
superior. 217]

encuentra la parte representada por una regresión lineal, calcula

S ( x - x [barra]) 2 = 4742.21

S ( x - x [barra]) ( y - y [barra]) = -7535.38,

qué último se puede obtener multiplicando los valores de exceso totales


anteriores por xx [barra]; entonces desde

Podemos completar el análisis de la siguiente manera:


Es útil verificar la figura, 396, encontrada por diferencias, calculando el valor
real de Y para la fórmula de regresión y evaluando

S { n p ( y [bar] p - Y p ) 2 };

tal comprobación tiene la ventaja de que muestra a qué matrices en particular


se debe la mayor parte de la discrepancia, en este caso a las observaciones a
23 y 25 ° C.

Las desviaciones de la regresión lineal son evidentemente mayores de lo que


se esperaría, si la regresión fuera realmente lineal, de las variaciones dentro de
las matrices. Para el valor de z , tenemos [p. 218]

mientras que el punto del 5 por ciento es de alrededor de .35. Por lo tanto, no
se puede cuestionar el significado estadístico de las desviaciones con respecto
a la línea recta, aunque esta última representa la mayor parte de la variación.

Tenga en cuenta que la corrección de Sheppard no debe aplicarse al realizar


esta prueba; una cierta proporción tanto de la variación dentro de las matrices
como de las desviaciones de la línea de regresión es atribuible a los errores de
agrupación, pero deducir de cada uno el error promedio debido a esta causa
sería excesivamente acentuar su desigualdad y, por lo tanto, hacer impreciso
La prueba de la significación.

45. La "relación de correlación" 

Hemos visto cómo, a partir de la suma de los cuadrados de las desviaciones de


todas las observaciones de la media general, se puede separar una parte que
representa las diferencias entre diferentes matrices. La relación que esto lleva
al conjunto a menudo se denota por el símbolo 2 , de modo que

2 = S { n p (y [bar] p - y [bar]) 2 } / S ( y - y [bar]) 2 ,

y la raíz cuadrada de esta relación,  , se llama correlación [p. 219] relación


de y sobre x . De manera similar, si Y es la función de regresión hipotética,
podemos definir R, de modo que

R 2 = S { n p (Y- y [bar]) 2 } / S ( y - y [bar]) 2 ,

entonces R será el coeficiente de correlación entre y y Y, y si la regresión es


lineal, R 2 = r 2 , donde r es el coeficiente de correlación entre x y y. A partir
de estas relaciones, es obvio que  excede a R y, por lo tanto,
que  proporciona un límite superior, de modo que no se puede encontrar una
función de regresión, cuya correlación con y es mayor que  .

Como estadística descriptiva, la utilidad de la relación de correlación es


extremadamente limitada. Se notará que el número de grados de libertad en el
numerador de 2 depende del número de arreglos, de modo que, por
ejemplo, en el Ejemplo 42, el valor de  obtenido dependerá, no solo del
rango de temperaturas explorado. , pero en el número de temperaturas
empleadas dentro de un rango dado.

Probar si un valor observado de la relación de correlación es significativo es


probar si la variación entre matrices es significativamente mayor de lo que se
puede esperar sin correlación, a partir de la variación dentro de las matrices, y
esto puede hacerse a partir del análisis de varianza (Tabla 52 ) Por medio de la
tabla de z . Se han realizado intentos para probar la importancia de la relación
de correlación mediante el cálculo de un error estándar, pero en tales intentos
se pasa por alto el hecho de que, incluso con muestras indefinidamente
grandes, la distribución de  para la correlación cero no tiende a la
normalidad, a menos que el número De matrices también se incrementa sin
límite. Por el contrario, [p. 220] con muestras muy grandes, cuando N es el
número total de observaciones, N 2tiende a distribuirse como
es 2 cuando n , el número de grados de libertad, es igual a ( a -1).

46. El criterio de Blakeman


En el mismo sentido que · 2 mide la diferencia entre diferentes matrices,
por lo que 2 -R 2 mide la desviación agregada de las medias de las matrices
de la línea de regresión hipotética. El intento de obtener un criterio de
linealidad de regresión al comparar esta cantidad con su error estándar, resulta
en la prueba conocida como el criterio de Blakeman. En esta prueba, tampoco
se tiene en cuenta el número de matrices y, en consecuencia, no proporciona
ni siquiera una primera aproximación al estimar qué valores de 2 - r 2 son
admisibles. Similarmente con  con correlación cero, entonces con 2 -r 2 ,
la correlación es lineal, si el número de observaciones aumenta sin límite, la
distribución no tiende a la normalidad, pero la de N ( 2 - r 2 ) tiende a
distribuirse como es 2 cuando n = a - 2. Su valor medio es entonces ( a -2),
e ignorar el valor de a es ignorar la característica principal de su distribución
muestral.

En el Ejemplo 42, hemos visto que con 9 matrices, el alejamiento de la


linealidad fue muy significativo; es fácil ver que si hubieran habido matrices,
con los mismos valores de 2 y r 2 , la desviación de la linealidad hubiera
sido incluso menor que la expectativa basada en la variación dentro de cada
matriz. Usando el criterio de Blakeman, sin embargo, estas dos condiciones
opuestas son indistinguibles. [pag. 221]

Al igual que en otros casos de prueba de bondad de ajuste, por lo que al


probar las líneas de regresión es esencial que si se debe ajustar algún
parámetro a las observaciones, este proceso de ajuste se haya llevado a cabo
de manera eficiente.

En el Capítulo V se ha dado una explicación de los métodos eficientes. En


general, salvo en los casos más complicados, de los cuales este libro no trata,
la condición necesaria puede cumplirse mediante el procedimiento conocido
como Método de mínimos cuadrados, por el cual medida de desviación

S { n p ( y [bar] p -Y p ) 2 }

se reduce a un mínimo sujeto a las condiciones hipotéticas que gobiernan la


forma de Y.

47. Importancia del coeficiente de correlación múltiple

Si, como en la Sección 29 (p. 130), la regresión de una variable


dependiente y en un número de variables independientes x 1 , x 2 , x 3 , se
expresa en la forma

Y = b 1x 1 + b 2x 2 + b 3x 3
entonces la correlación entre y e Y es mayor que la correlación de y con
cualquier otra función lineal de las variables independientes y, por lo tanto,
mide, en un sentido, la medida en que el valor de y depende de, o está
relacionado con, la combinación de Variación de estas variables. El valor de la
correlación así obtenida, denotado por R, se puede calcular a partir de la
fórmula

R 2 = { b 1 S ( x 1 y ) + b 2 S ( x 2 y ) + b 3 S ( x 3 y )} / S ( y 2 )

La correlación múltiple, R, difiere de la correlación obtenida con una sola


variable independiente en que siempre es positiva; además ha sido reconocido
[p. 222] en el caso de la correlación múltiple de que su distribución aleatoria
de muestreo debe depender del número de variables independientes
empleadas. De hecho, el caso es estrictamente comparable con el de la
relación de correlación, y puede tratarse con precisión mediante una tabla del
análisis de varianza.

En el apartado referido hemos hecho uso del hecho de que

S ( y 2 ) = S ( y -Y) 2 + { b 1 S ( x 1 y ) + b 2 S ( x 2 y ) + b 3 S ( x 3 y )}

si n ' es el número de observaciones de y , y p el número de variables


independientes, estos tres términos representarán respectivamente n' -1, n'-p -
1 y pgrados de libertad. En consecuencia el análisis de varianza toma la
forma:

asumiendo que y se mide a partir de su valor medio.

Si en realidad no existe una conexión entre las variables independientes y la


variable dependiente y , los valores en la columna encabezada "suma de
cuadrados" se dividirán aproximadamente en proporción al número de grados
de libertad; mientras que si existe una conexión significativa, entonces
los pgrados de libertad en la [p. 223] la función de regresión obtendrá
claramente más que su parte. La prueba, si R es o no significativa, es de hecho
exactamente la prueba de si el cuadrado medio atribuible a la función de
regresión es o no significativamente mayor que el cuadrado medio de las
desviaciones de la función de regresión, y se puede llevar a cabo, como En
todos estos casos, mediante la tabla de z .

Ex. 43. Significado de una correlación múltiple . - Para ilustrar el proceso,


podemos realizar la prueba de si los datos de lluvia del Ejemplo 23 se
relacionaron significativamente con la longitud, latitud y altitud de las
estaciones de grabación. A partir de los valores encontrados en ese ejemplo, la
siguiente tabla puede construirse inmediatamente.

El valor de z es, por lo tanto, de 1.3217, mientras que el punto del 5 por ciento
es de aproximadamente .4415, lo que demuestra que la correlación múltiple es
claramente significativa. El valor real de la correlación múltiple se puede
calcular fácilmente a partir de la tabla anterior, para

R 2 = 791.7 / 1786.6 = .4431

R = .6657;

pero este paso no es necesario para probar el significado. [pag. 224]

48. Técnica de experimentación de la trama.

El procedimiento estadístico del análisis de varianza es esencial para


comprender los principios subyacentes a los métodos modernos de
organización de experimentos de campo. El primer requisito que rige todos los
experimentos bien planificados es que el experimento debe producir no solo
una comparación de diferentes abonos, tratamientos, variedades, etc., sino
también un medio para probar la importancia de las diferencias que se
observan. En consecuencia, todos los tratamientos deben ser al menos
duplicados, y preferiblemente replicados más a fondo, para que se pueda usar
una comparación de réplicas como un estándar con el cual comparar las
diferencias observadas. Este es un requisito común a la mayoría de los tipos
de experimentación; la peculiaridad de los experimentos de campo agrícola se
basa en el hecho, verificado en todos los ensayos de uniformidad
cuidadosos, que el área de tierra elegida para las parcelas experimentales
puede asumirse que es marcadamente heterogénea, en el sentido de que su
fertilidad varía de manera sistemática y, a menudo, de manera complicada de
un punto a otro. Para que nuestra prueba de significación sea válida, la
diferencia en la fertilidad entre parcelas elegidas como paralelas debe ser
verdaderamente representativa de las diferencias entre parcelas con diferentes
tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han
sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La
disposición sistemática de nuestras parcelas puede tener, y las pruebas con los
resultados de las pruebas de uniformidad muestran que a menudo las tiene,
características en común con la variación sistemática de la fertilidad, y por lo
tanto la prueba de significación está totalmente viciada. [pag. 225] Y a
menudo una manera complicada de un punto a otro. Para que nuestra prueba
de significación sea válida, la diferencia en la fertilidad entre parcelas elegidas
como paralelas debe ser verdaderamente representativa de las diferencias
entre parcelas con diferentes tratamientos; y no podemos asumir que este es el
caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con
un sistema preestablecido; La disposición sistemática de nuestras parcelas
puede tener, y las pruebas con los resultados de las pruebas de uniformidad
muestran que a menudo las tiene, características en común con la variación
sistemática de la fertilidad, y por lo tanto la prueba de significación está
totalmente viciada. [pag. 225] Y a menudo una manera complicada de un
punto a otro. Para que nuestra prueba de significación sea válida, la diferencia
en la fertilidad entre parcelas elegidas como paralelas debe ser
verdaderamente representativa de las diferencias entre parcelas con diferentes
tratamientos; y no podemos asumir que este es el caso si nuestras parcelas han
sido elegidas de alguna manera de acuerdo con un sistema preestablecido; La
disposición sistemática de nuestras parcelas puede tener, y las pruebas con los
resultados de las pruebas de uniformidad muestran que a menudo las tiene,
características en común con la variación sistemática de la fertilidad, y por lo
tanto la prueba de significación está totalmente viciada. [pag. 225] Para que
nuestra prueba de significación sea válida, la diferencia en la fertilidad entre
parcelas elegidas como paralelas debe ser verdaderamente representativa de
las diferencias entre parcelas con diferentes tratamientos; y no podemos
asumir que este es el caso si nuestras parcelas han sido elegidas de alguna
manera de acuerdo con un sistema preestablecido; La disposición sistemática
de nuestras parcelas puede tener, y las pruebas con los resultados de las
pruebas de uniformidad muestran que a menudo las tiene, características en
común con la variación sistemática de la fertilidad, y por lo tanto la prueba de
significación está totalmente viciada. [pag. 225] Para que nuestra prueba de
significación sea válida, la diferencia en la fertilidad entre parcelas elegidas
como paralelas debe ser verdaderamente representativa de las diferencias
entre parcelas con diferentes tratamientos; y no podemos asumir que este es el
caso si nuestras parcelas han sido elegidas de alguna manera de acuerdo con
un sistema preestablecido; La disposición sistemática de nuestras parcelas
puede tener, y las pruebas con los resultados de las pruebas de uniformidad
muestran que a menudo las tiene, características en común con la variación
sistemática de la fertilidad, y por lo tanto la prueba de significación está
totalmente viciada. [pag. 225] Las características en común con la variación
sistemática de la fertilidad, y por lo tanto la prueba de significación está
totalmente viciada. [pag. 225] Las características en común con la variación
sistemática de la fertilidad, y por lo tanto la prueba de significación está
totalmente viciada. [pag. 225]

Ex. 44. Precisión alcanzada por acuerdo aleatorio . - La forma directa de


superar esta dificultad es organizar las parcelas completamente al azar. Por
ejemplo, si se usaran 20 franjas de tierra para probar 5 tratamientos diferentes,
cada uno por cuadruplicado, podríamos tomar un arreglo como el siguiente,
que se encuentra al barajar 20 cartas a fondo y ponerlas en orden:

Las letras representan 5 tratamientos diferentes; debajo de cada una se


muestra el peso de las raíces de manglar obtenidas por Mercer y Hall en un
ensayo de uniformidad con 20 de tales tiras.

Las desviaciones en el rendimiento total de cada tratamiento son

UNA segundo do re mi

+290 +216 -59 -243 -204

en el análisis de varianza, la suma de cuadrados correspondiente a


"tratamiento" será la suma de estos cuadrados dividida por 4. Dado que la
suma de los cuadrados de las 20 desviaciones de la media general es 289,766,
tenemos el siguiente análisis: [p . 226]
Se verá que el error estándar de una sola parcela estimada a partir de tal
disposición es 124.1, mientras que, en este caso, sabemos que su verdadero
valor es 223.5; este es un acuerdo extremadamente cercano, e ilustra la
manera en que una disposición de parcelas puramente aleatoria garantiza que
el error experimental calculado sea una estimación no compensada de los
errores realmente presentes.

Ex. 45. Restricciones a disposición aleatoria.- Si bien se adhiere a la


condición esencial de que los errores por los que se ven afectados los valores
observados deben ser una muestra aleatoria de los errores que contribuyen a
nuestra estimación del error experimental, todavía es posible eliminar gran
parte del efecto de la heterogeneidad del suelo, y de modo que aumente la
precisión de nuestras observaciones imponiendo restricciones en el orden en
que se colocan las tiras. Como ilustración de un método que es ampliamente
aplicable, podemos dividir las 20 tiras en 4 bloques e imponer la condición de
que cada tratamiento ocurra una vez en cada bloque; entonces podremos
separar la varianza en tres partes que representan (i.) diferencias locales entre
bloques, (ii.) [p. 227] diferencias debidas al tratamiento, (iii.) Errores
experimentales; y si los cinco tratamientos se organizan al azar dentro de cada
bloque, nuestra estimación del error experimental será una estimación no
sesgada de los errores reales en las diferencias debidas al tratamiento. Como
ejemplo de una disposición aleatoria sujeta a la restricción anterior, se obtuvo
lo siguiente:

AECDB | CBEDA | ADEBC | CEBA D.

Al analizar, con los mismos datos que antes, las contribuciones de las
diferencias locales entre bloques y del tratamiento, encontramos
Las diferencias locales entre los bloques son muy importantes, por lo que la
precisión de nuestras comparaciones mejora mucho, de hecho, la varianza
restante se reduce casi al 55% de su valor anterior. El acuerdo al que se llegó
por casualidad resultó ser ligeramente desfavorable, los errores en los valores
de tratamiento son un poco más de lo habitual, mientras que la estimación del
error estándar es 88.7 contra un valor verdadero de 92.0. Dicha variación es de
esperar, y de hecho, sobre ella se basa nuestro cálculo de
significación. [pag. 228]

Podría haberse pensado que era preferible organizar el experimento en un


orden sistemático, como

ABCDE | EDCBA | ABCDE | EDCBA,

y, de hecho, debido al marcado gradiente de fertilidad exhibido por los


rendimientos en el presente ejemplo, tal disposición habría producido errores
más pequeños en los totales de los cuatro tratamientos. Sin embargo, con tal
acuerdo, no tenemos garantía de que una estimación del error estándar
derivado de las discrepancias entre gráficos paralelos sea realmente
representativa de las diferencias producidas entre los diferentes tratamientos,
por lo que no se puede confiar en tal estimación del error estándar, y ninguna
prueba de significación es posible Una forma más prometedora de eliminar
esa parte del gradiente de fertilidad que no se incluye en las diferencias entre
bloques, sería imponer la restricción de que cada tratamiento debe ser
"equilibrado" con respecto a la posición dentro del bloque. Así, si algún
tratamiento ocupara en un bloque la primera tira, en otro bloque la tercera tira,
y en los dos bloques restantes la cuarta tira (los números ordinales que suman
12), sus posiciones en los bloques se equilibrarían, y el total El rendimiento no
se vería afectado por el gradiente de fertilidad. De los muchos arreglos
posibles sujetos a esta restricción, se podría elegir uno, y eliminar un grado
adicional de libertad, que representa la varianza debida al gradiente de
fertilidad promedio dentro de los bloques. En los datos actuales, donde el
gradiente de fertilidad es grande, esto parecería [pág. 229] proporciona un
gran aumento en la precisión, reduciéndose el error estándar estimado de 92.0
a 73.4. Pero al examinarlo, parece que tal estimación no es genuinamente
representativa de los errores por los cuales se ven afectadas las
comparaciones,

49. La plaza latina

Sin embargo, el método para establecer restricciones en la distribución de las


parcelas y eliminar los correspondientes grados de libertad de la varianza es
capaz de cierta extensión en experimentos adecuadamente planificados. En un
bloque de 25 parcelas organizadas en 5 filas y 5 columnas, que se utilizarán
para probar 5 tratamientos, podemos organizar que cada tratamiento se realice
una vez en cada fila, y también una vez en cada columna, al tiempo que
permite un alcance libre al azar en la distribución. sujeto a estas
restricciones. Luego, de los 24 grados de libertad, 4 representarán
tratamiento; 8 que representan diferencias de suelo entre diferentes filas o
columnas, pueden ser eliminadas; y 12 quedarán para la estimación de
error. Estos 12 proporcionarán una estimación no desviada de los errores en la
comparación de los tratamientos siempre que cada par de parcelas, no en la
misma fila o columna,

Ex. 46. Acuerdos doblemente restringidos . - Mercer y Hall encontraron los


siguientes pesos de raíz para manglares en 25 parcelas; Hemos distribuido
cartas que representan 5 tratamientos diferentes de tal manera que cada uno
aparece una vez que es cada fila y columna. [pag. 230]

Analizando las contribuciones de filas, columnas y tratamientos que tenemos


Al eliminar las diferencias de suelo entre las diferentes filas y columnas, el
cuadrado medio se ha reducido a menos de la mitad, y el valor del
experimento como un medio para detectar las diferencias debidas al
tratamiento es, por lo tanto, más del doble. Este método de igualar las filas y
columnas se puede combinar ventajosamente con el de igualar la distribución
en diferentes bloques de tierra, de modo que se puedan obtener resultados
muy precisos al usar una cantidad de bloques cada uno [pág. 231] dispuestos
en, por ejemplo, 5 filas y columnas. De esta manera, el método se puede
aplicar incluso en casos con solo tres tratamientos para comparar. Además,
como el método es adecuado, independientemente de las diferencias en la
fertilidad real del suelo, se puede utilizar el mismo método estadístico de
reducción cuando, por ejemplo, las parcelas son 25 tiras que se encuentran una
al lado de la otra. Tratando cada bloque de cinco franjas a su vez como si
fueran columnas sucesivas en la disposición anterior, podemos eliminar, no
solo la diferencia entre los bloques, sino diferencias como las debidas a un
gradiente de fertilidad, que afectan el rendimiento según el orden De las tiras
en el bloque. Por lo tanto, cuando el número de tiras empleadas es el cuadrado
del número de tratamientos, cada tratamiento puede ser no
soloequilibrados pero completamente igualados con respecto al orden en el
bloque, y podemos confiar en el valor (generalmente) reducido del error
estándar obtenido al eliminar los correspondientes grados de libertad. Dicha
doble eliminación puede ser especialmente fructífera si los bloques de tiras
coinciden con alguna característica física del campo, como las "tierras" de
Ploughman, que a menudo producen una periodicidad característica en la
fertilidad debido a las variaciones en la profundidad del suelo, el drenaje y
tales factores. .

En resumen: se deben evitar los arreglos sistemáticos de las parcelas en las


pruebas de campo, ya que con estas generalmente es posible estimar el error
experimental de varias maneras diferentes, dando resultados muy diferentes,
cada una dependiendo de una serie de suposiciones en cuanto a la distribución
de fertilidad natural, que puede o no estar justificada. Con aleatorio sin
restricciones [p. 232] disposición de las parcelas el error experimental, aunque
estimado con precisión, será generalmente innecesariamente grande. En un
experimento bien planificado, se pueden imponer ciertas restricciones sobre la
disposición aleatoria de las parcelas de tal manera que el error experimental
aún pueda estimarse con precisión, mientras que la mayor parte de la
influencia de la heterogeneidad del suelo puede eliminarse.

Cabe señalar que cuando, mediante un método mejorado de organización de


las parcelas, podemos reducir el error estándar a la mitad, el valor del
experimento se incrementa al menos cuatro veces; porque solo repitiendo el
experimento cuatro veces en su forma original podría lograrse la misma
precisión. Este argumento realmente subestima la preponderancia en el valor
científico de los experimentos más precisos, ya que, en el trabajo de parcelas
agrícolas, el experimento no puede repetirse en condiciones climáticas y de
suelo idénticas.
FUENTES UTILIZADAS PARA DATOS Y MÉTODOS

JW BISPHAM (1923). Determinación experimental de la distribución del


coeficiente de correlación parcial en muestras de treinta. Metron, ii. 684-696.

J. BLAKEMAN (1905). En pruebas de linealidad de regresión en


distribuciones de frecuencia. Biometrika, iv. 332. ·

JT ROTTOMLEY. Tablas matemáticas de cuatro cifras. Macmillan y Co.

M. BRISTOL-ROACH (1925). Sobre la relación de ciertas algas de suelo a


algunos compuestos orgánicos solubles. Ana. Bot., Xxxix.

J. BURGESS (1895). En la integral definida, etc. Trans. Roy Soc. Edin.,


Xxxix. 257-321.

WP ELDERTON (1902). Tablas para probar la bondad de ajuste de la teoría a


la observación. Biometrika, i. 155. ·

RA FISHER (1921). Sobre los fundamentos matemáticos de la estadística


teórica. Phil Trans., A. ccxxii. 309-368.

RA FISHER (1921). Un examen de la producción de grano vestido de


Broadbalk. Revista de Ciencias Agrícolas, xi. 107-135.

R, A. FISHER (1921). En el "error probable" de un coeficiente de correlación


deducido de una pequeña muestra. Metron, yo. pt. 4, 1-32.

RA FISHER (1922). Sobre la interpretación de 2 de las tablas de


contingencia y sobre el cálculo de P. Journal de la Royal Statistical Society,
lxxxv. 81-94.

RA FISHER (1922). La bondad de ajuste de la fórmula de regresión y la


distribución de los coeficientes de regresión. Revista de la Royal Statistical
Society, lxxxv. 597-612.

RA FISHER, HG THORNTON y WA MACKENZIE (1922). La precisión del


método de colocación de placas para estimar la densidad de las poblaciones
bacterianas. Anales de biología aplicada, ix. 325-359. [pag. 234] ·

RA FISHER y WA MACKENZIE (1923). La respuesta manurial de


diferentes variedades de papa. Revista de Ciencias Agrícolas, xiii. 311-320.
RA FISHER (1924). La distribución del coeficiente de correlación
parcial. Metron, iii. 329-332. ·

RA FISHER (1924). Las condiciones bajo las cuales 2 mide la discrepancia
entre la observación y la hipótesis. Revista de la Royal Statistical Society,
lxxxvii. 442-449.

RA FISHER (1924). La influencia de la lluvia sobre el rendimiento de trigo en


Rothamsted. Phil Trans., B. ccxiii. 89-142.

JGH FREW (1924). En Chlorops Tœniopus Meig. (La mosca de la gota de la


cebada.) Annals of Applied Biology, xi. 175-219.

GEISSLER (1889). Beiträge zur Frage des Geschlechts verhältnisses der


Geborenen. Zeitschift des K. Sachsischen Statistischen Bureaus.

JWL GLAISHER (1871). En una clase de integrales definidas. Phil Mag.,


Serie IV. xlii 421-436.

M. GREENWOOD y GU YULE (1915) Las estadísticas de las inoculaciones


antitifoideas y anticolóricas, y la interpretación de dichas estadísticas en
general. Pro. Roy Segundo. Medicina; Sección de epidemiología y medicina
estatal, viii. 113. ·

RP GREGORY, D. DE WINTON, y W. BATESON (1923). Genética de la


prímula sinensis. Diario de Genética, xiii. 219-253.

W. HALL. Tablas de cuatro cifras y constantes.

JA HARRIS (1916). Una aportación al problema de la homotosis. Biometrika,


xi. 201-214.

AH HERSH (1924). Los efectos de la temperatura sobre los heterocigotos en


la serie de barras de Drosophila. Revista de zoología experimental, xxxix. 55-
71. ·

JS HUXLEY (1923). Más datos sobre el enlace en Gammarus Chevreuxi y su


relación con la citología. British Journal of Exp. Biología, i. 79-96.

TLKELLEY (1923). Método estadístico. Macmillan y Co.

"Las matemáticas" (1924). Estudio estadístico sobre el efecto del abono en la


infestación de la cebada por la mosca de la gota. Anales de biología aplicada,
xi. 220-235.
BM MERCER y AD HALL (1911). El error experimental de los ensayos de
campo. Revista de Ciencias Agrícolas, iv. 107-132.

JR MINER (1922). Tablas de [sqrt] 1- r 2 y 1- r 2 . Johns Hopkins Press,


Baltimore. [pag. 235]

AA MUMFORD y M. YOUNG (1923). Las interrelaciones de las medidas


físicas y la capacidad vital. Biometrika, xv. 109-133. ·

K. PEARSON (1900). En el criterio de que un sistema dado de desviaciones


de las probables en el caso de un sistema correlacionado de variables es tal
que se puede suponer razonablemente que surgió de un muestreo
aleatorio. Phil Mag., Serie V. 1. 157-175.

K. PEARSON y A. LEE (1903). Herencia de personajes físicos. Biometrika,


ii. 357-462.

K. PEARSON (1922). Tablas de la función  incompleta . Oficina de


papelería.

N. SHAW (1922). El aire y sus caminos. Prensa de la Universidad de


Cambridge.

WF SHEPPARD (1907) Tabla de desviaciones de la curva


normal. Biometrika, v. 404-406.

"Estudiante" (1907). Sobre el error de contar con un


hemocitómetro. Biometrika, v. 351-360.

"Estudiante" (1908). El probable error de una media. Biometrika, vi. 1-25. ·

"Student" (1917) Tablas para estimar la probabilidad de que la media de una


muestra única de observaciones se encuentre entre - [infinito] y cualquier
distancia dada de la media de la población de la cual se extrae la
muestra. Biometrika, xi. 414-417. ·

JF TOCHER (1908). Encuesta de pigmentación de escolares en


Escocia. Biometrika, vi. 129-235.

GU YULE (1917). Una introducción a la teoría de la estadística. C. Griffin


and Co., Londres.

GU YULE (I923). Sobre la aplicación del método 2 a las tablas de


asociación y contingencia, con ilustraciones experimentales. Revista de la
Royal Statistical Society, lxxxv. 95-104.

You might also like