You are on page 1of 65

NORMA TÉCNICA NTC

COLOMBIANA 2062-1

2008-05-28

ESTADÍSTICA.
VOCABULARIO Y SÍMBOLOS.
PARTE 1: TÉRMINOS ESTADÍSTICOS GENERALES Y
TÉRMINOS UTILIZADOS EN EL CÁLCULO DE
PROBABILIDADES

E: STATISTICS. VOCABULARY AND SYMBOLS. PART 1:


GENERAL STATISTIC TERMS AND TERMS USED IN
PROBABILITY.

CORRESPONDENCIA: esta norma es idéntica por traducción


(IDT) de la ISO 3534-1:2006.

DESCRIPTORES: estadística - vocabulario; estadística -


terminología; estadística - probabilidad.

I.C.S.: 03.120.30

Editada por el Instituto Colombiano de Normas Técnicas y Certificación (ICONTEC)


Apartado 14237 Bogotá, D.C. - Tel. (571) 6078888 - Fax (571) 2221435

Prohibida su reproducción Segunda actualización


Editada 2008-06-10
PRÓLOGO

El Instituto Colombiano de Normas Técnicas y Certificación, ICONTEC, es el organismo


nacional de normalización, según el Decreto 2269 de 1993.

ICONTEC es una entidad de carácter privado, sin ánimo de lucro, cuya Misión es fundamental
para brindar soporte y desarrollo al productor y protección al consumidor. Colabora con el
sector gubernamental y apoya al sector privado del país, para lograr ventajas competitivas en
los mercados interno y externo.

La representación de todos los sectores involucrados en el proceso de Normalización Técnica


está garantizada por los Comités Técnicos y el período de Consulta Pública, este último
caracterizado por la participación del público en general.

La NTC 2062-1 (Segunda actualización) fue ratificada por el Consejo Directivo de 2008-05-28.

Esta norma está sujeta a ser actualizada permanentemente con el objeto de que responda en
todo momento a las necesidades y exigencias actuales.

A continuación se relacionan las empresas que colaboraron en el estudio de esta norma a


través de su participación en el Comité Técnico 4 Aplicación de métodos estadísticos.

CHALLENGER S.A. INDUSTRIA DE ALIMENTOS ZENÚ S.A.


COMPAÑÍA COLOMBIANA DE CERÁMICAS INDUSTRIAS HUMCAR LTDA.
S.A. -COLCERÁMICA- SIKA COLOMBIA S.A.
COMPAÑÍA NACIONAL DE CHOCOLATES S.A. UNIVERSIDAD PEDAGÓGICA NACIONAL
GLOBAL PLASTIK S.A.

Además de las anteriores, en Consulta Pública el Proyecto se puso a consideración de las


siguientes empresas:

ACERÍAS DE CALDAS S.A. -ACASA- CENTRO TECNOLÓGICO PARA LAS


ACERÍAS PAZ DEL RÍO S.A. INDUSTRIAS DEL CALZADO, CUERO Y
ALPINA PRODUCTOS ALIMENTICIOS S.A. AFINES -CEINNOVA-
ALMACENAMIENTO Y TRANSPORTE CEMENTOS DEL VALLE S.A.
ESPECIALIZADO LTDA. -ALTE LTDA- CODENSA S.A. ESP
ANHÍDRIDOS Y DERIVADOS DE COLOMBIA COLOMBIANA DE AUTO PARTES S.A.
S.A. -ANDERCOL- COLOMBIANA DE EXTRUSIÓN S.A.
ASEO TÉCNICO S.A. -EXTRUCOL-
ASOCOLCAUCHOS COMPAÑÍA COLOMBIANA DE TABACO S.A.
ASOCRETO -COLTABACO-
ATLANTIC MINERALS AND PRODUCTS COMPAÑÍA DE GALLETAS NOEL S.A.
CORPORATION COMPAÑÍA NACIONAL DE LEVADURAS
ATOFINA COLOMBIA S.A. -LEVAPÁN S.A.-
BAVARIA S.A. CONCONCRETO S.A.
CABLES DE ENERGÍA Y DE CORPACERO- CORPORACIÓN DE ACERO
TELECOMUNICACIONES S.A. -CENTELSA- COTECMAR - CORPORACIÓN DE CIENCIA Y
CALZADO ATLAS S.A. TECNOLOGÍA PARA EL DESARROLLO DE LA
CARBOQUÍMICA S.A. INDUSTRIA NAVAL, MARÍTIMA Y FLUVIAL
CRISTALERÍA PELDAR S.A. LARKIN LTDA.
CYGA LHAURAVET LTDA.
DOCTOR CALDERÓN ASISTENCIA TÉCNICA MATRICES, TROQUELES Y MOLDES CÍA
AGRÍCOLA LTDA. LTDA.
EMPRESA COLOMBIANA DE PETRÓLEOS MERCADEO DE ALIMENTOS DE
S.A.-ECOPETROL- COLOMBIA S.A. -MEALS S.A.-
ECSI S.A. METALÚRGICA CONSTRUCEL COLOMBIA
EDITORIAL VOLUNTAD S.A. S.A. -METACOL-
ELECTROMANUFACTURAS S.A. MINERALES INDUSTRIALES S.A.
ELGMA SISTEMAS DE COLOMBIA LTDA- MOLINO EL LOBO LTDA
EMPRESA DE ACUEDUCTO Y MONÓMEROS COLOMBO VENEZOLANOS
ALCANTARILLADO DE BOGOTÁ ESP E.M.A.
EMPRESAS PÚBLICAS DE MEDELLÍN NUTRIANÁLISIS LTDA.
S.A. ESP PAPELERÍA MÓNACO LTDA.
ENZIPAN DE COLOMBIA LTDA. PARABOR COLOMBIA LTDA.
ESCOBAR Y MARTÍNEZ S.A. PETROQUÍMICA COLOMBIANA S.A.
ESCUELA COLOMBIANA DE INGENIERÍA POSTOBÓN S.A.
ETERNA S.A. PRODUCTORES DE ENVASES
EXXON MÓBIL DE COLOMBIA S.A. FARMACÉUTICOS S.A. -PROENFAR-
FINCA S.A. PROFICOL S.A.
FRIGORÍFICO GUADALUPE S.A. QUIMIA LTDA.
FRIGORÍFICO SUIZO S.A. RAZA S.A.
FUNDACIÓN CENTRO DE CALIDAD Y RENTASISTEMAS LTDA.
METROLOGÍA RONELLY S.A.
GAS NATURAL S.A. ESP SCHNEIDER ELECTRIC DE COLOMBIA S.A.
INALCEC - CORPORACIÓN INSTITUTO SENA CENTRO NACIONAL TEXTIL
NACIONAL DE CONSULTORÍA EN CALIDAD SENA CENTRO NACIONAL DE LA MADERA
INDEPENDIENTE – FERNANDO ÁNGEL SENA REGIONAL BOGOTÁ
INDEPENDIENTE – HERNÁN DARÍO ÁLZATE SIEMENS S.A.
INDEPENDIENTE – JAIRO ÁNGEL SOCIEDAD DE ACUEDUCTO
INDEPENDIENTE – JULIO GARCÍA SAMPEDRO ALCANTARILLADO Y ASEO DE B/QUILLA
INDUSTRIA COLOMBIANA DE E.S.P. - TRIPLE A
ELECTRÓNICOS Y ELECTRODOMÉSTICOS SYNGENTA S.A.
S.A. -INCELT S.A.- TECNOLOGÍA EMPRESARIAL DE
INDUSTRIA COLOMBIANA DE LLANTAS ALIMENTOS S.A.
S.A. -ICOLLANTAS- THOMAS GREG & SONS DE COLOMBIA
INDUSTRIA FARMACÉUTICA SYNTOFARMA S.A. – IMPRESOR DE VALORES
S.A. TRANSPORTES VIGÍA S.A.
INDUSTRIAS ALIADAS S.A. UNIVERSIDAD DE ANTIOQUIA
INGENIERÍA DE DESARROLLO Y UNIVERSIDAD DE BOYACÁ -UNIBOYACÁ-
TECNOLOGÍA -IDT LTDA- UNIVERSIDAD DEL VALLE
INGENIO PICHICHÍ S.A. UNIVERSIDAD JORGE TADEO LOZANO
INSTITUTO COLOMBIANO AGROPECUARIO UNIVERSIDAD MANUELA BELTRÁN
-ICA- UNIVERSIDAD NACIONAL DE COLOMBIA
INSTITUTO COLOMBIANO DE SEDE-MEDELLIN
PRODUCTORES DE CEMENTO -ICPC- UNIVERSIDAD NACIONAL DE COLOMBIA,
INSTITUTO NACIONAL DE SALUD -INS- BOGOTÁ - REVISTA COLOMBIANA DE
INVESA S.A. ESTADÍSTICA
IVONNE BERNIER LABORATORIO LTDA
ICONTEC cuenta con un Centro de Información que pone a disposición de los interesados
normas internacionales, regionales y nacionales y otros documentos relacionados.

DIRECCIÓN DE NORMALIZACIÓN
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

CONTENIDO

Página

0. INTRODUCCIÓN ..........................................................................................................1

1. OBJETO .......................................................................................................................2

2. TÉRMINOS ESTADÍSTICOS GENERALES ................................................................2

3. TÉRMINOS USADOS EN PROBABILIDAD ..............................................................20

DOCUMENTO DE REFERENCIA..........................................................................................60

ANEXOS

ANEXO A (Informativo)
SÍMBOLOS.............................................................................................................................45

ANEXO B (Informativo)
DIAGRAMA DE CONCEPTOS ESTADÍSTICOS...................................................................46

ANEXO C (Informativo)
DIAGRAMA DE CONCEPTOS DE PROBABILIDAD............................................................52

ANEXO D (Informativo)
METODOLOGÍA USADA EN EL DESARROLLO DEL VOCABULARIO .............................56

TABLAS

Tabla 1. Resultados para el ejemplo 1..................................................................................9

Tabla 2. Ejemplo de distribución binomial.........................................................................26

Tabla 3. Ejemplo de distribución normal estandarizada...................................................26

Tabla 4. Ejemplo de distribución hipergeométrica............................................................37


NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

ESTADÍSTICA.
VOCABULARIO Y SÍMBOLOS.
PARTE 1: TÉRMINOS ESTADÍSTICOS GENERALES Y TÉRMINOS
UTILIZADOS EN EL CÁLCULO DE PROBABILIDADES

0. INTRODUCCIÓN

Las versiones vigentes de la NTC 2062-1 (ISO 3534-1) y de la NTC 2062-2 (ISO 3534-2) están
propuestas para ser compatibles. Ellas comparten el objetivo común de restringir sus niveles
matemáticos respectivos a los mínimos necesarios para alcanzar definiciones concisas,
coherentes y correctas. La Parte 1 sobre los términos usados en probabilidad y estadística es
fundamental, también por necesidad, que esté presentada en un nivel matemático un poco
complejo. Reconociendo que los usuarios de la NTC 2062-2 (ISO 3534-2) o de otras
normas de estadística aplicada pueden consultar ocasionalmente esta primera parte de la
NTC 2062 (ISO 3534) para la definición de ciertos términos, algunos de éstos son descritos de
una manera menos técnica en las notas y son ilustrados con ejemplos. Aunque estas
descripciones informales no substituyen las definiciones formales, pueden suministrar una
definición técnica de conceptos para un principiante, sirviendo a las necesidades de los
múltiples usuarios de estas normas de terminología. Para hacer esta primera parte de la
NTC 2062 (ISO 3534) más accesible al usuario aplicado, quien normalmente estaría
involucrado con normas tales como la NTC 2062-2 (ISO 3534-2) o la serie NTC 3529 (ISO 5725), se
ofrecen, por ejemplo, notas y ejemplos adicionales.

Para el desarrollo y uso efectivo de normas de estadística es esencial una serie bien definida y
razonablemente completa de términos de probabilidad y estadística. Las definiciones
suministradas aquí deben ser suficientemente precisas y de complejidad matemática para que
los desarrolladores de normas de estadística sean capaces de evitar ambigüedades. De hecho,
se pueden encontrar en libros de texto de estadística y de probabilidad explicaciones más
detalladas de conceptos, de sus contextos y de sus campos de aplicación.

En un anexo informativo se suministran los diagramas de concepto para cada grupo de términos: 1)
términos estadísticos generales (en el Anexo B), y 2) términos usados en probabilidad (en el Anexo C).
Hay seis diagramas de concepto para términos estadísticos y cuatro diagramas de concepto para
términos relacionados con probabilidad. Algunos términos aparecen en diagramas múltiples que
suministran una relación entre una serie y otra de conceptos. El Anexo D suministra una introducción
breve sobre los Diagramas de Concepto y su interpretación.

Estos diagramas fueron herramientas en la construcción de esta revisión ya que ayudaron en el


delineamiento de las interrelaciones de varios términos. Estos diagramas son también útiles en
la traducción de la norma a otros idiomas.

1 de 60
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Como comentario general con respecto a gran parte de la norma, a menos que se indique de
otra manera, las definiciones relacionan el caso unidimensional (de una variable). Se admite
esta disposición para eliminar la necesidad de mencionar repetitivamente el objeto
unidimensional para la mayoría de las definiciones.

1. OBJETO

Esta norma define términos estadísticos generales y términos usados en el cálculo de


probabilidades, que se pueden usar para la redacción de otras normas. Además, define los
símbolos para un número limitado de estos términos.

Los términos están clasificados bajo los siguientes títulos:

- Términos estadísticos generales (véase el numeral 2).

- Términos usados en cálculo de probabilidades (véase el numeral 3).

El Anexo A suministra una lista de símbolos y abreviaturas recomendados para uso con esta
norma.

Las entradas de esta primera parte de la NTC 2062 (ISO 3534) están organizadas en asociación
con los diagramas de conceptos presentados en los Anexos B y C.

2. TÉRMINOS ESTADÍSTICOS GENERALES

2.1 Población (Population). Totalidad de los elementos bajo consideración.

NOTA 1 Una población puede ser real y finita, real e infinita o completamente hipotética. Algunas veces el término
"población finita", especialmente en muestreo de muestreo por encuestas. Igualmente, el término "población infinita"
se usa en el contexto de muestreo continuo. En el numeral 2 la población se considerará en un contexto
probabilístico como el espacio muestral (véase el numeral 3.1).

NOTA 2 Una población hipotética permite imaginar la naturaleza de datos futuros con base en diferentes hipótesis.
En consecuencia, las poblaciones hipotéticas son útiles en la etapa de diseño de las investigaciones estadísticas,
particularmente para determinar tamaños de muestra apropiados. Una población hipotética puede tener un número
finito o infinito. Es un concepto particularmente útil en estadística inferencial para ayudar a evaluar la solidez de la
evidencia en una investigación estadística.

NOTA 3 El contexto de una investigación puede determinar la naturaleza de la población. Por ejemplo, si se
seleccionan tres poblaciones para un estudio demográfico o de salud, entonces la población consiste en los
residentes de estos poblaciones en particular. Como alternativa, si las tres poblaciones fueron seleccionadas
aleatoriamente de los poblaciones de una región específica, entonces la población estaría compuesta de todos los
residentes de la región.

2.2 Unidad de muestreo (Sampling Unit). Una de las partes individuales en las que está
dividida una población (véase el numeral 2.1).

NOTA Dependiendo de las circunstancias, la parte de interés más pequeña puede ser un individuo, una familia, un
distrito escolar, una unidad administrativa, etc.

2.3 Muestra (Sample). Subconjunto de una población (véase el numeral 2.1) compuesto de
una o más unidades de muestreo (véase el numeral 2.2).

NOTA 1 Las unidades de muestreo pueden ser elementos, valores numéricos o incluso entidades abstractas que
dependen de la población de interés.

2
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 2 La definición de muestra de la NTC 2062-2 (ISO 3534-2) incluye un ejemplo de base de muestreo que es
esencial al tomar una muestra aleatoria de una población finita.

2.4 Valor observado (Observed Value). Valor obtenido de una propiedad asociada con un
elemento de una muestra (véase el numeral 2.3).

NOTA 1 Los sinónimos comunes son "resultado" y "dato".

NOTA 2 La definición no especifica el origen ni la forma en la que se ha obtenido este valor. El valor puede
representar un resultado de una variable aleatoria (véase el numeral 2.10), pero no de manera exclusiva. Puede
ser uno de varios de estos valores que serán sometidos posteriormente a análisis estadístico. Aunque las inferencias
apropiadas requieren alguna sustentación estadística, no hay nada que impida elaborar resúmenes o descripciones
gráficas de los valores observados. Sólo en el caso de aspectos concomitantes, tales como la determinación de la
probabilidad de observar un conjunto específico de realizaciones, los mecanismos estadísticos llegan a ser tanto
pertinentes como esenciales. La etapa preliminar de un análisis de valores observados se denomina comúnmente
análisis de datos.

2.5 Estadística descriptiva (Descriptive Statistics). Descripción gráfica, numérica u otro


análisis de síntesis de los valores observados (véase el numeral 2.4).

EJEMPLO 1 Los resúmenes numéricos incluyen el promedio (véase el numeral 2.15), rango (véase el numeral 2.10),
desviación estándar de la muestra (véase el numeral 2.17), entre otros.

EJEMPLO 2 Los ejemplos de resúmenes gráficos incluyen gráficos de cajas, diagramas, gráficos Q-Q, diagramas
de cuantila normal, diagramas de dispersión múltiple e histogramas.

2.6 Muestra aleatoria (Random Sample). Muestra (véase el numeral 2.3) que ha sido seleccionada
usando un método de selección aleatoria.

NOTA 1 Esta definición es menos limitante que la presentada en la NTC 2062-2 (ISO 3534-2) y prevé poblaciones
infinitas.

NOTA 2 Cuando la muestra de n unidades de muestreo se selecciona de un espacio muestral (véase el numeral 2.1)
finito, cada uno de cuyas combinaciones posibles de n unidades de muestreo tendrá una probabilidad particular (véase el
numeral 3.5) de ser tomada. Para los planes de muestreo por encuesta, la probabilidad particular para cada combinación
posible se puede calcular por adelantado.

NOTA 3 Para muestreo por encuesta de un espacio muestral finito, se puede seleccionar una muestra aleatoria
mediante diferentes planes de muestreo tales como muestreo aleatorio estratificado, muestreo aleatorio sistemático,
muestreo por etapas múltiples, muestreo con probabilidad de muestreo proporcional al tamaño de una variable
auxiliar y muchas otras posibilidades.

NOTA 4 La definición generalmente hace referencia a valores observados reales (véase el numeral 2.4). Estos
valores observados se consideran como resultados de variables aleatorias (véase el numeral 2.10), en donde cada
valor observado corresponde a una variable aleatoria. Cuando los estimadores (véase el numeral 2.12), las
estadísticas de ensayo para pruebas estadísticas (véase el numeral 2.48) o intervalos de confianza (véase el
numeral 2.28) se obtienen de una muestra aleatoria, la definición hace referencia a las variables aleatorias que
surgen de entidades abstractas en la muestra, y no a los valores reales observados de estas variables aleatorias.

NOTA 5 Las muestras aleatorias de poblaciones infinitas se generan con frecuencia mediante tomas repetidas del
espacio muestral, lo que conduce a una muestra compuesta de variables aleatorias distribuidas en forma idéntica
usando la interpretación de esta definición mencionada en la Nota 4.

2.7 Muestra aleatoria simple (Simple Random Sample). <Población finita> muestra aleatoria
(véase el numeral 2.6), tal que cada subconjunto de un tamaño dado tiene la misma probabilidad
de selección.

NOTA Esta definición concuerda con la definición dada en la NTC 2062-2 (ISO 3534-2), aunque la redacción aquí
es ligeramente diferente.

3
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2.8 Estadístico (Statistic). Función completamente especificada de variables aleatorias


(véase el numeral 3.10).

NOTA 1 Un estadístico es una función con variables aleatorias en una muestra aleatoria (véase el numeral 2.6),
en el sentido indicado en la Nota 4 del numeral 2.6.

NOTA 2 Con referencia a la Nota 1, si {X1, X2, ..., Xn} es una muestra aleatoria de una distribución normal (véase
el numeral 3.50) con una media desconocida (véase el numeral 3.35) µ y la desviación estándar desconocida
(véase el numeral 3.37) σ, entonces la expresión (X1 +, X2 + ... + Xn)/n es una función estadística, la media de la
muestra (véase el numeral 2.15), mientras que [(X1 + X2, .+.., Xn)/n] - µ no es un estadístico, ya que involucra el valor
desconocido del parámetro (véase el numeral 3.9) μ.

NOTA 3 La definición dada aquí es técnica, corresponde al tratamiento encontrado en estadística matemática.
En aplicaciones, la palabra estadística puede hacer referencia a la disciplina técnica que involucra las actividades de
análisis descritas en las normas internacionales del comité ISO/TC 69.

2.9 Estadístico de orden (Order Statistic). Estadístico (véase el numeral 2.8) determinado por su
jerarquización en un orden no decreciente de variables aleatorias (véase el numeral 3.10).

EJEMPLO Sean los valores observados de una muestra 9, 13, 7, 6, 13, 7, 19, 6, 10 y 7. Los valores observados del
estadístico de orden son 6, 6, 7, 7, 7, 9, 10, 13, 13, 19. Estos valores constituyen resultados de X(1) a X(10).

NOTA 1 Sean los valores observados (véase el numeral 2.4) de una muestra aleatoria (véase el numeral 2.6) {X1,
X2, ..., Xn}, clasificados en un orden no decreciente designado como x(1) ≤ ... ≤ x(k) ... ≤ x(n). Entonces (x(1)… , x(k), ... x(n) ) es el
valor observado del estadístico de orden (X(1), ... X(k), ..., X(nk) ) y x(k) es el valor observado de la estadística de orden (X(1), ... ,
X(k), ..., X(n) y x(k) es el valor observado del estadístico de orden késimo.

NOTA 2 En términos prácticos, el estadístico de orden para un conjunto de datos se obtiene ordenando los datos
como se describe formalmente en la Nota 1. La forma ordenada del conjunto de datos permite obtener estadísticas
resumidas útiles como se describe en las siguientes definiciones.

NOTA 3 Los estadísticos de orden involucran valores de muestra identificados por su posición después de
jerarquizar en orden no decreciente. Como en el ejemplo, es más fácil entender la clasificación de los valores de
muestra (resultados de variables aleatorias) que la clasificación de las variables aleatorias no observadas. Sin
embargo, es posible concebir variables aleatorias de una muestra aleatoria (véase el numeral 2.6), dispuestas en
un orden no decreciente. Por ejemplo, el máximo de n variables aleatorias se puede estudiar antes de su valor
resultante.

NOTA 4 Un estadístico de orden individual es un estadístico que es una función completamente especificada de
una variable aleatoria. Esta función es simplemente la función de identidad con la identificación de la posición o
rango en el conjunto ordenado de variables aleatorias.

NOTA 5 Los valores ligados presentan un problema potencial, especialmente para variables discretas aleatorias y
para resultados que se expresan con una resolución baja. La palabra "no decreciente" se usa en vez de
"ascendente" como un enfoque sutil del problema. Se debe enfatizar que los valores ligados se conservan y no se
agrupan en un solo valor ligado. En el ejemplo anterior, los dos resultados de 6 y 6 son valores ligados.

NOTA 6 El ordenamiento ocurre con referencia a la línea real y no a los valores absolutos de las variables
aleatorias.

NOTA 7 El conjunto completo de estadísticos de orden consta de una variable aleatoria dimensional n, en donde n
es el número de observaciones en la muestra.

NOTA 8 Los componentes del estadístico de orden también se designan como estadísticos de orden, pero con un
calificativo que da el número de la secuencia de los valores ordenados de la muestra.

NOTA 9 El tamaño mínimo de muestra, el máximo, y para los tamaños de muestra impares, la mediana de la
muestra (véase el numeral 2.13), son casos especiales de estadísticos de orden. Por ejemplo, para un tamaño de
muestra 11, X(1) es el mínimo, X(11) es el máximo y X(6) es la mediana de la muestra.

2.10 Rango de la muestra (Sample Range). El mayor estadístico de orden (véase el numeral 2.9)
menos el estadístico de menor orden.

EJEMPLO Retomando el ejemplo del numeral 2.9, el rango de la muestra observado es 19 - 6 = 13.
4
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA En control estadístico de procesos, el rango de la muestra se usa con frecuencia para monitorear la
dispersión durante el tiempo de un proceso, particularmente cuando los tamaños de muestra son relativamente
pequeños.

2.11 Rango medio (Mid-Range). Promedio (véase el numeral 2.15) de los estadísticos de
orden (véase el numeral 2.9) menor y mayor.

EJEMPLO El rango medio observado para los valores del ejemplo en 2.9 es (6 + 19)/2 = 12,5.

NOTA El rango medio brinda una evaluación rápida y simple de la mitad de un pequeño conjunto de datos.

2.12 Estimador (Estimator) θ . Estadístico (véase el numeral 2.8) usado en la estimación
(véase el numeral 2.36) del parámetro θ.

NOTA 1 Un estimador puede ser la media de la muestra (véase el numeral 2.15) prevista para estimar la media
de la población (véase el numeral 3.35), que se puede denotar mediante µ. Para una distribución (véase el numeral 2.11)
tal como la distribución normal (véase el numeral 2.50), el estimador "natural" de la media de la población µ es la media
de la muestra.

NOTA 2 Para estimar una propiedad de la población [por ejemplo, la moda (véase el numeral 2.27) para una
distribución con una variable (véase el numeral 2.16)], un estimador apropiado puede estar en función del (los)
estimador(es) del (los) parámetro(s) de una distribución o pueden ser una función compleja de una muestra
aleatoria (véase el numeral 2.6).

NOTA 3 El término "estimador" se usa aquí en un sentido amplio. Incluye el estimador puntual de un parámetro, al
igual que el estimador por intervalos, utilizado eventualmente para predicción (algunas veces se denomina
predictor). El estimador también puede incluir funciones tales como los estimadores tipo núcleo y otras funciones
estadísticas con propósito especial. En las notas del numeral 2.36 se suministran comentarios adicionales.

2.13 Mediana de la muestra (Sample Median). Estadístico de orden [(n+1)/2]-ésimo (véase el


numeral 2.9) si el tamaño de la muestra (véase la NTC 2062-2 (ISO 3534-2), numeral 2.2.26) n es
impar; la suma del estadístico de orden (n/2)-ésimo y [(n/2) + 1]-ésimo dividido por 2, si el tamaño de
la muestra n es par.

EJEMPLO Continuando con el ejemplo del numeral 2.9, el valor de 8 es el resultado de la mediana de la muestra.
En este caso (tamaño de muestra par de 10), los valores quinto y sexto fueron 7 y 9, cuyo promedio es igual a 8. En
la práctica, esto se reportaría como "la mediana de la muestra es 8", aunque estrictamente hablando, la mediana de
la muestra se define como una variable aleatoria.

NOTA 1 Para una muestra aleatoria (véase el numeral 2.6) de tamaño de muestra n cuyas variables aleatorias
(numeral 2.10) están dispuestas en orden no descendente desde 1 hasta n, la mediana de la muestra es la variable
aleatoria (n+1)/2-ésima si el tamaño de la muestra es impar. Si el tamaño de la muestra n es par, entonces la
mediana de la muestra es el promedio de las variables aleatorias (n/2)-ésima y (n+1)/2-ésima.

NOTA 2 Conceptualmente, puede parecer imposible realizar un ordenamiento de variables aleatorias que no han
sido observadas aún. No obstante, la estructura para comprender los estadísticos de orden se puede establecer de
manera que al llevar a cabo la observación es posible realizar el análisis. En la práctica se obtienen los valores
observados y mediante la clasificación de los valores se obtienen los resultados del estadístico de orden. Estos
resultados se pueden interpretar entonces a partir de la estructura de los estadísticos de orden de una muestra
aleatoria.

NOTA 3 La mediana de la muestra suministra un estimador de la mitad de una distribución, con la mitad de la
muestra a cada lado de ella.

NOTA 4 En la práctica, la mediana de la muestra es útil para brindar un estimador que sea insensible a valores
muy extremos en un conjunto de datos. Por ejemplo, los ingresos medianos y los precios medianos de las viviendas
se reportan con frecuencia como valores resumidos.

2.14 Momento de la muestra de orden k (Sample Moment of Order k). E(Xk). Suma de la
potencia késima de las variables aleatorias (véase el numeral 2.10) en una muestra aleatoria
(véase el numeral 2.6) dividida por el número de observaciones en la muestra (véase el
numeral 2.3).

5
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 Para una muestra aleatoria del tamaño de la muestra n, es decir, {X1, X2,... Xn}, el momento de la muestra
k
de orden k, E(X ) es

1 n K
∑ Xi
n i =1

NOTA 2 Además, este concepto se puede describir como el momento de la muestra de orden k en relación con
cero.

NOTA 3 El momento de la muestra de orden 1 se verá en la definición siguiente como la media de la muestra
(véase el numeral 2.15).

NOTA 4 Aunque la definición se da para k arbitrario, los ejemplos usados comúnmente en la práctica involucran a
k = 1 [media de la muestra (véase el numeral 2.15)], k= 2 [asociado con la varianza de la muestra] (véase el
numeral 2.16) y la desviación estándar de la muestra (véase el numeral 2.17)], k= 3 (relacionado con el
coeficiente de asimetría de la muestra (véase el numeral 2.20)] y k = 4 [relacionado con el coeficiente de
curtosis de la muestra (véase el numeral 2.21)].

NOTA 5 La "E" en E (Xk) proviene del "valor esperado" o "expectativa" de la variable aleatoria X.

2.15 Media de la muestra, promedio, media aritmética (Sample Mean, Average, Arithmetic
Mean). Suma de las variables aleatorias (véase el numeral 3.10) en una muestra aleatoria
(véase el numeral 2.6), dividida por el número de términos de la suma.
EJEMPLO Continuando con el ejemplo del numeral 2.9, el resultado de la media de la muestra es 9,7 ya que la
suma de los valores observados es 97 y el tamaño de la muestra es 10.

NOTA 1 Considerada como un estadístico, la media de la muestra es una función de las variables aleatorias de
una muestra aleatoria en el sentido dado en la Nota 3 del numeral 2.8. Se debe diferenciar este estimador del valor
numérico de la media de la muestra calculada de los valores observados (véase el numeral 2.4) en la muestra
aleatoria.

NOTA 2 La media de la muestra considerada como un estadístico se usa con frecuencia como un estimador de la
media (véase el numeral 3.35) de la población. Un sinónimo común es media aritmética.

NOTA 3 Para una muestra aleatoria de un tamaño de muestra n, es decir, {X1, X2,..., X n}, la media de la muestra es:

1 n K
X ∑X
n i =1 i

NOTA 4 La media de la muestra se puede reconocer como el momento de la muestra de orden 1.

NOTA 5 Para un tamaño de muestra 2, la media de la muestra, la mediana de la muestra (véase el numeral 2.13) y el
rango medio (véase el numeral 2.11) son los mismos.

2.16 Varianza de la muestra (Sample Variance), S2. Suma de las desviaciones al cuadrado de
variables aleatorias (véase el numeral 3.10) en una muestra aleatoria (véase el numeral 2.6)
respecto a su media de la muestra (véase el numeral 2.15), dividida por el número de términos en
la suma, menos uno.

EJEMPLO Continuando con el ejemplo numérico del numeral 2.9, la varianza de la muestra se puede calcular
como 17,57. La suma de los cuadrados en relación con la media de la muestra observada es 158,10 y el tamaño de
la muestra 10 menos 1 es 9, lo que da un denominador apropiado.

NOTA 1 Considerada como un estadístico (véase el numeral 2.8), la varianza de la muestra S2 es una función de las variables
aleatorias de una muestra aleatoria. Es necesario diferenciar este estimador (véase el numeral 2.12) del valor numérico de la
varianza de la muestra calculada de los valores observados (véase el numeral 2.4) en la muestra aleatoria. El valor numérico se
2
denomina varianza empírica de la muestra o varianza observada de la muestra y se designa usualmente por s .


NOTA 2 Para una muestra aleatoria de tamaño de muestra, n, es decir, {X1, X2, ..., Xn,) con la media de la muestra X , la
varianza de la muestra es:
6
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

n −
∑ (X
1
S2 = i − X )2
n −1
i =1

NOTA 3 La varianza de la muestra es una función estadística que es "casi" el promedio de los cuadrados de las
desviaciones de las variables aleatorias (véase el numeral 3.10) respecto a su media de muestra (solo "casi", ya
que n - 1 se usa en vez de n en el denominador). Al utilizar n - 1 se obtiene un estimador sin sesgo (véase el
numeral 2.34) de la varianza de la población (véase el numeral 3.36).

NOTA 4 La cantidad n - 1 se conoce como los grados de libertad (véase el numeral 3.54).

NOTA 5 La varianza de la muestra se puede reconocer como el segundo momento de la muestra de las variables
aleatorias normalizadas de la muestra (véase el numeral 2.19).

2.17 Desviación estándar de la muestra, S. (Sample Standard Deviation, S). Raíz cuadrada
no negativa de la varianza de la muestra (véase el numeral 2.16).

EJEMPLO Continuando con el ejemplo numérico del numeral 2.9, la desviación estándar de la muestra observada
es 4,192, ya que la varianza de la muestra observada es 17,57.

NOTA 1 En la práctica, la desviación estándar de la muestra se usa para estimar la desviación estándar
(véase el numeral 3.37). De nuevo, es conveniente hacer énfasis en que S también es una variable aleatoria (véase
el numeral 3.10) y no un resultado de una muestra aleatoria (véase el numeral 2.6).

NOTA 2 La desviación estándar de la muestra es una medida de la dispersión de una distribución (véase el
numeral 3.11).

2.18 Coeficiente de variación de la muestra (Sample Coefficient of Variation). Desviación


estándar de la muestra (véase el numeral 2.17) dividida por la media de la muestra (véase el
numeral 2.15).

NOTA Al igual que con el coeficiente de variación (véase el numeral 3.38), la utilidad de esta función
estadística está limitada a poblaciones que se valoran positivamente. El coeficiente de variación se reporta
comúnmente como un porcentaje.

2.19 Variable aleatoria normalizada de la muestra (Standardized Sample Random Variable).


Variable aleatoria (véase el numeral 3.10) menos su media de la muestra (véase el
numeral 2.15), dividida por la desviación estándar de la muestra (véase el numeral 2.17).

EJEMPLO Para el ejemplo del numeral 2.9, la media de la muestra observada es 9,7 y la desviación estándar de la
muestra observada es 4,192. En consecuencia, las variables aleatorias normalizadas (a dos lugares decimales) son:
-0,17; 0,79; -0,64; -0,88; 0,79; -0,64; 2,22; - 0,88; 0,07; - 0,62.

NOTA 1 La variable aleatoria normalizada de la muestra se diferencia de su contraparte teórica la variable


aleatoria normalizada (véase el numeral 3.33). La intención de la normalización es transformar variables aleatorias
con el fin de obtener medias iguales a cero y desviaciones estándar unitarias, y facilitar la interpretación y la
comparación.

NOTA 2 Los valores observados normalizados tienen una media observada de cero y una desviación estándar
observada de 1.

2.20 Coeficiente de asimetría de la muestra (Sample Coefficient of Skewness). Media


aritmética de la tercera potencia de las variables aleatorias normalizadas de la muestra
(véase el numeral 2.19) de una muestra aleatoria (véase el numeral 2.6).

EJEMPLO Continuando con el ejemplo del numeral 2.9, el coeficiente de asimetría observado de la muestra se
puede calcular como 0,971 88. Para un tamaño de muestra de 10 en este ejemplo, el coeficiente de asimetría de la
muestra es considerablemente variable, de manera que se debe usar con precaución. Al usar la fórmula alternativa
de la Nota 1, el valor calculado es 1,349 83.

7
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 La fórmula correspondiente a la definición es

3
n ⎛ − ⎞
⎜ Xi − X ⎟

1
⎜ ⎟
n ⎜ S ⎟
i =1 ⎝ ⎠

Algunos paquetes estadísticos utilizan la siguiente fórmula para el coeficiente de asimetría de


la muestra para corregir el sesgo (véase el numeral 2.33):

∑Z
n 3
i
( n − 1) ( n − 2 )
i =1

en donde


Xi − X
Zi =
S

Para una muestra tamaño grande, la diferencia entre los dos estimados es insignificante. La
relación del estimado sin sesgo al estimado con sesgo es 1,389 para n = 10, 1,031 para n = 100 y
1,003 para n = 1 000.

NOTA 2 Asimetría designa la falta de simetría. Los valores de esta función estadística cercanos a cero sugieren
que la distribución subyacente es aproximadamente simétrica, mientras que los valores diferentes de cero
corresponderían a una distribución con valores extremos ocasionales a un lado del centro de la distribución. Los
datos asimétricos también se reflejarían en valores de la media de la muestra (véase el numeral 2.15) y la mediana
de la muestra (véase el numeral 2.13) que son distintos. Los datos con asimetría positiva (asimetría hacia la
derecha) indican la presencia posible de algunos valores extremos altos. En forma similar, los datos con asimetría
negativa (asimetría a la izquierda) indican la presencia posible de algunos valores extremos bajos.

NOTA 3 El coeficiente de asimetría de la muestra se puede reconocer como el tercer momento de la muestra de
las variables aleatorias normalizadas de la muestra (véase el numeral 2.19).

2.21 Coeficiente de curtosis de la muestra (Sample Coefficient of Kurtosis). La media


aritmética de la cuarta potencia de las variables aleatorias normalizadas de la muestra
(véase el numeral 2.19) de una muestra aleatoria (véase el numeral 2.6).

EJEMPLO Continuando con el ejemplo del numeral 2.9, el coeficiente de curtosis observado de la muestra se
puede calcular como 2,674 19. Para un tamaño de muestra de 10 en este ejemplo, el coeficiente de curtosis de la
muestra es considerablemente variable, de manera que se debe usar con precaución. Los paquetes estadísticos
usan diversos ajustes para calcular el coeficiente de curtosis de la muestra (véase la Nota 3 del numeral 3.40).
Usando la fórmula alterna dada en la Nota 1, el valor calculado es 0,436 05. Los dos valores 2,674 19 y 0,436 05 no
son comparables directamente. Para hacerlo, tome 2,674 19 - 3 (para relacionarlo con la curtosis de la distribución
normal, que es 3) que es igual a -0,325 81 y ahora se puede comparar apropiadamente con 0,436 05.

NOTA 1 La fórmula correspondiente a la definición es:

4
n ⎛ − ⎞
⎜ Xi − X ⎟

1
⎜ ⎟
n ⎜ S ⎟
i =1 ⎝ ⎠

Algunos paquetes estadísticos usan la fórmula siguiente para el coeficiente de curtosis de la


muestra para hacer la corrección de sesgo (véase el numeral 2.33) y para indicar la desviación
de la curtosis en relación con la distribución normal (que es igual a 3):

8
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

n
n( n + 1) 3 ( n − 1 )2
( n − 1) ( n − 2 ) ( n − 3) ∑
i =1
Z i4 −
( n − 2 ) ( n − 3)

en donde


Xi − X
Zi =
S

El segundo término de la expresión es aproximadamente 3 para un n grande. Algunas veces la


curtosis es reportada como un valor tal como se define en el numeral 3.40, menos 3, para
hacer énfasis en las comparaciones con la distribución normal. Obviamente, el profesional
necesita conocer estos ajustes, si los hay, en los cálculos de paquetes estadísticos.

NOTA 2 La curtosis designa la mayor ponderación de las colas de una distribución (unimodal). Para la
distribución normal (véase el numeral 3.50), el coeficiente de curtosis es aproximadamente 3, sujeto a la
variabilidad de la muestra. En la práctica, la curtosis de la distribución normal brinda un valor de referencia. Las
distribuciones (véase el numeral 3.11) con valores menores de 3 tienen colas con menor ponderación que la
distribución normal; las distribuciones con valores mayores de 3 tienen ponderaciones mayores que la distribución
normal.

NOTA 3 Para los valores de curtosis observados mucho mayores de 3, existe la posibilidad de que la distribución
subyacente tenga colas con ponderación mayor que la distribución normal. Otra posibilidad por investigar es la
presencia de datos atípicos potenciales.

NOTA 4 El coeficiente de curtosis de la muestra se puede reconocer como el cuarto momento de la muestra de las
variables aleatorias centradas de la muestra reducida.

2.22 Covarianza de la muestra, SXY. (Sample Covariance, SXY.). Suma de los productos de las
desviaciones de pares de variables aleatorias (véase el numeral 3.10) en una muestra
aleatoria (véase el numeral 2.6) respecto a su media de la muestra (véase el numeral 2.15),
dividida por el número de términos en la suma, menos uno.

EJEMPLO 1 Sea la representación numérica siguiente utilizando 10 valores observados en tres tripletas de valores.
Para este ejemplo considere solamente x y y.

Tabla 1. Resultados para el Ejemplo 1

i 1 2 3 4 5 6 7 8 9 10
x 38 41 24 60 41 51 58 50 65 33
y 73 74 43 107 65 73 99 72 100 48
z 34 31 40 28 35 28 32 27 27 31

La media de la muestra observada para X es 46,1 y para Y es 75,4. La covarianza de la


muestra es igual a:

[(38 - 46,1) x (73 - 75,4) + (41 - 46,1) x (74 - 75,4) + ...+ (33 - 46,1) x (48 - 75,4)]/9 = 257,178

EJEMPLO 2 En la tabla del ejemplo anterior, considere solamente y y z. La media de la muestra observada para Z
es 31,3. La covarianza de la muestra es igual a:

[(73 - 75,4) x (34 - 31,3) + (74 - 75,4) x (74 - 31,3) + (48 - 75,4) x (31-31,3)]/9 = 54,356

NOTA 1 Considerado como un estadístico (véase el numeral 2.8), la covarianza de la muestra es una función de
pares de variables aleatorias [(X1, Y1), (X2, Y2), ..., (Xn, Yn)] de una muestra aleatoria de tamaño n en el sentido dado
en la Nota 3 del numeral 2.6. Este estimador (2.12) necesita diferenciarse del valor numérico de la covarianza de la
muestra calculada de los pares de valores observados de las unidades de muestra (véase el numeral 2.2) [(x1, y1),
(x2 , y2), ... , (xn, yn)] en la muestra aleatoria. Este valor numérico se denomina covarianza de la muestra empírica o
covarianza de la muestra observada.

9
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 2 La covarianza de la muestra SXY está dada como:


1
( X i − X ) (Y i − Y )
n
i =1

NOTA 3 La utilización de n - 1 proporciona un estimador sin sesgo (véase el numeral 2.34) de la covarianza de
la población (véase el numeral 3.43).

NOTA 4 El ejemplo de la Tabla 1 consta de tres variables, en donde la definición hace referencia a un par de
variables. En la práctica, es común encontrar situaciones con múltiples variables.

2.23 Coeficiente de correlación de la muestra rxy. (Sample Correlation Coefficient, rxy).


Covarianza de la muestra (véase el numeral 2.22) dividida por el producto de las
desviaciones estándar de la muestra (véase el numeral 2.17) correspondientes.

EJEMPLO 1 Continuando con el Ejemplo 1 del numeral 2.22, la desviación estándar observada es 12,495 para X y
21,329 para Y. En consecuencia, el coeficiente de correlación de la muestra observada (para X y Y) está dado por:

257,118/(12,948 x 21,329) = 0,931 2

EJEMPLO 2 Continuando con el Ejemplo 2 del numeral 2.22, la desviación estándar observada es 21,329 para Y
y 4,165 para Z. En consecuencia, el coeficiente de correlación de la muestra observada (para Y y Z) está dado por:

-54,356/(21,329 x 4,165) = -0,612

NOTA 1 En términos de notación, el coeficiente de correlación de la muestra se calcula como:

n
⎛ − ⎞ ⎛ − ⎞

i = 1
⎜ X i − X ⎟ ⎜Yi − Y ⎟


⎟ ⎜
⎠ ⎝


n 2 n 2
⎛ − ⎞ ⎛ − ⎞

i =
⎜Xi − X ⎟

1⎝



i =
⎜Yi − Y ⎟

1⎝

Esta expresión es equivalente a la relación de la covarianza de la muestra con la raíz cuadrada


del producto de las desviaciones estándar. Algunas veces el símbolo rxy se usa para designar
el coeficiente de correlación de la muestra. El coeficiente de correlación de la muestra
observada se basa en los datos (x1, y1), (x2, y2), ..., (xn, yn).

NOTA 2 El coeficiente de correlación de la muestra observada puede tomar valores dentro de [-1, 1], en donde los
valores cercanos a 1 indican una correlación positiva fuerte y los valores cercanos a -1 indican una correlación
negativa fuerte. Los valores cercanos a 1 ó -1 indican que los puntos están prácticamente alineados.

2.24 Error estándar, σ θˆ (Standard Error, σ θˆ ). Desviación estándar (véase el numeral 2.37)
)
de un estimador, θ (véase el numeral 2.12).

EJEMPLO Si la media de la muestra (véase el numeral 2.15) es el estimador de la media de la población (véase
el numera 3.35) y la desviación estándar de una variable aleatoria simple (véase el numeral 3.10) es σ entonces el error
estándar de la media de la muestra es σ / n , donde n es el número de observaciones en la muestra. Un estimador del
error estándar es S / n , donde S es la desviación estándar de la muestra (véase el numeral 2.17)

NOTA 1 En la práctica, el error estándar proporciona un estimado natural de la desviación estándar de un


estimador.

NOTA 2 No hay un término complementario (apropiado) para "error no estándar". El error estándar se puede
considerar como una abreviatura de la expresión "desviación estándar de un estimador" Comúnmente, en la práctica
error estándar hace referencia implícitamente a la desviación estándar de la media de la muestra. La notación para
el error estándar de la media de la muestra es σ X

10
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2.25 Estimador por intervalos (Interval Estimator). Intervalo cuyos límites son una función
estadística con límite superior (véase el numeral 2.8) y una función estadístico con límite inferior.

NOTA 1 Uno de los puntos extremos puede ser +∞, -∞ ó un límite natural del valor de un parámetro. Por
ejemplo, 0 es un límite inferior natural para un estimador por intervalos de la varianza de la población (véase el
numeral 3.36). En estos casos, los intervalos se designan comúnmente como intervalos unilaterales.

NOTA 2 Un estimador por intervalos se puede suministrar junto con una estimación (véase el numeral 2.36) de un
parámetro (véase el numeral 3.9). Se supone que el estimador por intervalos contiene un parámetro en una proporción
declarada de situaciones, bajo condiciones de muestreo repetido, o en algún otro sentido probabilístico.

NOTA 3 Tres tipos comunes de estimadores por intervalos incluyen intervalos de confianza (véase el numeral
2.28) para parámetro(s), intervalos de predicción (véase el numeral 2.30) para observaciones futuras, e intervalos
estadísticos de tolerancia (véase el numeral 2.26) para la proporción de una distribución (véase el numeral 3.11)
contenida.

2.26 Intervalo de tolerancia estadística (Statistical Tolerance Interval). Intervalo


determinado a partir de una muestra aleatoria (véase el numeral 2.6) de manera que puede
existir un nivel determinado de confianza en que el intervalo cubre al menos una proporción
especificada de la población sometida a muestreo (véase el numeral 2.1).

NOTA La confianza en este contexto es la proporción a largo plazo de intervalos construidos de esta manera, que
incluirán al menos la proporción especificada de la población sometida a muestreo.

2.27 Límite de tolerancia estadística (Statistical Tolerance Limit). Estadística (véase el


numeral 2.8) que representa un punto final externo de un intervalo estadístico de tolerancia
(véase el numeral 2.26).

NOTA Los intervalos estadísticos de tolerancia pueden ser:

- Unilaterales (con uno de sus límites fijos al límite natural de la variable aleatoria), en cuyo caso tienen un
límite estadístico de tolerancia superior e inferior, o

- Bilaterales, en cuyo caso tienen ambos.

Un límite natural de la variable aleatoria puede brindar un límite para un límite unilateral.

2.28 Intervalo de confianza (Confidence Interval). Estimador por intervalos (véase el


numeral 2.25) (T0, T1) para el parámetro (véase el numeral 3.9) T0 y T1 con las funciones
estadísticas (véase el numeral 2.8) T0 y T1 como límites de intervalos y para los cuales se
estipula que:

P [T0 < θ < T1 ] ≥ 1 − α

NOTA 1 La confianza refleja la proporción de casos en donde el intervalo de confianza contendría el valor
verdadero del parámetro en una serie grande larga de muestras aleatorias repetidas (véase el numeral 2.6) bajo
condiciones idénticas. Un intervalo de confianza no refleja la probabilidad (véase el numeral 3.5) de que el intervalo
observado contenga el valor real del parámetro (que lo contenga o no).

NOTA 2 Este intervalo de confianza está asociado con la característica de desempeño correspondiente
correspondiente 100 (1-α)%, en donde α es generalmente un número pequeño. La característica de desempeño,
que se denomina coeficiente de confianza o nivel de confianza, es con frecuencia del 95 % ó 99 %. La desigualdad
P [TO < θ < T1) ≥ 1 - α se aplica a cualquier valor de población específico pero desconocido de θ.

2.29 Intervalo de confianza unilateral (One-Sided Confidence Interval). Intervalo de


confianza (véase el numeral 2.28) con uno de sus extremos en + ∞, -∞, o un límite fijado
naturalmente.

11
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 La definición del numeral 2.28 se aplica a T0 fijado en -∞, ó T1 fijado en + ∞ Los intervalos de confianza
unilaterales surgen en situaciones en las que el interés se enfoca estrictamente en una sola dirección. Por ejemplo,
en una prueba de seguridad sobre volumen de audio en teléfonos celulares, un límite de confianza superior sería el
interés que indica un límite superior para el volumen producido en condiciones de seguridad supuestas. Para los
ensayos mecánicos estructurales, sería de interés un límite de confianza inferior sobre la fuerza a la cual el
dispositivo falla.

NOTA 2 Otro ejemplo de intervalos de confianza unilaterales se presenta en situaciones en las que un parámetro
tiene un límite natural, como por ejemplo cero. Para una distribución de Poisson (véase el numeral 3.47)
involucrada en el modelado de quejas de los clientes, cero es un límite inferior. Otro ejemplo: un intervalo de
confianza para la fiabilidad de un componente electrónico puede ser (0, 98, 1) en donde 1 es el límite superior
natural.

2.30 Intervalo de predicción (Prediction Interval). Rango de valores de una variable


obtenidos de una muestra aleatoria (véase el numeral 2.6) de valores de una población
continua, dentro del cual se puede asegurar con una confianza dada que fallará no menos de
un número dado de valores en una muestra aleatoria ulterior posterior de la misma población
(véase el numeral 2.1).

NOTA Generalmente, el interés se enfoca en una sola observación ulterior que surge de la misma situación que
las observaciones que son la base del intervalo de predicción. Otro contexto práctico es el análisis de regresión, en
el cual un intervalo de predicción se construye para un espectro de valores independientes.

2.31 Estimado (Estimate). Valor observado (véase el numeral 2.4) de un estimador (véase
el numeral 2.12).

NOTA Un estimado hace referencia a un valor numérico obtenido a partir de valores observados. Con respecto a
la estimación (véase el numera 2.36) de un parámetro (véase el numeral 3.9) a partir de una distribución de
probabilidad (véase el numeral 3.11) supuesta, el estimador hace referencia a la función estadística (véase el
numeral 2.8) destinado a estimar el parámetro, y el estimado hace referencia al resultado obtenido con los valores
observados. Algunas veces al estimado se le coloca el adjetivo "puntual", para hacer énfasis en que se produce un
solo valor, no un intervalo de valores. En forma similar, la expresión "por intervalos" se coloca antes de "estimado",
cuando se realiza una estimación por intervalos.

2.32 Error de estimación (Error of Estimation). Estimado (véase el numeral 2.31) menos el
parámetro (véase el numeral 3.9) o propiedad de la población que se prevé estimar.

NOTA 1 La propiedad de la población puede ser una función del parámetro o parámetros u otra cantidad
relacionada con la distribución de probabilidad (véase el numeral 3.11).

NOTA 2 El error del estimador se puede deber al muestreo, a la incertidumbre de la medición, al redondeo o a
otras fuentes. En efecto, el error del estimador representa para los usuarios el desempeño de base de interés. La
determinación de las principales contribuciones al error del estimador es un elemento crítico en los esfuerzos de
mejora de la calidad.

2.33 Sesgo (Bias). Valor esperado (véase el numeral 3.12) de un error de estimación (véase
el numeral 2.32).

NOTA 1 Esta definición es diferente de las que se encuentran en la NTC 2062-2 (en el numeral 3.3.2 de la norma
ISO 3534-2) y en el VIM:1993 (veánse los numerales 5.25 y 5.28 del VIM). Sesgo se usa aquí en un sentido
genérico, como se indica en la Nota 1 del numeral 2.34.

NOTA 2 La existencia de sesgo puede conducir a consecuencias desafortunadas en la práctica. Por ejemplo,
subestimar la resistencia de materiales debido al sesgo puede conducir a fallas inesperadas en un dispositivo. En
muestreo por encuesta, el sesgo puede conducir a decisiones incorrectas a partir de un sondeo político.

2.34 Estimador sin sesgo (Unbiased Estimator). Estimador (véase el numeral 2.12) que
tiene un sesgo (véase el numeral 2.33) igual a cero.

EJEMPLO 1 Para una muestra aleatoria (véase el numeral 2.6) de n variables aleatorias independientes (véase el
numeral 3.10), cada una con la misma distribución normal (véase el numeral 3.50) con media (véase el numeral 3.35) μ y
desviación estándar (véase el numeral 3.37) σ, la media de la muestra X (véase el numeral 2.15) y la varianza de la
12
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

muestra (véase el numeral 2.16) S2 son estimadores sin sesgo para la media μ y la varianza (véase el numeral 2.36) σ2,
respectivamente.

EJEMPLO 2 Como se mencionó en la Nota 1 del numeral 2.37, el estimador del máximo de verosimilitud (véase
2
el numeral 2.35) de la varianza σ usa el denominador n en lugar de n - 1, y de esta manera es un estimador con
sesgo. En la práctica, la desviación estándar de la muestra (véase el numeral 2.17) se usa considerablemente,
pero es importante observar que la raíz cuadrada de la varianza de la muestra utilizando n -1 es un estimador con
sesgo de la desviación estándar de la población (véase el numeral 3.37).

EJEMPLO 3 Para una muestra aleatoria de n pares independientes de variables aleatorias, cada par con la misma
distribución normal con dos variables (véase el numeral 3.65) con covarianza (véase el numeral 3.43) igual a
ρσXY, la covarianza de la muestra (véase el numeral 2.22) es un estimador sin sesgo para la covarianza de la
población. El estimador del máximo de verosimilitud usa n en lugar de n - 1 en el denominador, y de esta manera
tiene sesgo.

NOTA Los estimadores sin sesgo son útiles, ya que en promedio dan un valor correcto. Sin duda, los
estimadores sin sesgo brindan un punto de partida útil en la búsqueda de estimadores "óptimos" de los parámetros
de población. La definición dada aquí es de naturaleza estadística.

En la práctica cotidiana, los usuarios intentan evitar la introducción de sesgo en un estudio asegurándose, por
ejemplo, de que la muestra aleatoria sea representativa de la población de interés.

2.35 Estimador del máximo de verosimilitud (Maximum Likelihood Estimator). Estimador


(véase el numeral 2.12) que asigna el valor del parámetro (véase el numeral 3.9), en donde la
función de verosimilitud (véase el numeral 2.38) alcanza o se aproxima a su mayor valor.

NOTA 1 La estimación del máximo de verosimilitud es un método bien establecido para obtener estimados de
parámetros cuando se ha especificado una distribución (véase el numeral 3.11) [por ejemplo, normal (véase el
numeral 3.50), gamma (véase el numeral 3.56), Weibull (véase el numeral 3.63), etc.] Estos estimadores tienen
propiedades estadísticas útiles (por ejemplo, invariancia en transformación monótona) y en muchas situaciones
proporcionan el método de selección. En casos en que el estimador del máximo de verosimilitud tiene sesgo, puede
tener lugar una corrección simple del sesgo (véase el numeral 2.33). Como se mencionó en el ejemplo 2 del
numeral 2.34, el estimador del máximo de verosimilitud para la varianza (véase el numeral 3.36) de la distribución
normal tiene sesgo pero se puede corregir usando n - 1 en vez de n. El alcance del sesgo en estos casos se reduce
cuando se incrementa el tamaño de la muestra.

NOTA 2 La abreviatura EMV se usa comúnmente para estimador del máximo de verosimilitud y para estimación
del máximo de verosimilitud, en donde el contexto indica la opción apropiada.

2.36 Estimación (Estimation). Procedimiento para obtener una representación estadística de


una población (véase el numeral 2.1) a partir de una muestra aleatoria (véase el numeral 2.6)
tomada de esta población.

NOTA 1 En particular, el procedimiento involucrado al pasar de un estimador (véase el numeral 2.12) a un


estimado específico constituye la estimación.

NOTA 2 La estimación se entiende en un contexto bastante amplio para incluir estimación puntual, estimación por
intervalos o estimación de las propiedades de las poblaciones.

NOTA 3 Con frecuencia, una representación estadística hace referencia a la estimación de un parámetro (véase
el numeral 3.9) o parámetros, o de una función de estos a partir de un modelo asumido. De manera más general, la
representación de la población puede ser menos específica, tales como las funciones estadísticas relativas a los
impactos de desastres naturales (víctimas, lesiones, pérdidas de propiedades y pérdidas en la agricultura, todas las
que el responsable de las emergencias podría querer estimar).

NOTA 4 La consideración de una función estadística descriptiva (véase el numeral 2.5) puede sugerir que un
modelo supuesto brinda una representación inadecuada de los datos, como se indica por una medida del ajuste del
modelo a los datos. En estos casos, se pueden considerar otros modelos y continuar el proceso de estimación.

13
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2.37 Estimación del máximo de verosimilitud (Maximum Likelihood Estimation).


Estimación (véase el numeral 2.36) basada en el estimador del máximo de verosimilitud
(véase el numeral 2.35).

NOTA 1 Para la distribución normal (véase el numeral 3.50), la media de la muestra (véase el numeral 2.15) es
el estimador del máximo de verosimilitud (véase el numeral 2.35) del parámetro (véase el numeral 3.9) µ,
mientras que la varianza de la muestra (véase el numeral 2.16), usando el denominador n en vez de n - 1,
2
proporciona el estimador del máximo de verosimilitud de σ . El denominador n -1 se usa habitualmente, ya que este
valor proporciona un estimador sin sesgo (véase el numeral 2.34).

NOTA 2 La estimación del máximo de verosimilitud se usa algunas veces para describir la obtención de un
estimador (véase el numeral 2.12) a partir de la función de verosimilitud.

NOTA 3 Aunque en algunos casos el uso de la estimación del máximo de verosimilitud da lugar a una expresión
analítica, existen otras situaciones en las que el estimador del máximo de verosimilitud requiere una solución
iterativa a un conjunto de ecuaciones.

NOTA 4 La abreviatura EMV se usa comúnmente para estimador del máximo de verosimilitud y para estimación
del máximo de verosimilitud, dependiendo del contexto.

2.38 Función de verosimilitud (Likelihood Function). Función de densidad de probabilidad


(véase el numeral 3.26) evaluada a los valores observados (véase el numeral 2.4) y
considerada como una función de los parámetros (véase el numeral 3.9) de la familia de
distribuciones (véase el numeral 3.8).

EJEMPLO 1 Considere una situación en la cual se seleccionan aleatoriamente 10 elementos de una población muy
grande (véase el numeral 2.1) y se encuentra que 3 elementos tienen una característica específica. De esta
muestra, 0,3 (3 de 10) es un estimado (véase el numeral 2.31) intuitivo de la proporción de población que tiene la
característica. Dentro de un modelo de distribución binomial (véase el numeral 3.46), la función de verosimilitud
(función de masa de probabilidad como una función de p con n fijado en 10 y x en 3) logra su máximo en p = 0,3, que
concuerda con la intuición.

[Esto se puede verificar posteriormente graficando la función de masa de probabilidad de la


distribución binomial (véase el numeral 3.46) 120 p3 (1 - p)7 con relación a p].

EJEMPLO 2 Para la distribución normal (véase el numeral 3.50) con una desviación estándar (véase el
numeral 3.37) conocida, se puede demostrar en general que la función de verosimilitud alcanza su máximo cuando µ
es igual a la media de la muestra.

2.39 Función de verosimilitud parcial (Profile Likelihood Function). Función de


verosimilitud (véase el numeral 2.38) considerada con base en un solo parámetro (véase el
numeral 3.9), con todos los demás parámetros fijados para maximizarla.

2.40 Hipótesis, H (Hypothesis, H). Declaración acerca de una población (véase el numeral 2.1).

NOTA Comúnmente, la declaración acerca de la población concierne a uno o más parámetros (véase el numeral 3.9)
en una familia de distribuciones (véase el numeral 3.8) o acerca de la familia de distribuciones.

2.41 Hipótesis nula, H0 (Null Hipótesis, H0). Hipótesis (véase el numeral 2.40) que se debe
poner a prueba por medio de una prueba estadística (véase el numeral 2.48).

EJEMPLO 1 En una muestra aleatoria (véase el numeral 2.6) de variables aleatorias independientes (véase el
numeral 3.10) que tienen la misma distribución normal (véase el numeral 3.50), con una media desconocida
(véase el numeral 3.35) y una desviación estándar desconocida (véase el numeral 3.37), una hipótesis nula para
una media μ puede ser que la media es menor o igual a un valor dado µ0 y esto se escribe usualmente de la
siguiente forma; H0:µ ≤ µ0.

EJEMPLO 2 Una hipótesis nula puede ser que el modelo estadístico para una población (véase el numeral 2.1) es
una distribución normal. Para este tipo de hipótesis nula no se especifican la media y la desviación estándar.

14
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

EJEMPLO 3 Una hipótesis nula puede ser que el modelo estadístico para una población sea una distribución
simétrica. Para este tipo de hipótesis nula no se especifica la forma de la distribución.

NOTA 1 Explícitamente, la hipótesis nula puede consistir en un subconjunto de un conjunto de distribuciones de


probabilidades posibles.

NOTA 2 Esta definición no se debería considerar independientemente de la hipótesis alternativa (véase el


numeral 2.42) y la prueba estadística (véase el numeral 2.48), ya que la aplicación apropiada de la puesta a prueba
requiere todos estos componentes.

NOTA 3 En la práctica jamás se demuestra una hipótesis nula, sino que la evaluación en una situación dada
puede ser inadecuada para rechazar la hipótesis nula. La motivación original para poner a prueba la hipótesis
probablemente ha sido que el resultado de la esperanza matemática de que el resultado favorezca una hipótesis
alternativa específica para el problema en cuestión.

NOTA 4 La decisión de no rechazar la hipótesis nula no es una prueba de su validez, sino puede ser más bien una
indicación de que hay evidencia insuficiente para rechazarla. La hipótesis nula (o una cercana a ella) puede ser
verdadera, o el tamaño de la muestra es insuficiente para detectar una diferencia con relación a ésta.

NOTA 5 En algunas situaciones, el interés inicial está enfocado hacia la hipótesis nula, pero la posibilidad de una
desviación puede ser de interés. La consideración apropiada del tamaño de la muestra y su capacidad para detectar
una desviación o alternativa específica puede conducir a la construcción de un procedimiento de ensayo para
evaluar apropiadamente la hipótesis nula.

NOTA 6 La aceptación de la hipótesis alternativa, contrariamente a la decisión de no rechazar la hipótesis nula, es


un resultado positivo en el sentido en que apoya la conjetura de interés. El rechazo de la hipótesis nula a favor de la
alternativa es un resultado con menos ambigüedad que un resultado de "no se rechaza la hipótesis nula esta vez".

NOTA 7 La hipótesis nula es la base para construir el estadístico de prueba (véase el numeral 2.52)
correspondiente usada para evaluar la hipótesis nula.

NOTA 8 La hipótesis nula se denota con frecuencia H0 (H con subíndice 0).

NOTA 9 El subconjunto que identifica la hipótesis nula de ser posible debería seleccionarse de manera que la
declaración sea incompatible con la conjetura por estudiar. Véase la Nota 2 del numeral 2.48 y el ejemplo del
numeral 2.49.

2.42 Hipótesis alternativa, HA, H1 (Alternative Hypotesis, HA, H1). Declaración que selecciona un
conjunto o subconjunto de todas las posibles distribuciones de probabilidad (véase el numeral 3.11)
admisibles posibles que no pertenecen a la hipótesis nula (véase el numeral 2.41).

EJEMPLO 1 La hipótesis alternativa a la hipótesis nula dada en el ejemplo 1 del numeral 2.41 es que la media
(véase el numeral 3.35) es mayor que el valor especificado, que se expresa así: HA : µ > µ0.

EJEMPLO 2 La hipótesis alternativa a la hipótesis nula presentada en el ejemplo 2 del numeral 2.41 es que el
modelo estadístico de la población no es una distribución normal (véase el numeral 3.50).

EJEMPLO 3 La hipótesis alternativa a la hipótesis nula dada en el Ejemplo 3 del numeral 2.41 es que el modelo
estadístico de la población es una distribución asimétrica. Para esta hipótesis alternativa no se establece la forma
específica de la asimetría.

NOTA 1 La hipótesis alternativa es el complemento de la hipótesis nula.

NOTA 2 La hipótesis alternativa también se puede designar como H1 o HA sin preferencia clara en tanto que el
simbolismo sea paralelo a la notación de la hipótesis nula.

NOTA 3 La hipótesis alternativa es una declaración que contradice la hipótesis nula. El estadístico de prueba
(véase el numeral 2.52) correspondiente se usa para decidir entre las hipótesis cero y la alternativa.

NOTA 4 La hipótesis alternativa no se debería considerar aislada de la hipótesis nula ni del estadístico de prueba
(véase el numeral 2.48).

NOTA 5 La aceptación de la hipótesis alternativa, contrariamente a la decisión de no rechazar la hipótesis nula, es


un resultado positivo en el sentido en que apoya la conjetura de interés.

15
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2.43 Hipótesis simple (Simple Hypothesis). Hipótesis (véase el numeral 2.40) que
especifica una sola distribución en una familia de distribuciones (véase el numeral 3.8).

NOTA 1 Una hipótesis simple es una hipótesis nula (véase el numeral 2.41) o una hipótesis alternativa (véase
el numeral 2.42) para la cual el conjunto seleccionado consta de una distribución de probabilidad simple (véase el
numeral 3.11).

NOTA 2 En una muestra aleatoria (véase el numeral 2.6) de variables aleatorias independientes (véase el
numeral 3.10) con la misma distribución normal (véase el numeral 3.50) con una media desconocida (véase el
numeral 3.35) y una desviación estándar conocida (véase el numeral 3.37) σ, una hipótesis simple para la media µ
es que la media es igual a un valor dado µ'0 y esto se escribe usualmente de la siguiente forma: H0:µ = µ0.

NOTA 3 Una hipótesis simple especifica completamente la distribución de probabilidad (véase el numeral 3.11).

2.44 Hipótesis compuesta (Composite Hypothesis). Hipótesis (véase el numeral 2.40) que
especifica más de una distribución (véase el numeral 3.11) en una familia de distribuciones
(véase el numeral 3.8).

EJEMPLO 1 La hipótesis nula (véase el numeral 2.41) y las hipótesis alternativas (véase el numeral 2.42) dadas
en los ejemplos de los numerales 2.41 y 2.42 son todos ejemplos de hipótesis compuestas.

EJEMPLO 2 En el numeral 2.48, la hipótesis nula en el Caso 3 del Ejemplo 3 es una hipótesis simple. La hipótesis
nula del Ejemplo 4 también es una hipótesis simple. Las otras hipótesis del numeral 2.48 son compuestas.

NOTA Una hipótesis compuesta es una hipótesis nula o una hipótesis alternativa para la cual el subconjunto
seleccionado consta de más de una distribución de probabilidad simple.

2.45 Nivel de significación, α (Significance Level, α). <ensayo estadístico>. Probabilidad


máxima (véase el numeral 3.5) de rechazar la hipótesis nula (véase el numeral 2.41) cuando
en realidad es verdadera.

NOTA Si la hipótesis nula es una hipótesis simple (véase el numeral 2.43), entonces la probabilidad de rechazar
la hipótesis nula si fuera verdadera, llega a ser un valor simple.

2.46 Error Tipo I (Type I Error). Rechazo de la hipótesis nula (véase el numeral 2.41) cuando
en realidad es verdadera.

NOTA 1 De hecho, un error Tipo I es una decisión incorrecta. En consecuencia, se desea mantener la menor
probabilidad posible (véase el numeral 3.5) de tomar una decisión incorrecta. Para obtener una probabilidad cero
de un error Tipo I, nunca se rechazaría la hipótesis nula. En otras palabras, independientemente de la evidencia, se
toma la misma decisión.

NOTA 2 En algunas situaciones (por ejemplo, en el ensayo del parámetro binomial p) es posible que no se pueda
alcanzar un nivel de significación especificado tal como 0,05, debido a la discontinuidad de los resultados.

2.47 Error tipo II (Type II Error). Decisión de no rechazar la hipótesis nula (véase el numeral 2.41)
cuando en realidad ésta no es verdadera.

NOTA De hecho, el error Tipo II es una decisión incorrecta. En consecuencia, se desea mantener la menor
probabilidad posible (véase el numeral 3.5) de tomar una decisión incorrecta. Los errores Tipo II ocurren
comúnmente en situaciones en las que el tamaño de la muestra es insuficiente para revelar una desviación de la
hipótesis nula.

2.48 Prueba estadística, prueba de significación (Statistical Test, Significance Test).


Procedimiento para decidir si una hipótesis nula (véase el numeral 2.41) debe ser rechazada
a favor de una hipótesis alternativa (véase el numeral 2.42).

EJEMPLO 1 A manera de ejemplo, si una variable aleatoria continua (véase el numeral 3.29) real puede tomar
valores entre -∞ y + ∞ y se sospecha que la distribución de probabilidad verdadera no es una distribución normal
(véase el numeral 3.50), entonces se formularán las siguientes hipótesis:

16
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

- El alcance de la situación son todas las distribuciones de probabilidad continuas (véase el numeral 3.23) que
pueden tomar valores entre - ∞ y + ∞.

- La conjetura es que la distribución de probabilidad verdadera no es una distribución normal.

- La hipótesis nula es que la distribución de probabilidad es una distribución normal.

- La hipótesis alternativa es que la distribución de probabilidad no es una distribución normal.

EJEMPLO 2 Si la variable aleatoria sigue una distribución normal con una desviación estándar conocida (véase
el numeral 3.37) y se sospecha que su valor esperado µ se desvía de un valor dado µ0, entonces las hipótesis se
formularán de acuerdo con el Caso 3 en el siguiente ejemplo.

EJEMPLO 3 Este ejemplo considera tres posibilidades en el ensayo estadístico.

Caso 1. Se supone que la media del proceso es mayor que la media objetivo de µ0. Esta conjetura conduce a las
siguientes hipótesis.

Hipótesis nula: H0 : µ ≤ µ0
Hipótesis alternativa: H1 : µ ≤ µ0

Caso 2. Se supone que la media del proceso es inferior a la media objetivo de µ0. Esta conjetura conduce a las
siguientes hipótesis.

Hipótesis nula: H0 : µ ≥ µ0
Hipótesis alternativa: H1 : µ ≥ µ0

Caso 3. Se supone que la media del proceso no es compatible con la media del proceso, pero no se especifica la
dirección. Esta conjetura conduce a las siguientes hipótesis.

Hipótesis nula: H0 : µ = µ0
Hipótesis alternativa: H1 : µ ≠ µ0

En todos los tres casos, la formulación de las hipótesis se basa en una conjetura concerniente a la hipótesis
alternativa y a su desviación de su condición de referencia.

EJEMPLO 4 Este ejemplo considera como su alcance todas las proporciones p1 y p2 entre cero y una proporción de
defectuosos en los lotes 1 y 2. Se podría sospechar que los dos lotes son diferentes, y por tanto, suponer que las
proporciones de defectos en los dos lotes son diferentes. Esta conjetura conduce a las siguientes hipótesis:

Hipótesis nula: H0 : p1 = p2
Hipótesis alternativa: H1 : p1 ≠ p2

NOTA 1 Una prueba estadística es un procedimiento que es válido bajo condiciones especificadas, para decidir,
por medio de observaciones de una muestra, si la distribución de probabilidad verdadera pertenece a la hipótesis
nula o a la hipótesis alternativa.

NOTA 2 Antes de llevar a cabo una prueba estadística, se determina primero el conjunto posible de distribuciones
de probabilidad con base en la información disponible. Posteriormente se identifican las distribuciones de
probabilidad que pueden ser verdaderas con base en la conjetura por estudiar, para elaborar la hipótesis alternativa.
Finalmente, la hipótesis nula se formula como complemento a la hipótesis alternativa. En muchos casos, el conjunto
posible de distribuciones de probabilidad, y en consecuencia también la hipótesis nula y la hipótesis alternativa se
pueden determinar por referencia a conjuntos de valores de parámetros pertinentes.

NOTA 3 Cuando la decisión se toma con base en observaciones de una muestra, existe el riesgo de cometer un
error Tipo I (véase el numeral 2.46), rechazar la hipótesis nula cuando de hecho es correcta, o un error Tipo II
(véase el numeral 2.47), decidir no rechazar la hipótesis nula a favor de la hipótesis alternativa, cuando esta última
es verdadera.

NOTA 4 El Caso 1 y 2 del Ejemplo 3 anterior son casos de pruebas unilaterales. El Caso 3 es un ejemplo de una
prueba bilateral. En todos los tres casos, la selección entre unilateral contra bilateral se determina considerando la
región del parámetro µ correspondiente a la hipótesis alternativa. Más generalmente, las ensayos unilaterales y
bilaterales pueden ser controlados por la región para rechazo de la hipótesis nula, correspondiente a la función
estadística de ensayo escogida. Es decir, la función estadística de ensayo tiene una región crítica asociada que
favorece la hipótesis alternativa, pero es posible que no esté relacionada directamente con una simple descripción
17
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

del espacio del parámetro, como en los Casos 1, 2 y 3.

NOTA 5 Se debería prestar mucha atención a las suposiciones subyacentes, o la aplicación de las pruebas
estadísticas no tendrá fundamento. Las pruebas estadísticas que conducen a inferencias estables incluso en el caso
de posibles especificaciones defectuosas de las suposiciones subyacentes se denominan robustos. El ensayo t de
una muestra para la media es un ejemplo de una prueba considerada muy robusta en condiciones no normales. El
ensayo de Bartlett para homogeneidad de las varianzas es un ejemplo de un procedimiento no robusto que
posiblemente conduce al rechazo excesivo de la igualdad de varianzas en casos de distribución para las cuales las
varianzas fueron en realidad idénticas.

2.49 Valor p (p-value). Probabilidad (véase el numeral 3.5) de observar el valor del estadístico
de prueba (véase el numeral 2.52) observado o cualquier otro valor desfavorable para la
hipótesis nula (véase el numeral 2.41).

EJEMPLO Considere el ejemplo numérico introducido originalmente en el numeral 2.9. Suponga, a manera de
ilustración, que estos valores son observaciones de un proceso que se espera nominalmente que tenga una media
de 12,5 y que con base en su experiencia previa el ingeniero asociado con el proceso considere que éste era
constantemente más bajo que el valor nominal. Se realizó un estudio y se recolectó una muestra aleatoria de
tamaño 10, con los resultados numéricos de del numeral 2.9. Las hipótesis apropiadas son:

Hipótesis nula: H0 : µ ≥ 12,5


Hipótesis alternativa: H1 : µ < 12,5

La media de la muestra es 9,7, que parece concordar con la conjetura, pero, ¿está lo
suficientemente alejada de 12,5 para apoyar la conjetura? Para este ejemplo, el estadístico de
prueba (véase el numeral 2.52) es -1,976 4 con su correspondiente valor p de 0,040. Esto
significa que hay menos de 4 oportunidades en cien de observar un valor de función estadística
de -1,976 4 ó inferior, si de hecho la media del proceso verdadero es 12,5. Si el nivel de
significación pre-especificada original hubiera sido 0,05, entonces habitualmente se rechazaría
la hipótesis nula a favor de la hipótesis alternativa.

Como alternativa, suponga que el problema fuera formulado en una forma un poco diferente.
Imagine que el problema fuera que el proceso está alejado de la meta de 12,5 pero la dirección
no se ha especificado. Esto conduce a las siguientes hipótesis:

Hipótesis nula: H0 : µ = 12,5


Hipótesis alternativa: H1 : µ ≠ 12,5

Dados los mismos datos recolectados de una muestra aleatoria, la función estadística de
ensayo es el mismo, -1,976 4. Para esta hipótesis alternativa, una pregunta importante es
"¿cuál es la probabilidad de observar un valor así de extremo u otro más extremo?" En este
caso hay dos regiones pertinentes: valores menores o iguales a -1,9764, o valores mayores o
iguales a 1,9764. La probabilidad de que ocurra una función estadística de ensayo t en una de
estas regiones es 0,080 (el doble del valor unilateral). Hay ocho oportunidades en 100 de
observar un valor de una función estadística de ensayo así de extremo o todavía más. Así, la
hipótesis nula no es rechazada al nivel de significación de 0,05.

NOTA 1 Por ejemplo, si el valor p resulta ser 0,029, entonces hay menos de tres oportunidades en cien de que
este valor extremo de la función estadística de ensayo, o uno más extremo, ocurra bajo la hipótesis nula. Con base
en esta información es posible tener que rechazar la hipótesis nula, ya que este es un valor p bastante pequeño.
Más formalmente, si el nivel de significación se hubiera establecido en 0,05, entonces definitivamente el valor p de
0,029, al ser inferior a 0,05 conduciría al rechazo de la hipótesis nula.

NOTA 2 El valor p del término algunas veces se denomina probabilidad de significación, que no se debería
confundir con el nivel de significación (véase el numeral 2.45) que es una constante especificada en una
aplicación.

2.50 Potencia de una prueba (Power of a Test). Uno menos la probabilidad (véase el
numeral 3.5) del error Tipo II (véase el numeral 2.47).
18
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 La eficiencia de una prueba para un valor especificado de un parámetro desconocido (véase el numeral 3.9) en
una familia de distribuciones (véase el numeral 3.8) es igual a la probabilidad de rechazar la hipótesis nula (véase el
numeral 2.41) para el valor del parámetro.

NOTA 2 En la mayoría de casos de interés práctico, al incrementar el tamaño de la muestra se incrementará la


eficiencia de la prueba. En otras palabras, la probabilidad de rechazar la hipótesis nula cuando la hipótesis
alternativa (véase el numeral 2.42) es verdadera aumenta al incrementarse el tamaño de la muestra, reduciendo de
esta manera la probabilidad de un error Tipo II.

NOTA 3 En situaciones de ensayo es recomendable que cuando la muestra de ensayo es extremadamente


grande, deberían detectarse incluso desviaciones pequeñas de la hipótesis nula, lo que conduce al rechazo de la
hipótesis nula. En otras palabras, la eficiencia de la prueba se debería aproximar a 1 para cualquier alternativa a la
hipótesis nula cuando el tamaño de la muestra llega a ser infinitamente grande. Estos ensayos se denominan
consistentes. Al comparar dos pruebas con respecto a su eficiencia potencia, la prueba con la mayor eficiencia
potencia se considera la más eficiente, siempre y cuando los niveles de significación sean idénticos, al igual que las
hipótesis nulas y alternativas particulares. Hay descripciones matemáticas más formales de los términos
"consistencia" y "eficiencia" que se encuentran fuera del alcance de esta norma. (Consulte las diferentes
enciclopedias de estadística o libros de estadística matemática).

2.51 Curva de potencia (Power Curve). Conjunto de valores de la eficiencia de una prueba
(véase el numeral 2.50) en función del parámetro de la población (véase el numeral 3.9) de una
familia de distribuciones (véase el numeral 3.8).

NOTA La función de eficiencia es igual a uno menos la curva característica de operación.

2.52 Estadístico de prueba, estadístico de contraste (Test Statistic). Estadístico (véase el


numeral 2.8) usado conjuntamente con una prueba estadística (véase el numeral 2.48).

NOTA La función estadística de ensayo se usa para evaluar si la distribución de probabilidad (véase el numeral 3.11)
considerada es coherente con la hipótesis nula (véase el numeral 2.41) o la hipótesis alternativa (véase el numeral 2.42).

2.53 Función estadística descriptiva gráfica (Graphical Descriptive Statistics). Estadística


descriptiva (véase el numeral 2.5) representada en forma gráfica.

NOTA Generalmente, la intención de la función estadística descriptiva es reducir un gran número de valores a
algunos valores fáciles de manejar, o presentar los valores de manera que se facilite su visualización. Los ejemplos
de resúmenes gráficos incluyen gráficos de cajas, gráficos de probabilidad, gráficos Q-Q, diagramas de cuantila
normal, gráficos de dispersión (nube de puntos), gráficos de dispersión múltiple (nube de puntos múltiple), e
histogramas (véase el numeral 2.61).

2.54 Función estadística descriptiva numérica (Numerical Descriptive Statistics). Función


Estadística descriptiva (véase el numeral 2.5) en forma numérica.

NOTA La estadística descriptiva numérica incluye el promedio (véase el numeral 2.15), el rango de la muestra
(véase el numeral 2.10), la desviación estándar de la muestra (véase el numeral 2.17), el rango intercuartila, etc.

2.55 Clases (Classes)

NOTA Se supone que las clases son mutuamente exclusivas y exhaustivas. La línea real son todos los números
reales entre -∞ y + ∞.

2.55.1 Clase (Class). <Característica cualitativa> Subconjunto de elementos de una muestra


(véase el numeral 2.3).

2.55.2 Clase (Class). <Característica ordinal> Conjunto de una o más categorías adyacentes
en una escala ordinal.

2.55.3 Clase (Class). <Característica cuantitativa> Intervalo de la línea real.

19
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

2.56 Límites de clase (Class limits, Class boundaries). <Característica cuantitativa) Valores
que definen los límites superior e inferior de una clase (véase el numeral 2.55).

NOTA Esta definición hace referencia a los límites de clase asociados con las características cuantitativas.

2.57 Punto medio de la clase (Mid-Point of Class). <Característica cuantitativa> Promedio


(véase el numeral 2.15) de los límites de la clase superior e inferior (véase el numeral 2.56).

2.58 Ancho de la clase (Class Width). <Característica cuantitativa> límite superior de una
clase menos el límite inferior de una clase (véase el numeral 2.55).

2.59 Frecuencia (Frequency). Número de ocurrencias o valores observados (véase el


numeral 2.4) en una clase especificada (véase el numeral 2.55).

2.60 Distribución de frecuencia (Frequency Distribution). Relación empírica entre clases


(véase el numeral 2.55) y su número de ocurrencias o valores observados (véase el numeral 2.4).

2.61 Histograma (Histogram). Representación gráfica de una distribución de frecuencia


(véase el numeral 2.60) compuesta por rectángulos contiguos, cada uno de ellos con un ancho de
base igual al ancho de la clase (véase el numeral 2.58) y área proporcional a la frecuencia de la
clase.

NOTA Se debe prestar atención a situaciones en las que los datos se producen en clases que tienen anchos de
clase desiguales.

2.62 Gráfico de barras. (Bar Chart). Representación gráfica de una distribución de


frecuencia (véase el numeral 2.60) de una propiedad nominal, compuesta de un conjunto de
rectángulos de ancho uniforme con altura proporcional a la frecuencia (véase el numeral 2.59).
NOTA 1 Los rectángulos se describen algunas veces como imágenes tridimensionales con propósitos
aparentemente estéticos, aunque esto no agrega información adicional y no es una presentación recomendada. En
un gráfico de barras no es necesario que los rectángulos sean contiguos.

NOTA 2 Los software disponibles no siempre siguen las definiciones establecidas aquí, debido a que la diferencia
entre histogramas y gráficos de barras no es muy clara, ya que el software disponible no siempre sigue las
definiciones establecidas aquí.

2.63 Frecuencia acumulativa (Cumulativa Frequency). Frecuencia (véase el numeral 2.59)


para clases hasta un límite especificado, inclusive.

NOTA Esta definición solamente es aplicable a valores especificados que corresponden a los límites de clase
(véase el numeral 2.56).

2.64 Frecuencia Relativa (Relative Frequency). Frecuencia (véase el numeral 2.59) dividida
por el número total de ocurrencias o valores observados (véase el numeral 2.4).

2.65 Frecuencia relativa acumulativa (Cumulative Relative Frequency). Frecuencia


acumulativa (véase el numeral 2.63) dividida por el número total de ocurrencias o valores
observados (véase el numeral 2.4).

3. TÉRMINOS USADOS EN PROBABILIDAD

3.1 Espacio muestral, Ω (Sample Space, Ω). Conjunto de todos los resultados posibles.

EJEMPLO 1 Considere los tiempos de falla de las baterías compradas por un consumidor. Si la batería no tiene
potencia al usarla la primera vez, su tiempo de falla es 0. Si la batería funciona durante un momento, tiene un tiempo

20
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

de falla de algunas horas. Por tanto, el espacio muestral está compuesto de los resultados {la batería falla en el
intento inicial} y {la batería falla después de x horas, en donde x es mayor que cero horas}. Este ejemplo se usará en
todo el numeral. En particular, en el numeral 3.68 se presenta un explicación amplia de este ejemplo.

EJEMPLO 2 Una caja contiene 10 resistencias etiquetadas 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. Si se hiciera un muestreo


aleatorio de 2 resistencias de este conjunto de resistencias, sin reemplazarlas, el espacio muestral constaría de los
siguientes resultados: (1,2), (1,3), (1,4), (1,5) (1,6), (1,7), (1,8), (1,9), (1,10), (2,3), (2,4), (2,5) (2,6), (2,7), (2,8), (2,9),
(2,10), (3,4), (3,5) (3,6), (3,7), (3,8), (3,9), (3,10), (4,5) (4,6), (4,7), (4,8), (4,9), (4,10), (5,6), (5,7), (5,8), (5,9), (5,10),
(6,7), (6,8), (6,9), (6,10), (7,8), (7,9), (7,10), (8,9), (8,10), (9,10). El evento (1,2) se considera idéntico a (2.1), de
manera que el orden de muestreo de las resistencias no importa. Por el contrario, si el orden tiene significación, de
manera que (1,2) se considera diferente de (2,1), entonces hay un total de 90 resultados en el espacio muestral.

EJEMPLO 3 Si en el ejemplo anterior el muestreo se ha realizado con reemplazo, entonces sería necesario incluir
los eventos adicionales (1,1), (2,2), (3,3), (4,4), (5,5), (6,6), (7,7), (8,8), (9,9) y (10,10). En el caso en que el orden no
es de importancia, habría 55 resultados en el espacio muestral. En la situación en la que el orden es importante,
habría 100 resultados en el espacio de la muestra.

NOTA 1 Los resultados posibles pueden provenir de un experimento real o de uno completamente hipotético. Este
conjunto puede ser, por ejemplo, una lista explícita, un conjunto contable, tal como los enteros positivos, {1, 2, 3,...},
o la línea real.

NOTA 2 El espacio muestral es el primer componente de un espacio de probabilidad (véase el numeral 3.68).

3.2 Evento, A (Event, A). Subconjunto del espacio muestral (véase el numeral 3.1).
EJEMPLO 1 Continuando con el ejemplo 1 del numeral 3.1, los siguientes son ejemplos de los eventos {0}, (0,2), {5, 7}
[7, + ∞), correspondiente a una batería que falló inicialmente, una batería que trabaja al comienzo pero falla a las dos horas,
una batería que falla exactamente a las 5,7 h, y una batería que no ha fallado a las 7 h. El {0} y el {5, 7} son cada uno
conjuntos que contienen un solo valor; (0, 2) es un intervalo abierto de la línea real; [7, + ∞] es un intervalo infinito cerrado a la
izquierda, de la línea real.

EJEMPLO 2 Continuando con el ejemplo 2 de 3.1, el interés se limita a la selección sin reemplazo y sin registrar el
orden de la selección. Un evento posible es A definido por {al menos una de las resistencias 1 ó 2 está incluida en la
muestra}. Este evento contiene 17 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (1,8), (1,9), (1,10), (2,3), (2,4),
(2,5), (2,6), (2,7), (2,8), (2,9) y (2,10). Otro evento posible B es {ninguna de las resistencias 8, 9 ó 10 está incluida en
la muestra}. Este evento contiene los 21 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (2,3), (2,4) (2,5), (2,6), (2,7),
(3,4), (3,5), (3,6), (3,7), (4,5), (4,6), (4,7), (5,6), (5,7), (6,7).

EJEMPLO 3 Continuando con el ejemplo 2, la intersección de eventos A y B (es decir, que al menos una de las
resistencias 1 y 2 esté incluida en la muestra, pero ninguna de las resistencias 8, 9 y 10) contiene los
siguientes 11 resultados (1,2), (1,3), (1,4), (1,5), (1,6), (1,7), (2,3), (2,4), (2,5), (2,6), (2,7).

Incidentalmente, el número de resultados en la unión de los eventos A, y B (es decir, que al menos una de las
resistencias 1 y 2, ó ninguna de las resistencias 8, 9 y 10 esté incluida en la muestra) es 27, que también es igual a
17 + 21 - 11, a saber, el número de resultados en A más el número de resultados en B, menos el número de
resultados en la intersección es igual al número de resultados en la unión de los eventos.

NOTA Dado un evento y un resultado de un experimento, se dice que el evento ocurrió si el resultado pertenece al
evento. Los eventos de interés práctico pertenecerán a la suma algebráica de eventos (véase el numeral 3.69), el
segundo componente del espacio de probabilidad (véase el numeral 3.68). Los eventos ocurren naturalmente en
contextos de juego (póquer, ruleta, etc.) en donde la determinación del número de resultados que pertenecen a un
evento determina las probabilidades de pares.

3.3 Evento complementario, Ac (Complementary Event, Ac). Espacio muestral (véase el


numeral 3.1), exceptuando el evento dado (véase el numeral 3.2).

EJEMPLO 1 Continuando con el ejemplo 1 del numeral 3.1 sobre la batería, el complemento del evento {0} es el evento
(0, + ∞), que es equivalente al complemento del evento en el cual la batería no funcionó inicialmente, es el evento en que
la batería funcionó inicialmente. En forma similar, el evento [0,3) corresponde a los casos en que la batería no estaba
funcionando inicialmente o funcionó menos de tres horas. El complemento de este evento es [3, ∞), que corresponde al
caso en que la batería funcionó durante 3 h y su tiempo de falla es mayor que este valor.

EJEMPLO 2 Continuando con el ejemplo 2 del numeral 3.2, el número de resultados en B se puede encontrar
fácilmente considerando el evento complemento a B = {la muestra contiene al menos una de las resistencias 8, 9 y
10}. Este evento contiene los 7 + 8 + 9 = 24 resultados (1,8), (2,8), (3.8), (4,8), (5,8), (6,8), (7,8), (1,9), (2,9), (3,9),
21
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

(4,9), (5,9), (6,9), (7.9), (8,9), (1,10), (2,10), (3,10), (4,10), (5,10), (6,10), (7,10), (8,10), (9,10). Ya que todo el espacio
muestral contiene 45 resultados en este caso, el evento B contiene 45 - 24 = 21 resultados [a saber: (1,2), (1,3),
(1,4), (1,5), (1,6), (1,7), (2,3), (2,4), (2,5), (2,6), (2,7), (3,4), (3,5), (3,6), (3,7), (4,5),(4.6), (4,7), (5,6), (5,7), (6,7)].

NOTA 1 El evento complemento es el suplemento del evento en el espacio muestral.

NOTA 2 El evento complementario también es un evento.


C
NOTA 3 Para un evento A, el evento complementario a A se designa usualmente por el símbolo A .

NOTA 4 En muchas situaciones puede ser más fácil calcular la probabilidad del complemento de un evento que la
probabilidad del evento. Por ejemplo, el evento definido por "al menos ocurre un defecto en una muestra de 10
elementos escogidos aleatoriamente de una población de 1 000 elementos, con un porcentaje supuesto de
elementos defectuosos" tiene un número considerable de resultados por enumerar. El complemento de este evento
(no se encuentra ningún defecto) es mucho más fácil de abordar.

3.4 Eventos independientes (Independent Events). Par de eventos (véase el numeral 3.2),
tal que la probabilidad (véase el numeral 3.5) de la intersección de dos eventos es el producto
de las probabilidades individuales.

EJEMPLO 1 Considere una situación en la que se lanzan dos dados, uno de ellos rojo y el otro blanco, para
diferenciar los 36 posibles resultados con probabilidad de 1/36 asignada a cada uno. D1 se define como el evento en
donde la suma de los puntos en el dado rojo y en el blanco es i. W se define como el evento en que el dado blanco
muestra un punto. Los eventos D7 y W son independientes, mientras que los eventos Di y W no son independientes
para i = 2, 3, 4, 5 ó 6. Los eventos que no son independientes se denominan eventos dependientes.

EJEMPLO 2 Los eventos independientes y dependientes surgen naturalmente en las aplicaciones. En casos en
donde los eventos o circunstancias son dependientes, es bastante útil conocer el resultado de un evento
relacionado. Por ejemplo, un individuo que debe ser sometido a una cirugía del corazón puede tener posibilidades
de éxito muy diferentes, si el individuo tiene historia de fumador u otros factores de riesgo. Así, el tabaco y el riesgo
de muerte por procedimientos invasivos pueden ser dependientes. En contraste, es probable que la muerte sea
independiente del día de la semana en que la persona nació. En el contexto de confiabilidad, los componentes que
tienen una causa de falla común no tienen tiempos de falla independientes. Las barras de combustible de un reactor
tienen una probabilidad presumiblemente baja de que presenten grietas, pero si una barra de combustible se agrieta,
la probabilidad de agrietamiento de la barra adyacente se puede incrementar sustancialmente.

EJEMPLO 3 Continuando con el ejemplo 2 del numeral 3.2, suponga que el muestreo se ha llevado a cabo
mediante muestreo aleatorio simple, de manera que todos los resultados tienen la misma probabilidad 1/45.
Entonces P(A) = 17/45 = 0,377 8, P(B) = 25/45 = 0,4667 y P(A y B) = 11/45 = 0,244 4. Sin embargo, el producto P(A)
x P(B) = (17(45) x (21/45) = 0,176 3 es diferente de 0,244 4, de manera que los eventos A y B no son
independientes.

NOTA Esta definición se aplica en el contexto de dos eventos, pero se puede ampliar. Para los eventos A y B la
condición de independencia es P(A ∩ B) = P (A) P(B). Para que tres eventos, A, B y C, sean independientes, se
requiere que:

P ( A ∩ B ∩ C ) = P ( A ) P ( B ) P (C )
P ( A ∩ B) = P ( A) P (B)
P ( A ∩ C ) = P ( A ) P (C ) y
P ( B ∩ C ) = P ( B ) P (C )

En general, para más de dos eventos, A1, A2, ... An son independientes si la probabilidad de la
intersección de cualquier subconjunto dado de eventos es igual al producto de los eventos
individuales. Esta condición se aplica a todos los subconjuntos. Es posible construir un ejemplo
en el cual cada par de eventos sea independiente, pero los tres eventos no son independientes
(es decir, independencia por pares, pero no completa).

3.5 Probabilidad de un evento A, P(A) (Probability of an Event A, P(A)). Número real en el


intervalo cerrado [0,1] asignado a un evento (véase el numeral 3.2).

EJEMPLO Continuando con el ejemplo 2 del numeral 3.1, la probabilidad para un evento se puede encontrar
sumando las probabilidades de todos los resultados que componen el evento. Si todos los 45 resultados tienen la

22
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

misma probabilidad, cada uno de ellos tendrá una probabilidad 1/45. La probabilidad de un evento se puede
encontrar contando el número de resultados y dividiendo este número por 45.

NOTA 1 La medida de la probabilidad (véase el numeral 3.70) suministra la atribución de números reales a cada
evento de interés en el espacio muestral. Si consideramos un evento individual, la atribución dada por la medida de
probabilidad da la probabilidad asociada con el evento. En otras palabras, la medida de la probabilidad da el
conjunto completo de atribuciones para todos los eventos, mientras que la probabilidad representa una atribución
específica para un evento individual.

NOTA 2 Esta definición se refiere a la probabilidad como probabilidad de un evento específico. La probabilidad
puede estar relacionada con una frecuencia relativa de ocurrencias a largo plazo, o con un grado de creencia en la
ocurrencia probable de un evento. Habitualmente, la probabilidad de un evento A se designa por P(A). La notación
℘(A) usando la letra ℘ se usa en contextos en donde existe la necesidad de considerar explícitamente la formalidad
de un espacio de probabilidad (véase el numeral 3.68).

3.6 Probabilidad condicional, P(A|B) (Conditional Probability, P(A|B)). Probabilidad de un


evento (véase el numeral 3.5) de la intersección de A y B dividida por la probabilidad de B.

EJEMPLO 1 Continuando con el ejemplo de la batería del numeral 3.1, considere el evento A (véase el numeral
3.2) definido como {la batería sobrevive al menos 3 h}, a saber [3, ∞). Sea el evento B definido como {la batería que
funcionó inicialmente}, a saber (0, ∞). La probabilidad condicional de A dado B tiene en cuenta que uno tiene que ver
con las baterías que funcionaron inicialmente.

EJEMPLO 2 Continuando con el ejemplo 2 del numeral 3.1, si la selección es sin reemplazo, la probabilidad de
seleccionar la resistencia 2 en la segunda extracción es igual a 0, dado que no fue seleccionada en la primer
extracción. Si las probabilidades son iguales para todas las resistencias por seleccionar, la probabilidad de
seleccionar la resistencia 2 en la segunda extracción es igual a 0,111 1, dado que no ha sido seleccionada en la
primera extracción.

EJEMPLO 3 Continuando con el ejemplo 2 del numeral 3.1, si la selección se hace con reemplazo, y las
probabilidades son las mismas para todas las resistencias que van a ser seleccionadas dentro de cada extracción,
entonces la probabilidad de seleccionar la resistencia 2 en la segunda extracción será de 0,1 si la resistencia 2 ha
sido seleccionada o no en la primera extracción. Así, los resultados de la primera y segunda extracción son eventos
independientes.

NOTA 1 Se requiere que la probabilidad del evento B sea mayor de cero.

NOTA 2 "A dado B" se puede formular en forma más completa como "el evento A dado que el evento B ha
ocurrido". La barra vertical en el símbolo para probabilidad condicional se lee "dado".

NOTA 3 Si la probabilidad condicional del evento A dado que el evento B ocurrió es igual a la probabilidad de que
ocurra A, los eventos A y B son independientes. En otras palabras, el conocimiento de la ocurrencia de B no sugiere
ajustes a la probabilidad de A.

3.7 Función de distribución de una variable aleatoria X, F(x). (Distribution Function of a


Random Variable X, F(x)) Función de x dada la probabilidad (véase el numeral 3.5) del
evento (véase el numeral 3.2) (-∞, x]

NOTA 1 El intervalo (-∞, x] es el conjunto de todos los valores hasta x inclusive.

NOTA 2 La función de distribución describe completamente la distribución de probabilidad (véase el numeral 3.11) de
la variable aleatoria (véase el numeral 3.10). Las clasificaciones de las distribuciones, al igual que las clasificaciones de
las variables aleatorias en clases discretas o continuas se basan en clasificaciones de las funciones de distribución.

NOTA 3 Ya que las variables aleatorias toman valores que son números reales o k-uplas ordenadas de números
reales, está implícito en la definición que x es también un número real o una k-upla ordenada de números reales. La
función de distribución para una distribución con múltiples variables (véase el numeral 3.17) da la probabilidad
de un evento (véase el numeral 3.5) de que cada una de las variables aleatorias de la distribución con múltiples
variables sea menor o igual a un valor especificado. En términos de notación, una función de distribución con
variables múltiples está dada por F(x1, x2, ..., xn) = P[X1 ≤ x1, X2 ≤x2, ..., Xn ≤ xn ]. Además, una función de distribución es
no decreciente. En una posición con una sola variable, la función de distribución está dada por F(x) = P[X ≤ x], que
da la probabilidad del evento de que la variable aleatoria X asuma un valor menor o igual a x.

23
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 4 Comúnmente las funciones de distribución se clasifican en funciones de distribución discreta (véase el
numeral 3.22) y distribución continua (véase el numeral 3.23) pero existen otras posibilidades. Tomando
nuevamente el ejemplo de la batería del numeral 3.1, una posible función de distribución es:

⎧0 si x < 0

⎪ 0 ,1 si x = 0
F (x) = ⎨
⎪ 0 ,1 + 0 ,9 [1 − exp ( − x ) ] si x > 0
⎪⎩

Sobre la base de esta especificación de la función de distribución, la vida de la batería es no


negativa. Existe una probabilidad del 10 % de que la batería no funcione al primer intento. Si la
batería funciona inicialmente, su vida tiene una distribución exponencial (véase el numeral 3.58)
con una vida media de 1 h.

NOTA 5 La abreviatura fda (función de distribución acumulativa) está dada para la función de distribución.

3.8 Familia de distribuciones (Family of Distributions). Conjunto de distribuciones de


probabilidad (véase el numeral 3.11).

NOTA 1 El conjunto de distribuciones de probabilidad con frecuencia está determinado por un parámetro (véase
el numeral 3.9) de la probabilidad de distribución.

NOTA 2 Con frecuencia la media (véase el numeral 3.35) y/o la varianza (véase el numeral 3.36) de la
distribución de probabilidad se usan como el índice de la familia de distribuciones o como parte del índice en los
casos en donde se necesitan más de dos parámetros para determinar la familia de distribuciones. En otras
ocasiones, la media y la varianza no son necesariamente parámetros explícitos en la familia de distribuciones, sino
más bien una función de los parámetros.

3.9 Parámetro (Parameter). Índice de una familia de distribuciones (véase el numeral 3.8).

NOTA 1 El parámetro puede ser unidimensional o multidimensional.

NOTA 2 Algunas veces los parámetros se designan como parámetros de posición, particularmente si el parámetro
corresponde directamente a la media de la familia de distribuciones. Algunos parámetros se describen como
parámetros de escala, particularmente si son exactos o proporcionales a la desviación estándar (véase el numeral 3.37)
de la distribución. Los parámetros que no son de posición ni de escala se denominan generalmente parámetros de forma.

3.10 Variable aleatoria (Random Variable). Función definida en un espacio muestral (véase
el numeral 3.1) en donde los valores de la función son k-uplas de números reales.

EJEMPLO Continuando con el ejemplo de la batería introducido en el numeral 3.1, el espacio muestral está
compuesto de eventos que se describen con palabras (la batería falla al intento inicial, la batería trabaja al comienzo,
pero falla a las x horas). Estos eventos son difíciles de analizar matemáticamente, por tanto es natural asociar con
cada evento el momento (dado como un número real) en el que la batería falla. Si la batería aleatoria toma el valor
de 0, entonces se reconocería que este resultado corresponde a una falla inicial. Para un valor de la variable
aleatoria mayor de 0 se entendería que la batería trabajó inicialmente y luego falló a su valor específico. La
representación de la variable aleatoria permite responder preguntas tales como: " ¿Cuál es la probabilidad de que la
batería exceda su vida garantizada, es decir, 6 h?"

NOTA 1 Un ejemplo de k-upla ordenada es (x1, x2, ..., xk). En otras palabras, una k-upla ordenada es un vector en
dimensiones k (ya sea un vector de fila o columna).

NOTA 2 Como regla general, la variable aleatoria tiene una dimensión designada como k. Si k = 1, se dice que la
variable aleatoria es unidimensional o con una sola variable. Para k > 1, se dice que la variable aleatoria es
multidimensional. En la práctica, cuando la dimensión es un número dado, k, se dice que la variable aleatoria es k-
dimensional.

24
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 3 Una variable aleatoria unidimensional es una función de valor real definida en el espacio muestral (véase
el numeral 3.1) que es parte de un espacio de probabilidad (véase el numeral 3.68).

NOTA 4 Una variable aleatoria con valores reales dados como pares ordenados, se dice que es bidimensional. La
definición amplía el concepto de par ordenado a las k-uplas ordenadas.

NOTA 5 El componente jésimo de una variable aleatoria dimensional con k dimensiones es la variable aleatoria
ésima
correspondiente solamente al j componente de la k-upla. El componente jésima de una variable aleatoria con k
dimensiones corresponde a un espacio de probabilidad en donde los eventos (véase el numeral 3.2) están
determinados solamente en términos de los valores del componente considerado.

3.11 Distribución de probabilidad (Probability Distribution, Distribution). Medida de la


probabilidad (véase el numeral 3.70) inducida por una variable aleatoria (véase el numeral 3.10).

EJEMPLO Continuando con el ejemplo de la batería del numeral 3.1, la distribución de la vida de la batería
describe completamente las probabilidades con las que ocurre el valor específico. No se conoce con certeza cuál
será el momento de falla de una batería dada, y tampoco si funcionará al primer intento. La distribución de
probabilidad describe completamente la naturaleza probabilística de un resultado incierto. En la Nota 4 del numeral
3.7 se incluyó una representación posible de la distribución de probabilidad, a saber, una función de distribución.

NOTA 1 Existen numerosas representaciones matemáticas equivalentes de una distribución, que incluyen la
función de distribución (véase el numeral 3.7), la función de densidad de probabilidad (véase el numeral 3.27),
si existe, y la función característica. Con niveles variados de dificultad, estas representaciones permiten determinar
la probabilidad con la cual una variable aleatoria toma valores en una región dada.

NOTA 2 Ya que una variable aleatoria es una función de subconjuntos del espacio muestral al valor real, puede
existir el caso, por ejemplo, donde la probabilidad de que una variable aleatoria tome un valor real es 1. Para el
ejemplo de la batería, P[X ≥ 0] = 1. En muchas situaciones es mucho más fácil analizar directamente la variable
aleatoria y una de sus representaciones, que interesarse en la medición de probabilidad subyacente. Sin embargo,
al hacer la conversión de una representación a otra, la medida de la probabilidad asegura la coherencia.

NOTA 3 Una variable aleatoria con un solo componente se denomina distribución de probabilidad unidimensional o
con una sola variable. Si una variable aleatoria tiene dos componentes, se habla de una distribución de probabilidad
bidimensional o con dos variables, y con más de dos componentes, la variable aleatoria tiene una distribución de
probabilidad multidimensional o con múltiples variables.

3.12 Valor esperado (Expectation). Integral de una función de una variable aleatoria (véase
el numeral 3.10) con respecto a una medida de probabilidad (véase el numeral 3.70) sobre el
espacio muestral (véase el numeral 3.1).

NOTA 1 El valor esperado de la función g de una variable aleatoria X se designa mediante E [g(X)] y se calcula
como:

E [g ( X )] =
∫ g ( X ) dP = ∫ g ( x ) d F ( x )
Ω Rk
en donde

F(x) es la función de distribución correspondiente.

NOTA 2 La "E" en E[g(X)] proviene del valor esperado o expectativa de la variable aleatoria X. E se puede
considerar como un operador o función que representa una variable aleatoria con una línea real, de acuerdo con el
cálculo anterior.

NOTA 3 Se dan dos integrales para E[g(X)] . La primera concierne a la integración sobre el espacio muestral que
es conceptualmente atractivo, pero no para uso práctico, por razones de dificultad al abordar estos eventos (por
ejemplo, si se indican verbalmente). La segunda integral describe el cálculo sobre Rk, que es de mayor interés
práctico.

NOTA 4 En muchos casos de interés práctico la integral anterior se reduce a una forma reconocible de cálculo. Se
presentan ejemplos en las notas del momento de orden r (véase el numeral 3.34) en donde g(x) = xr , la media
(véase el numeral 3.35) en donde g(x) = x y la varianza (véase el numeral 3.36) en donde g(x) = [x - E (X)]2.

25
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 5 La definición no está limitada a integrales unidimensionales, como lo podrían sugerir los ejemplos y notas
anteriores. Para situaciones dimensionales superiores, véase el numeral 3.43.

NOTA 6 Para una variable aleatoria discreta (véase el numeral 3.28), la segunda integral de la nota 1 se
reemplaza por el símbolo de sumatoria. En el numeral 3.35 se presentan ejemplos.

3.13 Cuantila-p, Fractila-p, Xp, xp.. Valor de x igual al menor de todos los x, de manera que la
función de distribución (véase el numeral 3.7) F(x) es mayor o igual que p, para 0 < p < 1.

EJEMPLO 1 Considere una distribución binomial (véase el numeral 3.46) con la función de masa de probabilidad
dada en la Tabla 2. Este conjunto de valores corresponde a una distribución binomial con parámetros n = 6 y p = 0,3.
Para este caso, algunas p-cuantilas seleccionadas son:

x0,1 = 0
x0,25 = 1
x 0,5 = 2
x0,75 = 3
x0,90 = 3
x0,95 = 4
x0,99 = 5
x0,999 = 5

El carácter discreto de la distribución binomial conduce a valores integrales de las cuantilas-p.

Tabla 2. Ejemplo de distribución binomial

X P[X=x] P[X ≤ x] P[X > x]


0 0,117 649 0,117 649 0,882 351
1 0,302 526 0,420 175 0,579 825
2 0,324 135 0,744 310 0,255 690
3 0,185 220 0,929 530 0,070 470
4 0,059 535 0,989 065 0,010 935
5 0,010 206 0,999 271 0,000 729
6 0,000 729 1,000 000 0,000 000

EJEMPLO 2 Considere una distribución normal estandarizada (véase el numeral 3.51) con valores
seleccionados, a partir de su función de distribución dada en la Tabla 3. Algunas cuantilas-p seleccionadas son:

Tabla 3. Ejemplo de distribución normal estandarizada

p x tal que P[X ≤ x]= p


0,1 -1,282
0,25 -0,674
0,5 0,000
0,75 0,674
0,841 344 75 1,000
0,9 1,282
0,95 1,645
0,975 1,960
0,99 2,356
0,995 2,576
0,999 3,090

Ya que la distribución de X es continua, el encabezado de la segunda columna también puede


ser x, tal que P [X < x] = p.

26
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 Para las distribuciones continuas (véase el numeral 3.23), si p es 0,5, entonces la cuantila-0,5
corresponde a la mediana (véase el numeral 3.14). Para p igual a 0,25, la cuantila-0,25 se conoce como la cuartila
inferior. Para distribuciones continuas, el 25 % de la distribución está por debajo de la cuantila 0,25, mientras que el
75 % está por encima de la cuantila 0,25. Para p igual a 0,75, la cuantila-0,75 se conoce como la cuartila superior.

NOTA 2 En general, 100 p % de una distribución está por debajo la cuantila-p; 100(1-p) % de una distribución está
por encima de la cuantila-p. Es difícil definir la mediana para las distribuciones discretas, ya que se puede
argumentar que tiene múltiples valores que satisfacen la definición.

NOTA 3 Si F es continua y estrictamente creciente, la p-cuantila es la solución a F(x) = p. En este caso, la palabra
"infimum" en la definición puede ser reemplazada por "mínimo".

NOTA 4 Si la función de distribución es constante e igual a p en un intervalo, entonces todos los valores en ese
intervalo son cuantilas-p para F.

NOTA 5 Las cuantilas-p se definen para las distribuciones con una variable (véase el numeral 3.16).

3.14 Mediana (Median). Cuantila-0,5 (véase el numeral 3.13).

EJEMPLO Para el ejemplo de la batería de la Nota 4 en el numeral 3.7, la mediana es 0,587 8, que es la solución
para x en 0,1 + 0,9 [1-exp(-x)] = 0,5

NOTA 1 La mediana es una de las cuantilas-p (véase el numeral 3.13) de aplicación más común en la práctica. La
mediana de una distribución continua con una variable (véase el numeral 3.16) es tal, que la mitad de la
población (véase el numeral 2.1) es mayor o igual a la mediana, y la mitad de la población es menor o igual a la
mediana.

NOTA 2 Las medianas se definen para distribuciones con una variable (véase el numeral 3.16).

3.15 Cuartila (Quartile). Cuantila-0,25 (véase el numeral 3.13) o cuantila-0,75.

EJEMPLO Continuando con el ejemplo de la batería del numeral 3.14, se puede demostrar que la cuantila 0,25
es 0,182 3 y la cuantila 0,75 es 1,280 9.

NOTA 1 La cuantila 0,25 también se conoce como la cuartila inferior mientras que la cuantila 0,75 también se
conoce como la cuartila superior.

NOTA 2 Las cuantilas se definen para distribuciones con una variable (véase el numeral 3.16).

3.16 Distribución de probabilidad con una variable (Univariate Probability Distribution,


Univariate Distribution). Distribución de probabilidad (véase el numeral 3.11) de una sola
variable aleatoria (véase el numeral 3.10).

NOTA Las distribuciones de probabilidad con una variable son unidimensionales. Las distribuciones binomial (véase el
numeral 3.46), Poisson (véase el numeral 3.47), normal (véase el numeral 3.50), gama (véase el numeral 3.56), t (véase
el numeral 3.53), Weibull (véase el numeral 3.63) y beta (véase el numeral 3.59) son ejemplos de distribuciones de
probabilidad con una variable.

3.17 Distribución de probabilidad multivariable, distribución multivariable (Multivariate


Probability Distribution, Multivariate Distribution). Distribución de probabilidad (véase el
numeral 3.11) de dos o más variables aleatorias (véase el numeral 3.10).

NOTA 1 Para distribuciones de probabilidad con dos variables aleatorias exactamente, el calificativo "con múltiples
variables" con frecuencia se reemplaza por el calificativo más restrictivo con dos variables. Como se mencionó en
el prólogo, la distribución de probabilidad de una sola variable aleatoria se puede denominar explícitamente
distribución unidimensional o distribución con una variable (véase el numeral 3.16). Ya que esta situación es la
que predomina, es habitual suponer una situación con una variable, a menos que se indique algo diferente.

NOTA 2 La distribución con múltiples variables algunas veces se denomina distribución conjunta.

27
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 3 La distribución multinomial (véase el numeral 3.45), la distribución normal con dos variables (véase
el numeral 3.65) y la distribución normal multivariable (véase el numeral 3.64) son ejemplos de distribuciones
de probabilidad multivariable (véase el numeral 3.64) de que trata la presente norma, NTC 2062-1 (ISO 3534-1).

3.18 Distribución de probabilidad marginal, distribución marginal (Marginal Probability


Distribution, Marginal Distribution). Distribución de probabilidad (véase el numeral 3.11)
de un subconjunto estricto y no vacío de componentes de una variable aleatoria (véase el
numeral 3.10).

EJEMPLO 1 Para una distribución con tres variables aleatorias X, Y y Z hay tres distribuciones marginales con dos
variables aleatorias, a saber, para (X, Y), (X, Z) y (Y, Z) y tres distribuciones marginales con una sola variable
aleatoria, a saber, para X, Y y Z.

EJEMPLO 2 Para la distribución normal con dos variables (véase el numeral 3.65) de la pareja de variables (X,
Y), la distribución de cada una de las variables X y Y consideradas separadamente son distribuciones marginales, y
ambas son distribuciones normales (véase el numeral 3.50).

EJEMPLO 3 Para la distribución multinomial (véase el numeral 3.45), la distribución de (X1, X2) es una
distribución marginal si k > 3. Las distribuciones de X1, X2, ... Xk separadamente también son distribuciones
marginales. Estas distribuciones marginales son cada una distribuciones binomiales (véase el numerales 3.46).

NOTA 1 Para una distribución conjunta en dimensiones k, un ejemplo de una distribución marginal incluye la
distribución de probabilidad de un subconjunto de k1 < k variables aleatorias.

NOTA 2 Dada una distribución de probabilidad multivariable (véase el numeral 3.17) continuas (véase el
numeral 3.23) representadas por su función de densidad de probabilidad (véase el numeral 3.26), la función de
densidad de probabilidad de su distribución de probabilidad marginal se determina integrando la función de densidad
de probabilidad sobre el dominio de las variables que no se consideran en la distribución marginal.

NOTA 3 Dada una distribución de probabilidad con múltiples variables discretas (véase el numeral 3.22)
representada por su función de masa de probabilidad (véase el numeral 3.24), la función de masa de probabilidad
de su distribución de probabilidad marginal se determina sumando la función de masa de probabilidad sobre el
dominio de las variables que no se consideran en la distribución marginal.

3.19 Distribución de probabilidad condicional, distribución condicional (Conditional


Probability Distribution, Conditional Distribution). Distribución de probabilidad (véase el
numeral 3.11) limitada a un subconjunto no vacío del espacio muestral (véase el numeral 3.1) y
ajustada para tener una probabilidad total sobre el espacio muestral limitado.

EJEMPLO 1 En el ejemplo de la batería del numeral 3.7, Nota 4, la distribución condicional de la vida de la batería,
dada de que la batería funciona inicialmente, es exponencial (véase el numeral 3.58).

EJEMPLO 2 Para la distribución normal con dos variables (véase el numeral 3.65), la distribución de
probabilidad condicional de Y dado que X = x refleja el impacto sobre Y del conocimiento de X.

EJEMPLO 3 Considere una variable aleatoria X que describe la distribución de los costos anuales asegurados por
pérdidas en la Florida debido a eventos declarados causados por huracanes. Esta distribución tendría una
probabilidad no cero de costos cero por pérdidas anuales debido a la posibilidad de que ningún huracán afecte a la
Florida en un año dado. Puede tener interés la distribución condicional de los costos de pérdidas para estos años en
los que un evento ocurre realmente.

NOTA 1 Como ejemplo de una distribución con dos variables aleatorias X y Y, existen distribuciones condicionales
para X y distribuciones condicionales para Y. Una distribución de X condicionada a través de Y = y se designa como
"distribución condicional de X dada Y = Y", mientras que una distribución de Y condicionada por X = x se designa
como "distribución condicional de Y dado X = x".

NOTA 2 Las distribuciones de probabilidad marginal (véase el numeral 3.18) se pueden considerar como
distribuciones no condicionales.

NOTA 3 El Ejemplo 1 anterior ilustra la situación en que una distribución con una variable es ajustada por medio
de condicionamiento para obtener otra distribución con una variable, que en este caso es una distribución diferente.
En contraste, para la distribución exponencial, la distribución condicional de que una falla ocurrirá en la siguiente
hora, dado que durante las 10 primeras horas no ha ocurrido ninguna falla, es exponencial con el mismo parámetro.

28
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 4 Algunas distribuciones condicionales pueden surgir para algunas distribuciones discretas en donde no es
posible obtener resultados específicos. Por ejemplo, la distribución de Poisson puede servir como modelo para
pacientes de cáncer en una población de pacientes infectados, sobre la base de que es estrictamente positiva (un
paciente sin tumores por definición no está infectado).

NOTA 5 Las distribuciones condicionales surgen en el contexto de limitar el espacio muestral a un subconjunto
particular. Para (X, Y) que tienen una distribución normal con dos variables (véase el numeral 3.65), puede ser de
interés considerar la distribución condicional de (X, Y), dado que el resultado debe ocurrir en el cuadrado de la
unidad [0,1] x [0,1]. Otra posibilidad es la distribución condicional de (X, Y), dado que X2 + Y2 ≤ r. Este caso
corresponde a una situación en la que, por ejemplo, una parte cumple una tolerancia y una podría estar interesada
en otras propiedades, con base en la conformidad con esta tolerancia.

3.20 Curva de regresión (Regression Curve). Conjunto de valores esperados (véase el


numeral 3.12) de la distribución de probabilidad condicional (véase el numeral 3.19) de una
variable aleatoria (véase el numeral 3.10) Y dada una variable aleatoria X = x.

NOTA Aquí, una curva de regresión se define en el contexto de (X, Y) que tiene una distribución con dos variables
(véase la Nota 1 del numeral 3.17). En consecuencia, es un concepto diferente de los encontrados en el análisis de
regresión en el cual Y está relacionado con un conjunto determinista de valores independientes.

3.21 Superficie de regresión (Regression Surface). Conjunto de valores esperados (véase el


numeral 3.12) de la distribución de probabilidad condicional (véase el numeral 3.19) de una
variable aleatoria Y (véase el numeral 3.10) dadas las variables aleatorias X1 = x1 y X2 = x2.

NOTA Aquí, al igual que en el numeral 3.20, la superficie de regresión se define en el contexto de (Y, X1, X2) que
tiene una distribución multivariable (véase el numeral 3.17). Al igual que con la curva de regresión, la superficie de
regresión involucra un concepto diferente de los encontrados en el análisis de regresión y en la metodología de
respuesta de la superficie.

3.22 Distribución de probabilidad discreta, distribución discreta (Discrete Probability


Distribution, Discrete Distribution). Distribución de probabilidad (véase el numeral 3.11)
para la cual el espacio muestral Ω (véase el numeral 3.1) es finito o contablemente infinito .

EJEMPLO Los ejemplos de distribuciones discretas en este documento son multinomiales (véase el numeral 3.45),
binomiales (véase el numeral 3.46), Poisson (véase el numeral 3.47), hipergeométricas (véase el numeral 3.48) y
binomiales negativas (véase el numeral 3.49).

NOTA 1 El término "discreto" implica que el mismo espacio muestral se puede dar en una lista finita o al inicio de
una lista infinita en la cual la estructura es aparente, tal como un número de defectos igual a 0, 1, 2, ...
Adicionalmente, la distribución binomial corresponde a un espacio muestral finito {0, 1, 2, ... n}, mientras que la
distribución de Poisson corresponde a un espacio muestral infinito en forma contable {0, 1, 2, ...}.

NOTA 2 Las situaciones con datos de atributos en el muestreo de aceptación involucran distribuciones discretas.

NOTA 3 La función de distribución (véase el numeral 3.7) de una distribución discreta contiene valores discretos.

3.23 Distribución de probabilidad continua, distribución continua (Continuous


Probability Distribution). Distribución de probabilidad (véase el numeral 3.11) para la cual
la función de distribución (véase el numeral 3.7) evaluada en x se puede expresar como una
integral de una función no negativa de - ∞ a x.

EJEMPLO Las situaciones en las que ocurren distribuciones continuas son prácticamente cualquiera de las que
involucran datos tipo variable encontrados en aplicaciones industriales.

NOTA 1 Los ejemplos de las distribuciones continuas son normal (véase el numeral 3.50), normal estandarizada
(véase el numeral 3.51), t (véase el numeral 3.53), F (véase el numeral 3.55), gama (véase el numeral 3.56), chi-
cuadrado (véase el numeral 3.57), exponencial (3.58), beta (véase el numeral 3.59), uniforme (véase el numeral 3.60),
valor extremo tipo I (véase el numeral 3.61), valor extremo tipo II (véase el numeral 3.62), valor extremo tipo III (véase
el numeral 3.63), y logarítmica normal (véase el numeral 3.52).

29
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 2 La función no negativa a la que se hace referencia en la definición es la función de densidad de


probabilidad (véase el numeral 3.26). Es demasiado restrictivo insistir en que la función de distribución sea
diferenciable en todas partes. Sin embargo, para consideraciones prácticas muchas distribuciones continuas usadas
comúnmente se benefician de la propiedad de que la derivada de la función de distribución proporciona la función de
densidad de probabilidad correspondiente.

NOTA 3 Las situaciones con datos tipo variable en las aplicaciones de muestreo de aceptación corresponden a
distribuciones de probabilidad continuas.

3.24 Función de masa de probabilidad (Probability Mass Function) .<Distribución discreta>


función que da la probabilidad (véase el numeral 3.5) de que una variable aleatoria (véase el
numeral 3.10) sea igual a un valor dado.

EJEMPLO 1 La función de masa de probabilidad que describe la variable aleatoria X igual al número de caras
que resultan al lanzar tres monedas es:

P ( X = 0) = 1 / 8
P ( X = 1) = 3 / 8
P ( X = 2) = 3 / 8
P ( X = 3) = 1 / 8

EJEMPLO 2 Al definir las distribuciones discretas comunes (véase el numeral 3.22) encontradas en aplicaciones
se dan diversas funciones de masa de probabilidad. Los ejemplos siguientes de distribuciones discretas con una
variable incluyen la binomial (véase el numeral 3.4), Poisson (véase el numeral 3.47), hipergeométrica (véase el
numeral 3.48) y binomial negativa (véase el numeral 3.49). Un ejemplo de una distribución discreta con múltiples
variables es la multinomial (véase el numeral 3.45).

NOTA 1 La función de masa de probabilidad se puede dar como P(X=x1) = pi, en donde X es la variable aleatoria,
xi es un valor dado, y pi es la probabilidad correspondiente.

NOTA 2 Una función de masa de probabilidad se introdujo en la cuantila-p del ejemplo 1 del numeral 3.13, usando
distribución binomial (véase el numeral 3.46).

3.25 Modo de función de masa de probabilidad (Mode of Probability Mass Function).


Valor(es) en donde una función de masa de probabilidad (véase el numeral 3.24) alcanza el
máximo local.

EJEMPLO La distribución binomial (véase el numeral 3.46) con n = 6 y p = 1/3 es unimodal, con un modo en 3.

NOTA Una distribución discreta (véase el numeral 3.22) es unimodal si su función de masa de probabilidad tiene
exactamente un modo, bimodal si su función de probabilidad tiene exactamente dos modos, y multimodal si su
función de masa de probabilidad tiene más de dos modos.

3.26 Función de densidad de probabilidad, f(x) (Probability Density Function, f(x)). Función no
negativa que cuando está integrada de -∞ a x da la función de distribución (véase el numeral 3.7)
evaluada en x de una distribución continua (véase el numeral 3.23).

EJEMPLO 1 Se dan diversas funciones de densidad de la probabilidad al definir las distribuciones de probabilidad
comunes encontradas en la práctica. Los ejemplos siguientes incluyen las distribuciones normal (véase el numeral 3.50),
normal estandarizada (véase el numeral 3.51), t (véase el numeral 3.53), F (véase el numeral 3.55), gamma (véase el
numeral 3.56), chi- cuadrado (véase el numeral 3.57), exponencial (véase el numeral 3.58), beta (véase el numeral
3.59), uniforme (véase el numeral 3.60), normal multivariable (véase el numeral 3.64) y distribuciones normales con
dos variables (véase el numeral 3.65).

EJEMPLO 2 Para la función de distribución definida por F(x) = 3x2 - 2x3 en donde 0 ≤ x ≤ 1, la función de densidad
de probabilidad correspondiente es f(x) = 6x (1 -x) en donde 0 ≤ x ≤ 1.

EJEMPLO 3 Continuando con el ejemplo de la batería del numeral 3.1, no existe una función de densidad de
probabilidad asociada con la función de distribución especificada, debido a la probabilidad positiva de obtener un
resultado cero. Sin embargo, la distribución condicional dada de que la batería funciona inicialmente tiene f(x) = exp
(-x) para x > 0 como su función de densidad de probabilidad, que corresponde a la distribución exponencial.

30
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 Si la función de distribución F es diferenciable en forma continua, entonces la función de densidad de


probabilidad es:

f ( x ) = dF ( x ) / dx

En los puntos x en donde existe la derivada.

NOTA 2 Una representación gráfica de f(x) contra x sugiere descripciones tales como simétricas, con valor pico,
con mayor ponderación en las colas, unimodal, bimodal, entre otros. Un gráfico de una f(x) ajustada sobre un
histograma brinda una evaluación visual del acuerdo entre una distribución ajustada y los datos.

NOTA 3 Una abreviatura común de la función de densidad de probabilidad es fdp.

3.27 Modo de función de densidad de probabilidad (Mode of Probability Density Function).


Valor(es) en donde una función de densidad de probabilidad (véase el numeral 3.26) alcanza un
máximo local.

NOTA 1 Una distribución continua (véase el numeral numeral 3.23) es unimodal si su función de densidad de
probabilidad tiene un modo exactamente, bimodal si su función de densidad de probabilidad tiene dos modos
exactamente, y multimodal si su función de densidad de probabilidad tiene más de dos modos.

NOTA 2 Una distribución en donde los modos constituyen un conjunto conexo se define igualmente como
unimodal.

3.28 Variable aleatoria discreta (Discrete Random Variable). Variable aleatoria (véase el
numeral 3.10) que tiene una distribución discreta (véase el numeral 3.22).

NOTA Las variables aleatorias discretas consideradas en esta parte de la NTC 2062 (ISO 3534) incluyen las
variables binomiales (véase el numerales 3.46), Poisson (véase el numeral 3.47), hipergeométricas (véase el
numeral 3.48) y las aleatorias (véase el numeral 3.45).

3.29 Variable aleatoria continua (Continuous Random Variable). Variable aleatoria (véase
el numeral 3.10) que tiene una distribución continua (véase el numeral 3.23)

NOTA Las variables aleatorias continuas consideradas en esta parte 1 norma NTC 2062 (ISO 3534) incluyen las
variables aleatorias normal (véase el numeral 3.50), normal estandarizada (véase el numeral 3.51), distribución t
(véase el numeral 3.53), distribución F (véase el numeral 3.55), gama (véase el numeral 3.56, chi-cuadrado (véase el
numeral 3.57), exponencial (véase el numeral 3.58), beta (véase el numeral 3.59), uniforme (véase el numeral 3.60),
valor extremo Tipo I (véase el numeral 3.61), valor extremo Tipo II (véase el numeral 3.62), valor extremo Tipo III
(véase el numeral 3.63), logarítmica normal (véase el numeral 3.52), normal multivariable (véase el numeral 3.64) y
normal con dos variables (véase el numeral 3.65).

3.30 Distribución de probabilidad centrada (Centred Probability Distribution).


Distribución de probabilidad (véase el numeral 3.11) de una variable aleatoria centrada
(véase el numeral 3.31).

3.31 Variable aleatoria centrada (Centred Random Variable). Variable aleatoria (véase el
numeral 3.10) en donde la media (véase el numeral 3.35) se ha restado.

NOTA 1 Una variable aleatoria centrada tiene una media igual a cero.

NOTA 2 Este término se aplica solamente a variables aleatorias con una media. Por ejemplo, no existe la media de
la distribución t (véase el numeral 3.53) con un grado de libertad.

NOTA 3 Si una variable aleatoria X tiene una media (véase el numeral 3.35) igual a µ, la variable aleatoria
centrada correspondiente es X - µ, que tiene una media igual a cero.

3.32 Distribución de probabilidad normalizada (Standardized Probability Distribution).


Distribución de probabilidad (véase el numeral 3.11) de una variable aleatoria normalizada
(véase el numeral 3.33).

31
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

3.33 Variable aleatoria normalizada (Standardized Random Variable). Variable aleatoria


centrada (véase el numeral 3.31) cuya desviación estándar (véase el numeral 3.37) es igual
a 1.

NOTA 1 Una variable aleatoria (véase el numeral 3.10) se normaliza automáticamente si su media es cero y su
desviación estándar es 1. La distribución uniforme (véase el numeral 3.60) en el intervalo (-30,5, 30,5) tiene cero
como media y una desviación estándar igual a 1. La distribución normal estandarizada (véase el numeral 3.51)
es, por supuesto, normalizada.

NOTA 2 Si la distribución (véase el numeral 3.11) de la variable aleatoria X tiene una media (véase el numeral 3.35) µ
y desviación estándar σ, entonces la variable aleatoria correspondiente es (X - µ) / σ.

3.34 Momento de orden r, momento r-ésimo (Moment of Order r, rth Moment). Valor
esperado (véase el numeral 3.12) de la résima potencia de una variable aleatoria (véase el
numeral 3.10).

EJEMPLO Considere una variable aleatoria que tiene una función de densidad de probabilidad (véase el
numeral 3.26) f(x) = exp(-x) para x > 0. Usando la integración por partes del cálculo elemental, se puede demostrar
que E(X) = 1, E(X2) = 2, E(X3) = 6 y E(X4) = 24, ó en general, E(Xr) = r!. Este es un ejemplo de distribución
exponencial (véase el numeral 3.58).

NOTA 1 En el caso discreto con una variable, la fórmula apropiada es:

n
E (X r
) = ∑
i =1
x ir p ( x i )

Para un número finito de n resultados y


E (X r
) = ∑
i =1
x ir p ( x i )

para un número de resultados contablemente infinitos. En el caso de condiciones continuas con una variable, la
fórmula apropiada es:


E(X r) = ∫x f (x) dx
r

−∞

NOTA 2 Si la variable aleatoria tiene una dimensión k, entonces se entiende que la potencia résima se aplica
componente por componente.

NOTA 3 Los momentos dados aquí utilizan una variable aleatoria X elevada a una potencia. Más generalmente, se
pueden considerar momentos del orden r de X - µ, o (X - µ) /σ.

3.35 Medias (Means)

3.35.1 Media (Mean), µ, momento de orden r = 1, µ (Moment of Order r=1 µ) <Distribución


continua> Momento de orden r, en donde r es igual a 1, calculado como la integral del producto
de x y la función de densidad de probabilidad (véase el numeral 3.26), f(x), sobre la línea
real.

EJEMPLO 1 Considere una variable aleatoria continua (véase el numeral 3.29) X que tiene una función de
densidad de probabilidad f(x) = 6x(1-x), en donde 0 ≤ x ≤ 1. La media de X es:

1
∫ 0
6 x 2 (1 − x )d x = 0,5

EJEMPLO 2 Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, la media es 0,9, ya que con una
probabilidad de 0,1, la media de la parte discreta de la distribución es 0 y con probabilidad de 0,9 la media de la
parte continua de la distribución es 1. Esta distribución es una mezcla de distribuciones continuas y discretas.

32
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 La media de una distribución continua (véase el numeral 3.23) se designa por E(x) y se calcula como:


E (X ) =
∫ xf ( x ) d x
−∞

NOTA 2 La media no existe para todas las variables aleatorias (véase el numeral 3.10). Por ejemplo, si X se
define por su función de densidad de probabilidad f(x) = [π(1 + x2)]-1, la integral correspondiente a E(X) es
divergente.

3.35.2 Media, µ (Mean, µ). <Distribución discreta> Sumatoria del producto de xi y la función de
masa de probabilidad (véase el numeral 3.24) p(xi).

EJEMPLO 1 Considere una variable aleatoria discreta X (véase el numeral 3.28) que representa el número de
caras resultantes cuando se lanzan 3 monedas. La función de masa de probabilidad es:

P ( X = 0 ) =1 / 8
P ( X = 1) = 3 / 8
P ( X = 2) = 3 / 8
P ( X = 3) = 1 / 8

En consecuencia, la media de X es:

0 (1 / 8 ) + 1 ( 3 / 8 ) + 2 ( 3 / 8 ) +3(1 / 8 ) = 12 / 8 = 1,5

EJEMPLO 2 Véase el ejemplo 2 del numeral 3.35.1.

NOTA La media de una distribución discreta (véase el numeral 3.22) se designa por E(x) y se calcula como:

N
E(X ) = ∑ x p (x )
i =1
i i

Para un número finito de resultados, y



E (X ) = ∑
i =1
xi p( xi )

Para un número de resultados contablemente infinitos.

3.36 Varianza, V (Variance, V). Momento de orden r (véase el numeral 3.34) en donde r es igual a
2 en la distribución de probabilidad centrada (véase el numeral 3.30) de la variable aleatoria
(véase el numeral 3.10).

EJEMPLO 1 Para la variable aleatoria discreta (véase el numeral 3.28) en el ejemplo del numeral 3.24, la
varianza es:

∑(x
i=0
i − 1,5) 2 P ( X = x i ) = 0,75

EJEMPLO 2 Para la variable aleatoria continua (véase el numeral 3.29) en el ejemplo 1 del numeral 3.26, la varianza es:

1
∫ 0
( xi − 0,5 ) 2 6 x (1 − x ) d x = 0,05

EJEMPLO 3 Para el ejemplo de la batería del numeral 3.1, la varianza se puede determinar reconociendo que la
varianza de X es E (X2) - [E(X)] 2. Del ejemplo 3 del numeral 3.35, E(X) = 0,9. Usando el mismo tipo de argumento de
condicionamiento, se puede demostrar que E(X2) es 1,8. Así, la varianza de X es 1,8 - (0,9)2, que es igual a 0,99.

33
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA La varianza se puede definir de manera equivalente como el valor esperado (véase el numeral 3.12) del
cuadrado de la variable aleatoria menos su media (véase el numeral 3.35). La varianza de la variable aleatoria X se
designa mediante V(X) = E{[X-E(X)]2}.

3.37 Desviación estándar, σ (Standard Desviation, σ). Raíz cuadrada positiva de la varianza
(véase el numeral 3.36).

EJEMPLO Para el ejemplo de la batería de los numerales 3.1 y 3.7 la desviación estándar es 0,995.

3.38 Coeficiente de variación, CV (Coefficient of Variation, CV). <Variable aleatoria


positiva> desviación estándar (véase el numeral 3.37) dividida por la media (véase el numeral
3.35).

EJEMPLO Para el ejemplo de la batería de los numerales 3.1 y 3.7, el coeficiente de variación es 0,99/0,995 que
es igual a 0,994 97.

NOTA 1 El coeficiente de variación se reporta comúnmente como un porcentaje.

NOTA 2 Se prefiere el término coeficiente de variación al término usado anteriormente "desviación estándar
relativa".

3.39 Coeficiente de asimetría, γ1 (Coefficient of Skewness, γ1),. Momento de orden 3 (véase


el numeral 3.34) en la distribución de probabilidad normalizada (véase el numeral 3.32) de
una variable aleatoria (véase el numeral 3.10).

EJEMPLO Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, con una distribución combinada
discreta-continua, y utilizando los resultados del ejemplo del numeral 3.34, se tiene:

E ( X ) = 0 ,1 ( 0 ) + 0 ,9 (1 ) = 0 ,9
E ( X 2 ) = 0 ,1 ( 0 2 ) + 0 ,9 ( 2 ) = 1,8
E ( X 3 ) = 0 ,1 ( 0 ) + 0 ,9 ( 6 ) = 5,4
E ( X 4 ) = 0 ,1 ( 0 ) + 0 ,9 ( 24 ) = 21 ,6

Para calcular el coeficiente de asimetría, observe que E{[X-E(X)] 3} = E(X) 3- 3 E (X) E(X2) + 2
[E(X)]3 , y del numeral 3.37, la desviación estándar es 0,995. Entonces, el coeficiente de
asimetría es [5,4 - 3(0,9)(1,8) + 2(0,9)3]/(0,995)3 ó 1,998.

NOTA 1 Una definición equivalente se basa en el valor esperado (véase el numeral 3.12) de la tercera potencia
de (X-µ)/σ, a saber, E[(X-µ)3 / σ3].

NOTA 2 El coeficiente de asimetría es una medida de la simetría de una distribución (véase el numeral 3.11) y
algunas veces se designa como β 1 . Para distribuciones simétricas, el coeficiente de asimetría es igual a 0
(siempre y cuando en la definición existan los momentos apropiados). Los ejemplos de distribuciones con asimetría
igual a cero incluyen la distribución normal (véase el numeral 3.50), la distribución beta (véase el numeral 3.59)
siempre y cuando α = β y la distribución t (véase el numeral 3.53), siempre que existan los momentos.

3.40 Coeficiente de curtosis, β2 (Coefficient of Curtosis, β2). Momento de orden 4 (véase el


numeral 3.34) en la distribución de probabilidad normalizada (véase el numeral 3.32) de
una variable aleatoria (véase el numeral 3.10).

EJEMPLO Continuando con el ejemplo de la batería de los numerales 3.1 y 3.7, para calcular el coeficiente de
curtosis, observe que:

E {[X − E (X ) ] 4
}= E ( X 4 ) − 4 E ( X ) E ( X 3 ) + 6 [E ( X ) ] 2 E ( X 2 ) − 3 [E ( X ) ] 4

El coeficiente de curtosis es entonces:

[ 21,6 − 4( 0,9 )( 5,4 ) + 6( 0,9 ) ( 2 ) − 3( 0,9 ) ] / ( 0,995 )


2 4 4

34
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 1 Una definición equivalente se basa en el valor esperado (véase el numeral 3.12) de la cuarta potencia de
(X - µ) /σ, a saber, E[(X - µ)4 / σ4].

NOTA 2 El coeficiente de curtosis es una medida de la mayor ponderación de las colas de una distribución
(véase el numeral 3.11). Para la distribución uniforme (véase el numeral 3.60), el coeficiente de curtosis es 1,8;
para la distribución normal (véase el numeral 3.50) el coeficiente de curtosis es 3; para la distribución
exponencial (véase el numeral 3.58), el coeficiente de curtosis es 9.

NOTA 3 Se debe tener precaución al considerar los valores de curtosis reportados, ya que algunos usuarios restan 3 (la
curtosis de la distribución normal) del valor que se calcula de la definición.

3.41 Momento combinado de las órdenes r y s (Joint Moment of Orders r and s) Media
(véase el numeral 3.35) del producto de la résima potencia de una variable aleatoria (véase el
numeral 3.10) y la sésima potencia de otra variable aleatoria en su distribución de
probabilidad (véase el numeral 3.11) combinada.

3.42 Momento central combinado de órdenes r y s (Joint Central Moment of Orders r and s)
Media (véase el numeral 3.35) del producto de la résima potencia de una variable aleatoria
centrada (véase el numeral 3.31) y la sésima potencia de otra variable aleatoria centrada en su
distribución de probabilidad combinada (véase el numeral 3.11).

3.43 Covarianza, σXY (Covariance, σXY). Media (véase el numeral 3.35) del producto de dos
variables aleatorias centradas (véase el numeral 3.31) en su distribución de probabilidad
(véase el numeral 3.11) combinada.
NOTA 1 La covarianza es el momento central combinado de las órdenes 1 y 1 (véase el numeral 3.42) para
dos variables aleatorias.

NOTA 2 En términos de notación, la covarianza es:

[ (
E (X − μ X ) Y − μ γ )]
en donde

E(X) = µX y E(Y) = µ Y

3.44 Coeficiente de correlación (Correlation Coefficient). Media (véase el numeral 3.35) del
producto de dos variables aleatorias normalizadas (véase el numeral 3.33) en su
distribución de probabilidad (véase el numeral 3.11) combinada.

NOTA El coeficiente de correlación algunas veces se denomina en forma más breve como correlación. Sin
embargo, este uso coincide parcialmente con las interpretaciones de correlación como una asociación entre
dos variables.

3.45 Distribución multinomial (Multinomial Distribution). Distribución discreta (véase el


numeral 3.22) que tiene la función de masa de probabilidad (véase el numeral 3.24)

P ( X1 = x1, X 2 = x2 ,...X k = xk )
n!
p1 x1 p2 x2 ... pk x k
x1! x2 ! ...xk !

en donde

x1, x2,...xk son enteros no negativos, de manera que:

x1 + x2 + ...+ xk = n con parámetros pi > 0 para todos los i = 1,2..., k con p1 + p2 + ... + pk = 1

k n entero mayor o igual a 2.

35
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA La distribución multinomial da la probabilidad del número de veces que ha ocurrido cada k resultados
posibles en n pruebas independientes, en donde cada prueba tiene los mismos k eventos mutuamente exclusivos y
las probabilidades de los eventos son las mismas para todas las pruebas.

3.46 Distribución binomial (Poisson Distribution) Distribución discreta (véase el numeral 3.22)
que tiene la función de masa de probabilidad (véase el numeral 3.24)

n!
p( X = x ) = p x (1 − p ) n − x
x! ( n − x )!

en donde

x = 0, 1, 2, ..., n y con los parámetros determinados n = 1,2, ..., y 0 < p < 1.

EJEMPLO La función de masa de probabilidad descrita en el ejemplo 1 del numeral 3.24 se puede considerar
que corresponde a la distribución binomial con parámetros de índice n = 3 y p = 0,5.

NOTA 1 La distribución binomial es un caso especial de la distribución multinomial (véase el numeral 3.45) con
k = 2.

NOTA 2 La distribución binomial da la probabilidad del número de veces que han ocurrido cada uno de los dos
resultados posibles en n pruebas independientes, en donde cada prueba tiene los mismos dos eventos (véase el
numeral 3.2) mutuamente exclusivos y las probabilidades (véase el numeral 3.5) de los eventos son las
mismas para todas las pruebas.

NOTA 3 La media (véase el numeral 3.35) de la distribución binomial es igual a np. La varianza (véase el numeral 3.36)
de la distribución binomial es igual a np(1 - p).

NOTA 4 La función de masa de probabilidad binomial se puede expresar igualmente utilizando el coeficiente
binomial dado por:

( )=n
x
n!
x! ( n − x )!

3.47 Distribución de Poisson (Poisson Distribution). Distribución discreta (véase el


numeral 3.22) que tiene la función de masa de probabilidad (véase el numeral 3.24)

λx
P(X = x) = e-λ
x!

en donde

x = 0, 1, 2, ... y con el parámetro λ > 0.

NOTA 1 El límite de la distribución binomial (véase el numeral 3.46) cuando n se aproxima a ∞ y p tiende a cero,
de manera que np tiende a λ es la distribución de Poisson con parámetro λ.

NOTA 2 La media (véase el numeral 3.35) y la varianza (véase el numeral 3.36) de la distribución de Poisson son
ambas iguales a λ

NOTA 3 La función de masa de probabilidad (véase el numeral 3.24) de la distribución de Poisson da la


probabilidad para el número de veces en que ocurre una propiedad de un proceso en un intervalo de tiempo unitario
que satisface determinadas condiciones, por ejemplo, intensidad con que ocurre, independientemente del tiempo.

3.48 Distribución hipergeométrica (Hypergeometric Distribution). Distribución discreta


(véase el numeral 3.22) con la misma función de masa de probabilidad (véase el numeral 3.24).

36
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)


⎜⎜
(M !) ⎞⎟ ⎛
⎜⎜
( N − M )! ⎞
⎟⎟
P(X = x) = ⎝ x! ( M − x ) ! ⎟⎠ ⎝ (n − x )! ( N − M − n + x ) ! ⎠
⎛ N! ⎞
⎜⎜ ⎟⎟
⎝ n ! ( N − n ) ! ⎠
en donde

máximo (0, M - N) ≤ x ≤ mínimo (M, n) con los parámetros enteros

N = 1, 2 , ...
M = 0 , 1, 2 , ..., N − 1
n = 1, 2 ..., N

NOTA 1 La distribución hipergeométrica (véase el numeral 3.11) designa el número de elementos marcados en
una muestra aleatoria simple (véase el numeral 2.7) de tamaño n, tomados sin reemplazo de una población (o lote)
de tamaño N que contiene exactamente M elementos marcados.

NOTA 2 La Tabla 4 permite comprender la distribución hipergeométrica.

Tabla 4. Ejemplo de distribución hipergeométrica

Conjunto de referencia Elementos marcados o Elementos marcados Elementos no


no marcados marcados
Población N M N-M
Elementos incluidos en x N-x
n
la muestra
Elementos no incluidos N-n M-x N-n-M+x
en la muestra

NOTA 3 Bajo determinadas condiciones (por ejemplo, n es pequeño en relación con N), entonces la distribución
hipergeométrica se puede aproximar por la distribución binomial con n y p = M/N.

NOTA 4 La media (véase el numeral 3.35) de la distribución hipergeométrica es igual a (nM / N). La varianza
(véase el numeral 3.36) de la distribución hipergeométrica es igual a

M ⎛ M ⎞ N − n
n ⎜1 − ⎟
n ⎝ N ⎠ N −1

3.49 Distribución binomial negativa (Negative Binomial Distribution), Distribución


discreta (véase el numeral 3.22) que tiene una función de masa de probabilidad (véase el
numeral 3.24).

(c + x − 1)! c
P (X = x) = p (1 − p ) x
x! (c − 1)!

en donde

x = 0, 1, 2, ..., n con el parámetro c > 0 y el parámetro p que satisfacen 0 < p < 1.

NOTA 1 Si c = 1, la distribución binomial negativa se conoce como la distribución geométrica y describe la


probabilidad (véase el numeral 3.5) de que el primer incidente del evento (véase el numeral 3.2) cuya probabilidad
es p, ocurrirá en la prueba (x + 1).

NOTA 2 La función de masa de probabilidad también se puede escribir de la manera equivalente siguiente:

P(X = x) = ( )p
−c
x
c
(1 − p ) x

El término "distribución binomial negativa" surge de esta manera de escribir la función de masa
de probabilidad.
37
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 3 La versión de la función de masa de probabilidad dada en la definición se denomina a menudo


"distribución de Pascal" siempre y cuando c sea un entero mayor o igual a 1. En este caso, la función de masa de
probabilidad describe la probabilidad de que el incidente césimo del evento (véase el numeral 3.2), cuya probabilidad
(véase el numeral 3.5) es p, ocurra en la prueba (c + x).

NOTA 4 La media (véase el numeral 3.35) de la distribución binomial negativa es (cp) / (1 - p). La varianza (véase
el numeral 3.36) de la distribución binomial negativa es (cp)/(1 - p)2.

3.50 Distribución normal, distribución Gaussiana (Normal Distribution, Gaussian Distribution).


Distribución continua (véase el numeral 3.23) que tiene la función de densidad de
probabilidad (véase el numeral 3.26).

( x − μ )2
1
f ( x) = e- 2σ 2
σ 2π

en donde

-∞ < x < ∞ y con los parámetros - ∞ < µ < ∞ y σ > 0.

NOTA 1 La distribución normal es una de las distribuciones de probabilidad más ampliamente usadas (véase el
numeral 3.11) en estadística aplicada. Debido a la forma de la función de densidad, se denomina informalmente
como curva "en forma de campana". Además de servir como modelo para fenómenos aleatorios, surge como la
distribución límite de los promedios (véase el numeral 2.15). Como distribución de referencia en estadística, es se
ampliamente para evaluar la excepcionalidad de los resultados experimentales.

NOTA 2 El parámetro de localización µ es la media (véase el numeral 3.35) y el parámetro de la escala σ es la


desviación estándar (véase el numeral 3.37) de la distribución normal.

3.51 Distribución normal estandarizada, distribución Gaussiana estandarizada


(Standardized Normal Distribution, Standardized Gaussian Distribution). Distribución
normal (véase el numeral 3.50) con µ = 0 y σ = 1.

NOTA La función de densidad de probabilidad (véase el numeral 3.26) de la distribución normal estandarizada es:

1 2
f (x) = e-x /2

en donde

- ∞< x < ∞. Las tablas de la distribución normal involucran esta función de densidad de probabilidad, dando
por ejemplo, el área bajo f para los valores en (-∞, ∞).

3.52 Distribución lognormal (Lognormal Distribution). Distribución continua (véase el


numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

1 −(ln x − μ )2 / 2σ 2
f ( x) = e
xσ 2π

en donde

x > 0 y con los parámetros -∞ < μ < ∞ y σ > 0.

NOTA 1 Si Y tiene una distribución normal (véase el numeral 3.50) con una media (véase el numeral 3.35) µ y una
desviación estándar (véase el numeral 3.37) σ, entonces la transformación dada por X = exp (Y) tiene la función de
densidad de probabilidad dada en la definición. Si X tiene una distribución lognormal con la función de densidad como se
da en la definición, entonces ln(X) tiene una distribución normal con una media µ y una desviación estándar σ.

NOTA 2 La media de la distribución lognormal es exp [µ + (σ2) / 2] y la varianza es exp(2μ + σ2) x [exp(σ2) -1]. Esto
indica que la media y la varianza de la distribución lognormal son funciones de los parámetros µ y σ2.

38
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

NOTA 3 La distribución lognormal y la distribución de Weibull (véase el numeral 3.63) se usan comúnmente en
aplicaciones de confiabilidad.

3.53 Distribución t, distribución de Student (t Distribution, Student’s Distribution).


Distribución continua (véase el numeral 3.23) que tiene una función de densidad de
probabilidad (véase el numeral 3.26).
−( v + 1) / 2
Γ[(v + 1) / 2]] ⎛ t2 ⎞
f (t ) = × ⎜1 + ⎟
πvΓ( v / 2 ) ⎜ v ⎟
⎝ ⎠

en donde

-∞ < t < ∞ y con el parámetro ν con un entero positivo.

NOTA 1 La distribución t se usa ampliamente en la práctica para evaluar la media de la muestra (véase el
numeral 2.15) en el caso común en que la desviación estándar de la población se estima a partir de los datos. La
función estadística t se puede comparar con la distribución t con n - 1 grados de libertad para evaluar una media
especificada como una descripción de la media verdadera de la población.

NOTA 2 La distribución t surge como la distribución del cociente de dos variables aleatorias independientes (véase el
numeral 3.10), cuyo numerador tiene una distribución normal estandarizada (véase el numeral 3.51) y el denominador
está distribuido como la raíz cuadrada positiva de una distribución chi-cuadrado (véase el numeral 3.57) después de
dividir por sus grados de libertad. El parámetro ν se designa como los grados de libertad (véase el numeral 3.54).

NOTA 3 La función gama es como se define en el numeral 3.56.

3.54 Grados de libertad, ν (Degrees of Freedom, ν). Número de términos en una suma,
menos el número de limitaciones sobre los términos de la suma.

NOTA Este concepto se encontró previamente en el contexto de uso de n - 1 en el denominador del


estimador (véase el numeral 2.12) de la varianza de la muestra (véase el numeral 2.16). El número de
grados de libertad se usa para modificar parámetros. El término grados de libertad también se usa
ampliamente en la NTC 2062-3 (ISO 3534-3), en donde los cuadrados medios se dan como sumas de los
cuadrados divididos por los grados de libertad apropiados.

3.55 Distribución F (F Distribution). Distribución continua (véase el numeral 3.23) que tiene
la función de densidad de probabilidad (véase el numeral 3.26).

Γ[(v1 + v2 ) / 2] x (ν 1 / 2 )−1
f ( x) = (v1 )v1 / 2 (v2 ) v2 / 2
( v1 + v 2 ) / 2
Γ(v1 / 2 ) Γ (v2 / 2 ) (v1 x + v2 )

en donde

x>0

ν1 y ν2 son enteros positivos

Γ es la función gama definida en el numeral 3.56.

NOTA 1 La distribución F es una distribución de referencia útil para la evaluación de la relación de dos varianzas
independientes (véase el numeral 3.36).

NOTA 2 La distribución F surge como la distribución del cociente de dos variables aleatorias independientes, cada
una con una distribución de chi-cuadrado (véase el numeral 3.57), dividido por sus grados de libertad (véase el
numeral 3.54). El parámetro ν1 es el numerador para grados de libertad y ν2 es el denominador para grados de
libertad de la distribución F.

3.56 Distribución gama (Gamma Distribution). Distribución continua (véase el numeral 3.23)
que tiene la función de densidad de probabilidad (véase el numeral 3.26).

39
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

x α −1 e −x / β
f ( x) =
α
β Γ(α )

en donde

x > 0 y los parámetros σ > 0, β > 0

NOTA 1 La distribución gama se usa en aplicaciones de confiabilidad para modelado de tiempo de falla. Incluye la
distribución exponencial (véase el numeral 3.58) como un caso especial, al igual que otros casos con tasas de
falla que se incrementan con el tiempo.

NOTA 2 La función gama se define por:


Γ(α ) =
∫ 0
xα −1e − x dx

Para valores enteros de α , Γ(α ) = (α − 1)!

NOTA 3 La media (véase el numeral 3.35) de la distribución gama es αβ. La varianza (véase el numeral 3.36) de
la distribución gama es αβ2.

3.57 Distribución chi-cuadrado, distribución χ2 (Chi-Squared Distribution, χ2 Distribution).


Distribución continua (véase el numeral 3.23) que tiene la función de densidad de
probabilidad (véase el numeral 3.26).

v
−1
x 2 e −x / 2
f ( x) =
2 v / 2 Γ( v / 2 )
en donde

x > 0 y con ν > 0

NOTA 1 Para datos que surgen de una distribución normal (véase el numeral 3.50) con una desviación estándar
conocida (véase el numeral 3.37) σ, la función estadística nS2 / σ2 tiene una distribución chi-cuadrado con n - 1 grados de
libertad. Este resultado es la base para obtener intervalos de confianza de σ2. Otra área de aplicación para la distribución
chi-cuadrado es como referencia para las pruebas de conveniencia a una distribución.

NOTA 2 Esta distribución es un caso especial de la distribución gama (véase el numeral 3.56) con parámetros α = v/2 y β
= 2. El parámetro ν se refiere a los grados de libertad (véase el numeral 3.54).

NOTA 3 La media (véase el numeral 3.35) de la distribución chi-cuadrado es ν. La varianza (véase el numeral
3.36) de la distribución chi-cuadrado es 2 ν.

3.58 Distribución exponencial (Exponential Distribution). Distribución continua (véase el


numeral 3.23) que tiene la función de densidad de probabilidad (véase el numeral 3.26).

f ( x ) = β −1 e − x / β

en donde

x > 0 y con parámetro β > 0

NOTA 1 La distribución exponencial brinda una línea de referencia en aplicaciones de confiabilidad,


correspondiente al caso de "falta de envejecimiento" o propiedad sin memoria.

NOTA 2 La distribución exponencial es un caso especial de la distribución gama (véase el numeral 3.56) con α = 1 ó
en forma equivalente, la distribución chi-cuadrado (véase el numeral 3.57) con ν = 2.
NOTA 3 La media (véase el numeral 3.35) de la distribución exponencial es β. La varianza (véase el numeral 3.36) de
40
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

la distribución exponencial es β2.

3.59 Distribución beta (Beta Distribution). Distribución continua (véase el numeral 3.23)
que tiene la función de densidad de probabilidad (véase el numeral 3.26).

Γ(α + β ) α −1
f ( x) = x (1 − x ) β −1
Γ(α ) Γ( β )
en donde

0 ≤ x ≤ 1 y con los parámetros α, β, > 0.

NOTA La distribución beta es considerablemente flexible, tiene una función de densidad de probabilidad con una
variedad de formas (unimodal, en forma de "j", en forma de "u"). La distribución se puede usar como un modelo de la
incertidumbre asociada con una proporción. Por ejemplo, en una aplicación de modelado de un seguro contra
huracanes, la proporción esperada de daño en un tipo de estructura para una velocidad del viento dada podría ser
0,40, aunque no todas las casas que experimentan este viento sufrirán el mismo daño. Una distribución beta con
una media de 0,40 puede servir para modelar la disparidad en el daño a este tipo de estructura.

3.60 Distribución uniforme, distribución rectangular (Uniform Distribution), (Rectangular


Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de
densidad de probabilidad (véase el numeral 3.26).

1
f ( x) =
b−a

en donde

a≤x≤b

NOTA 1 La distribución uniforme con a = 0 y b = 1 es la distribución subyacente para los generadores de números
aleatorios típicos.

NOTA 2 La media (véase el numeral 3.35) de la distribución uniforme es (a + b)/2. La varianza (véase el numeral 3.36)
de la distribución uniforme es (b - a)2/12.

NOTA 3 La distribución uniforme es un caso especial de la distribución beta con α = 1 y β = 1.

3.61 Distribución de valores extremos Tipo I, Distribución de Gumbel (Type I Extreme


Value Distribution). Distribución continua (véase el numeral 3.23) que tiene la función de
distribución (véase el numeral 3.7).

− e − ( x−a ) / b
F ( x) = e

en donde

-∞ < x < ∞ con parámetros -∞ < a < ∞, b > 0

NOTA Las distribuciones de valores extremos proporcionan distribuciones de referencia apropiadas para los
extremos de las funciones estadísticas de orden (véase el numeral 2.9) X(1) y X(n). Las tres distribuciones límites
posibles cuando n tiende a ∞ son suministradas por los tres tipos de distribuciones de valores extremos dados en los
numerales 3.61, 3.62 y 3.63.

3.62 Distribución de valores extremos Tipo II, Distribución de Fréchet (Type II Extreme
Value Distribution, Fréchet Distribution). Distribución continua (véase el numeral 3.23) que
tiene la función de distribución (véase el numeral 3.7).

−k
⎛x −a ⎞
−⎜ ⎟
F ( x) = e ⎝ b ⎠

41
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

en donde

x > a y con parámetros -∞ < a < ∞, b > 0, k > 0

3.63 Distribución de valores extremos tipo III, Distribución de Weibull. (Type II Extreme
Value Distribution, Weibull Distribution). Distribución continua (véase el numeral 3.23) que
tiene la función de distribución (véase el numeral 3.7).
k
⎛x−a ⎞
−⎜ ⎟
F ( x) =1 − e ⎝ b ⎠

en donde

x > a con parámetros -∞ < a < ∞, b > 0, k > 0

NOTA 1 Además de funcionar como una de las tres distribuciones límites posibles de las funciones estadísticas de
orden extremo, la distribución de Weibull ocupa un lugar destacado en diversas aplicaciones, particularmente
confiabilidad e ingeniería. Se ha demostrado que la distribución de Weibull proporciona ajustes empíricos a una
variedad de conjuntos de datos.

NOTA 2 El parámetro a es un parámetro de posición en el sentido de que es el valor mínimo que puede lograr la
distribución de Weibull. El parámetro b es un parámetro de escala [relacionado con la desviación estándar (véase
el numeral 3.37) de la distribución de Weibull]. El parámetro k es un parámetro de forma.

NOTA 3 Para k = 1, se considera que la distribución Weibull incluye la distribución exponencial. Elevar una
distribución exponencial con a = 0 y el parámetro b a la potencia 1/k produce la distribución Weibull de la definición.
Otro caso especial es la distribución Rayleigh (para a = 0 y k = 2).

3.64 Distribución normal de múltiples variables (Multivariate Normal Distribution).


Distribución continua (véase el numeral 3.23) que tiene la función de densidad de
probabilidad (véase el numeral 3.26).

( x − μ ) T ∑ −1 ( x − μ )
−n / 2 −
f ( x ) = ( 2π ) −π / 2 ∑ e 2

en donde

- ∞ < xi < ∞ para cada i.

µ s un vector de parámetro con n dimensiones.

Σ es una n x n matriz simétrica definida positiva de parámetros, y

La negrilla indica los vectores con dimensión n.

NOTA Cada una de las distribuciones marginales (véase el numeral 3.18) de la distribución con múltiples variables de
este numeral tiene una distribución normal. Sin embargo, hay muchas otras distribuciones con múltiples variables que
tienen distribuciones marginales normales además de la versión de la distribución dada en este numeral.

3.65 Distribución normal con dos variables (Bivariate Normal Distribution). Distribución
continua (véase el numeral 3.23) que tiene la función de densidad de probabilidad (véase el
numeral 3.26)

⎧ ⎡ 2 2⎤ ⎫
⎛ y − μy ⎞ ⎛ y − μy ⎞
f ( x, y ) =
1 ⎪
exp ⎨−
1 ⎢⎛⎜ x − μ x ⎞ ⎛ x − μx
⎟ − 2ρ⎜

⎟ ⎜ ⎟ +⎜ ⎟ ⎥ ⎪
2 ⎢⎜ σ ⎟ ⎜ σ ⎟ ⎜ σy ⎟ ⎜ σy ⎟ ⎥ ⎬
2πσ xσ y 1 − ρ2 ⎪ 2(1 − ρ ) ⎢⎝ x ⎠ ⎝ x ⎠ ⎝ ⎠ ⎝ ⎠ ⎥⎦ ⎪
⎩ ⎣ ⎭

en donde
42
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

−∞ < x < ∞,
−∞ < y < ∞
− ∞ < μ x < ∞,
− ∞ < μ y < ∞,
σx > 0
σy > 0
ρ <1

NOTA Como lo sugiere la notación, para (X, Y) que tiene la anterior función de densidad de probabilidad (véase el
numeral 3.26), E(X) = µx, E(Y) = µy, V(X) = σx2, V(Y) = σy2, y ρ es el coeficiente de correlación (véase el numeral 3.44)
entre X y Y.

3.66 Distribución normal estandarizada con dos variables (Standardized Bivariate Normal
Distribution). Distribución normal con dos variables (véase el numeral 3.65) que tiene
componentes de una distribución normal estandarizada (véase el numeral 3.51).

3.67 Distribución de muestreo (Sampling Distribution). Distribución de una función estadística.

NOTA Las ilustraciones de las distribuciones de muestreo específicas se dan en la Nota 2 del numeral 3.53, la
Nota 1 del numeral 3.55 y la Nota 1 del numeral 3.57.

3.68 Espacio de probabilidad (Probability Space) (Ω,ℵ,℘). Espacio muestral (véase el


numeral 3.1), una suma algebráica de eventos (véase el numeral 3.69) asociados, y una
medida de probabilidad (véase el numeral 3.70).

EJEMPLO 1 Como un caso simple, el espacio muestral puede estar compuesto por todos los 105 elementos fabricados
un día específico en una planta. La suma algebráica de eventos consta de todos los posibles subconjuntos. Estos eventos
incluyen {ningún elemento}, {elemento 1}, {elemento 2}, ... {elemento 105}, {elemento 1 y 2}. ... {todos los 105 elementos}.
Una medida de probabilidad posible se puede definir como el número de elementos en un evento, dividido por el número total de
elementos fabricados. Por ejemplo, el evento {elemento 4, elemento 27, elemento 92} tiene una medida de probabilidad de 3/105.

EJEMPLO 2 Como segundo ejemplo, considere la duración de las baterías. Si las baterías llegan a las manos del
cliente y no tienen potencia, su tiempo de vida es 0 h. Si las baterías son funcionales, sus tiempos de supervivencia
siguen alguna distribución de probabilidad (véase el numeral 3.11), tal como una exponencial (véase el numeral
3.58). El conjunto de los tiempos de vida es entonces gobernado por una distribución que es una mezcla entre
discreta (la proporción de baterías que no son funcionales al inicio) y continua (un tiempo de vida real). Para
simplificar el ejemplo, se supone que la duración de las baterías es relativamente corta, en comparación con el
tiempo de estudio, y que todos los tiempos de vida se miden en continuo. Por supuesto, en la práctica existe la
posibilidad de tiempos de vida truncados a la izquierda o a la derecha (por ejemplo, se sabe que el tiempo de falla es
al menos de 5 h, o que el tiempo de falla está entre 3 h y 3,5 h), en cuyo caso surgirían ventajas adicionales de esta
estructura. El espacio muestral comprende la mitad de la línea real (números reales mayores o iguales a cero). La
suma algebráica de eventos incluye todos los intervalos de la forma [0,x] y el conjunto {0}. Adicionalmente, La suma
algebráica incluye todas las uniones e intersecciones contables de estos conjuntos. La medida de probabilidad
involucra determinar, para cada conjunto, sus componentes que representan baterías no funcionales y las que
tienen un tiempo de vida positivo. En donde es apropiado, en este numeral se presentan detalles de los cálculos
asociados con los tiempos de falla.

3.69 Suma algebráica de eventos, σ- algebráica, campo de suma, campo-σ. (Sigma


Algebra of Events, σ-Algebra, Sigma Field, σ-Field). Conjunto de eventos (véase el numeral 3.2)
con las propiedades:

a) Pertenece a ℵ;

43
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

b) Si un evento pertenece a ℵ, entonces su evento complementario (véase el numeral 3.3)


también pertenece a ℵ.

c) Si {Ai} es un conjunto de eventos en ℵ, entonces la unión U Ai , y la intersección
i =1

I Ai del evento pertenece a ℵ
i =1

EJEMPLO 1 Si el espacio muestral es el conjunto de enteros, entonces se puede escoger una suma algebráica de
eventos, como el conjunto de todos los subconjuntos de los enteros.

EJEMPLO 2 Si el espacio muestral es el conjunto de los números reales, entonces se puede escoger una suma
algebráica de eventos que incluya todos los conjuntos correspondientes a intervalos en la línea real, y todas sus
uniones finitas y contables y las intersecciones de estos intervalos. Este ejemplo se puede extender a dimensiones
más grandes, considerando intervalos k dimensionales. En particular, en dos dimensiones, el conjunto de intervalos
puede estar compuesto de regiones definidas por {(x,y): x < s, y < t} para todos los valores de s y t.

NOTA 1 Una suma algebráica es un conjunto compuesto de conjuntos de sus miembros. El conjunto de todos los
posibles resultados Ω es un miembro de la suma algebráica de eventos, como se indica en la propiedad a).

NOTA 2 La propiedad c) involucra las operaciones definidas sobre un conjunto de subconjuntos (posiblemente
infinito en forma contable) de la suma algebráica de eventos. La notación dada indica que todas las uniones e
intersecciones contables de estos conjuntos también pertenecen a la suma algebráica de eventos.

NOTA 3 La propiedad c) incluye el cerramiento (los conjuntos pertenecen a una suma algebráica de eventos) bajo
uniones o intersecciones finitas. El calificativo suma se usa para hacer énfasis en que A está cerrado incluso bajo
operaciones infinitas en forma contable, en conjuntos.

3.70 Medida de probabilidad, ℘ (Probability Measure, ℘). Función no negativa definida en


la suma algebráica de eventos (véase el numeral 3.69) tal que:

a) ℘ (Ω) = 1

en donde Ω designa el espacio muestral (véase el numeral 3.1).


∞ ∞
b) ℘( U i =1
Ai ) =
i =1
℘ ( Ai )

en donde {A i} es una secuencia de eventos divididos por pares (véase el numeral 3.2).
EJEMPLO Continuando con el ejemplo de la vida de las baterías del numeral 3.1, considere el evento de que la
batería sobrevive menos de una hora. Este evento consta del par disjunto de eventos {no funciona} y {funciona
menos de una hora pero funciona inicialmente}. En forma equivalente, los eventos se pueden designar {0} y (0,1). La
medida de probabilidad de {0} es la proporción de las baterías que no funcionan en el primer intento. La medida de
probabilidad del conjunto (0,1) depende de la distribución de probabilidad continua específica [por ejemplo,
exponencial (véase el numeral 3.58)] que rige la distribución de fallas.

NOTA 1 Una medida de probabilidad asigna un valor de [0,1] para cada evento en la suma algebráica l de
eventos. El valor 0 corresponde a un evento que es imposible, mientras que el valor 1 representa certeza de que
ocurre. En particular, la medida de probabilidad asignada con el conjunto es cero y la medida de probabilidad
asignada al espacio muestral es 1.

NOTA 2 La propiedad b) indica que si una secuencia de eventos no tiene elementos en común cuando se
considera por pares, la medida de probabilidad de la unión es la suma de las medidas de probabilidad individuales.
Como se indicó en la propiedad b), se aplica si el número de eventos es infinito en forma contable.

NOTA 3 Los tres componentes de la probabilidad se vinculan eficazmente por medio de variables aleatorias. Las
probabilidades (véase el numeral 3.5) de los eventos en el conjunto de imágenes de la variable aleatoria
(véase el numeral 3.10) se deducen de las probabilidades de eventos en el espacio de la muestra. Un evento en el
conjunto de imágenes de la variable aleatoria es asignado a la probabilidad del evento en el espacio muestral que se
aplica a la variable aleatoria.

NOTA 4 El conjunto de imágenes de la variable aleatoria es el conjunto de números reales o el conjunto de n-uplas
ordenadas de números reales (observe que el conjunto de imágenes es el conjunto en el cual se aplica la variable aleatoria).
44
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

ANEXO A
(Informativo)

SÍMBOLOS

Símbolos Término en español Término en inglés Numeral


A Evento Event 3.2
AC Evento complementario Complementary event 3.3
Suma algebráica de eventos, σ- Sigma Algebra of Events, σ- 3.69
ℵ algebráica, campo de suma, Campo-σ Algebra, Sigma Field
σ-Field
α Nivel de significación Significance Level 2.45
α, λ, μ, β, σ, ρ, γ, Parámetro Parameter
p, N, M, c, v, a, b, k
β2 Coeficiente de curtosis Coefficient of Kurtosis 3.40
E(Xk) Momento de muestra de orden k Sample Moment of Order k 2.14
E[g(X)] Valor esperado de la función g de una Expectation of the Function g of a 3.12
variable aleatoria X Random Variable X
F(x) Función de distribución Distribution Function 3.7
f(x) Función de densidad de probabilidad Probability Density Function 3.26
γ1 Coeficiente de asimetría Coefficient of Skewness 3.39
H Hipótesis Hypothesis 2.40
Ho Hipótesis nula Null Hypothesis 2.41
HA, H1 Hipótesis alternativa Alternative Hypothesis 2.42
k Dimensión Dimension
k, r, s Orden de un momento Order of a Moment 2.14, 3.34,
3.41, 3.42
μ Media Mean 3.35
v Grados de libertad Degrees of Freedom 3.54
n Tamaño de la muestra Sample Size
Ω Espacio muestral Sample Space 3.1
(Ω, ℵ, ℘) Espacio de probabilidad Probability Space 3.68
P(A) Probabilidad de un evento A Probability of an Event A 3.5
P(A|B) Probabilidad condicional de A dado B Conditional Probability of A given B 3.6
℘ Medida de probabilidad Probability Measure 3.70
rxy Coeficiente de correlación de la muestra Sample Correlation Coefficient 3.23
s Valor observado de una desviación Observed Value of a Sample
estándar de la muestra Standard Deviation
S Desviación estándar de la muestra Sample Standard Deviation 2.17
S2 Varianza de la muestra Sample Variance 2.16
SXY Covarianza de la muestra Sample Covariance 2.22
σ Desviación estándar Sample Deviation 3.37
σ2 Varianza Variance 3.36
σXY Covarianza Covariance 3.43
θ Error estándar Standard Error 2.24
σ − Error estándar de la media de la muestra Standard Error of the Sample
X Mean
θ Parámetro de una distribución Parameter of a Distribution

θ Estimador Estimator 2.12
V(X) Varianza de una variable aleatoria X Variance of a Random Variable X 3.36
X(i) iésima función estadística de orden ith Order Statistic 2.9
x, y, z Valor observado Observed Value 2.4
X, Y, Z, T Variable aleatoria Random Variable 3.10
Xp, xp p-cuantila p-Quantile 3.13
p-fractila p-Fractile
Promedio, media de la muestra Average, Sample Mean 2.15
X, x

45
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

ANEXO B
(Informativo)

DIAGRAMAS DE CONCEPTOS ESTADÍSTICOS

Población (2.1)

Muestra (2.3)

Unidad de Función de
muestreo (2.2) distribución (3.7)

Valor observado (2.4) Muestra aleatoria (2.6)

Rango de
la muestra (3.10)
...
Estadística de
Estadística (2.8)
una prueba (2.52)

Estadística Muestra aleatoria Estadística


...
descriptiva (2.5) simple (2.7) de orden (2.9)

Estimador (2.12)

Mediana de
la muestra (2.13)

Estadística de
orden extremo

Rango de la
Rango medio (2.11)
muestra (2.10)

Figura B.1. Conceptos básicos sobre población y muestra

46
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Muestra aleatoria
simple (2.7)

Momento de la muestra
de orden k (2.14)

...
Media de
la muestra (2.15)

Coeficiente de variación Varianza de Coeficiente de asimetría Coeficiente de curtosis


de la muestra (2.18) la muestra (2.16) de la muestra (2.20) de la muestra (2.21)

Coeficiente de correlación Desviación estandar


de la muestra (2.23) de la muestra (2.17)

Variable aleatoria
Covarianza de
normalizada de
la muestra (2.22)
la muestra (2.19)

Figura B.2. Conceptos acerca de momentos de la muestra

47
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Error estándar
(2.24)

Estimador (2.12) Estimación (2.36)

...

... ...

Estimador por Error de Estimador del máximo Estimación del máximo


Estimado (2.31)
intervalos (2.25) estimación (2.32) de verosimilitud (2.35) de verosimilitud (2.37)

Intervalo de Estimador
Sesgo (2.33)
predicción (2.30) sin sesgo (2.34)

Función de
Parámetro (3.9)
verosimilitud (2.36)

Intervalo de Intervalo estadístico Función de densidad


confianza (2.28) de tolerancia (2.26) de probabilidad (3.26)
...

Familia de Función de verosimilitud


distribuciones (3.8) parcial (2.39)

Intervalo de confianza Función de masa


unilateral (2.29) de probalidad (3.24)

Límite estadístico
de tolerancia (2.27)

Figura B.3. Conceptos de estimación

48
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Estadístico de Prueba estadística


prueba (2.52) (2.48)

Hipótesis (2.40)

Valor-p (2.49)

Hipótesis nula Hipótesis Hipótesis Hipótesis


(2.41) alternativa (2.42) simple (2.43) compuesta (2.44)

Nivel de
significación (2.45)

Error tipo I
(2.46) Prueba estadística
(2.48)

Error tipo II
(2.47)

Potencia de una
prueba (2.50)

Curva de
Potencia (2.51)

Familia de
distribuciones (3.8)

Figura B.4. Conceptos acerca de pruebas estadísticas

49
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Estadística
descriptiva (2.5)

...

Función estadística Función estadística Valor


descriptiva (2.53) descriptiva numérica (2.54) observado (2.4)

Clase (2.55) Frecuencia (2.59)

Límites de Punto medio de Ancho de Distribución de Frecuencia


clase (2.56) la clase (2.57) la clase (2.58) frecuencia (2.60) relativa (2.64)

Frecuencia
acumulativa (2.63)

(Representación de
Frecuencia relativa
una distribución de
acumulativa (2.65)
frecuencia)

Gráfico de
Histograma (2.61)
barras (2.62)

Figura B.5. Conceptos acerca de clases y distribuciones empíricas

50
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

(Población
finita)

(Modelo
estadístico)
(Población Población
infinita) (2.1)

(Población
hipotética)
Variable
Muestra (2.3) Parámetro (3.9)
aleatoria (3.10)

Valor
observado (2.4)

(Función estadística
inferencial)

Prueba
Estimación (2.36) (Predicción)
estadística (2.48)

Figura B.6. Diagrama de conceptos de inferencia estadística

51
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

ANEXO C
(Informativo)

DIAGRAMA DE CONCEPTOS DE PROBABILIDAD

Espacio de probabilidad
(Ω, ℵ,℘) (3.68)

Valor
esperado (3.12)

Espacio Suma algebráica de Medida de


muestral, Ω (3.61) eventos, ℵ (3.69) probabilidad, ℘ (3.70)

Evento
Evento (3.2) Probabilidad (3.6)
complementario (3.3)

Probabilidad condicional Familia de


de A dado B (3.6) distribuciones (3.8)

Parámetro (3.9)
Evento
(−α , x )
independiente (3.4) Función de
distribución (3.7)

Distribución de Variable
probabilidad (3.11) aleatoria (3.10)

Cuartila-p
(3.13)

...

Mediana Cuartila
(3.14) (3.15)

Figura C.1. Conceptos fundamentales en probabilidad

52
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Distribución de Variable Valor


probabilidad (3.11) aleatoria (3.10) esperado (3.12)

...
...

...

Variable Variable
Momento combinado
aleatoria aleatoria
de las órdenes r y s (3.41)
discreta (3.28) continua (3.29)

Variable
Distribución de probalidad Momento de
aleatoria
centrada (3.30) orden r (3.34)
centrada (3.31)

Momento central
...
combinado de
ordenes r y s (3.42)
... ...
Media (3.35)
...

Covarianza (3.43)

Distribución de
Variable aleatoria
probabilidad
normalizada (3.33)
normalizada (3.32)

Coeficiente de Coeficiente de Coeficiente de


Varianza (3.36)
variación (3.38) asimetría (3.39) curtosis (3.40)

Error
estándar (2.24)

Desviación Coeficiente de
estandar (3.37) correlación (3.44)

Figura C.2. Conceptos acerca de momentos

53
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Distribución de
probabilidad (3.11)

Distribución de Función de
Distribución de Distribución de Distribución de Función de
probabilidad con masa de
probabilidad con probabilidad probabilidad densidad de
múltiples probabilidad
una variable (3.16) discreta (3.22) continua (3.24) probabilidad (3.26)
variables (3.17) (3.24)

...

Modo de función de
Modo de función de
densidad de
masa de probabilidad (3.25)
probabilidad (3.27)

Distribución de Distribución de
probabilidad probabilidad
marginal (3.18) condicional (3.19)

Distribución Distribución Distribución


Distribución de
multinominal hipergeométrica binomial
Poisson (3.47)
(3.45) (3.48) negativa (3.49)

Curva de Superficie de
...
regresión (3.20) regresión (3.21)

Distribución de Distribución de
probabilidad con probabilidad con
múltiples variables una variable
(3.17) (3.16)
Distribución
binominal (3.46)

Figura C.3. Conceptos acerca de las distribuciones de probabilidad

54
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

Distribución de
probabilidad continua (2.23)

...

Distribución Distribución
Distribución t Distribución F
lognormal normal
(3.53) (3.55)
(3.52) (3.50)

... Grados de
libertad (3.54)

Distribución Distribución (Distribución Distribución normal


gama beta de valores con múltiples
Distribución normal (3.56) (3.59) extremos) variables (3.64)
estandarizada (3.51)

... ...
... ...

Distribución normal
con dos variables
Distribución Distribución Distribución (3.65)
Chi-cuadrado exponencial uniforme
(3.57) (3.58) (3.60)
...

Distribución normal
estandarizada con
dos variables (3.66)

Distribución de Distribución de Distribución de


valores extremos valores extremos valores extremos
tipo I (3.61) tipo II (3.62) tipo III (3.63)

Figura C.4. Conceptos acerca de distribuciones continuas

55
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

ANEXO D
(Informativo)

METODOLOGÍA USADA EN EL DESARROLLO DEL VOCABULARIO

D.1 INTRODUCCIÓN

La aplicación universal de la familia de normas ISO requiere el empleo de un vocabulario


coherente y armonizado que sea fácilmente comprensible por usuarios potenciales de normas
de estadística aplicada.

Los conceptos son interrelacionados. El análisis de estas relaciones entre conceptos dentro del
campo de la estadística aplicada y su ordenamiento en diagramas de conceptos es
prerrequisito para un vocabulario coherente. Este análisis se utilizó en el desarrollo de esta
norma. Ya que los diagramas de conceptos empleados durante el proceso de desarrollo
pueden ser útiles en un sentido informativo, se reproducen en el literal D.4.

D.2 CONTENIDO DE UNA ENTRADA DE VOCABULARIO Y REGLA DE SUSTITUCIÓN

El concepto forma la unidad de transferencia entre idiomas (incluidas las variantes dentro de
una lengua, por ejemplo, inglés americano e inglés británico). Para cada idioma se escoge el
término más apropiado para representar el concepto en esa lengua, es decir, es un enfoque no
literal de la traducción.

Una definición se hace describiendo únicamente aquellas características que son esenciales
para identificar el concepto. La información concerniente al concepto, que es importante pero
no esencial para su descripción, se coloca en una o más notas de la definición.

Cuando un término se reemplaza por su definición, sujeto a cambios menores en la sintaxis, no


debería haber cambio en el significado del texto. Esta sustitución es un método sencillo para
verificar la exactitud de una definición. Sin embargo, en donde la definición es compleja, en el
sentido de que contiene varios términos, la mejor forma de hacer la sustitución es tomar una a
la vez, o máximo dos definiciones. La sustitución completa de la totalidad de los términos es
difícil de lograr sintácticamente y no tendrá utilidad para transmitir significado.

D.3 RELACIONES ENTRE CONCEPTOS Y SU REPRESENTACIÓN GRÁFICA

D.3.1 Generalidades

En el trabajo terminológico, las relaciones entre los conceptos se basan en la formación


jerárquica de las características de una especie, de manera que la descripción más económica
de un concepto se forma nombrando sus especies y describiendo las características que las
distinguen de sus conceptos matriz o asociados.

Existen tres formas principales de relaciones de conceptos indicadas en este anexo: genéricas
(véase el literal D.3.2), partitivas (véase el literal D.3.3) y asociativas (véase el literal D.3.4).

D.3.2 Relación genérica

Los conceptos subordinados dentro de la jerarquía heredan todas las características del
concepto de rango superior y contienen descripciones de estas características que las
diferencian de los conceptos de rango superior e igual, por ejemplo, la relación entre la

56
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

primavera, verano, otoño e invierno, con la estación.

Las relaciones genéricas se describen mediante un esquema o diagrama de árbol sin flechas
(véase la Figura D.1).

Estación

Primavera Verano Otoño Invierno

Figura D.1. Representación gráfica de una relación genérica

D.3.3 Relaciones partitivas

Conceptos subordinados dentro de la jerarquía de las partes componentes del concepto de


rango superior, por ejemplo, primavera, verano, otoño e invierno se pueden definir como partes
del concepto año. En comparación, es inapropiado definir un clima soleado (una posible
característica del verano) como parte de un año.

Las relaciones partitivas se representan mediante un esquema sin flechas (véase la Figura D.2).
Las partes simples se representan mediante una línea, y las múltiples mediante dos líneas.

Año

Primavera Verano Otoño Invierno

Figura D.2. Representación gráfica de una relación partitiva

D.3.4 Relación asociativa

Las relaciones asociativas no pueden abreviar la descripción, como se presenta en las


relaciones genéricas y partitivas, pero son útiles para identificar la naturaleza de la relación
entre conceptos dentro de un sistema de conceptos, por ejemplo, causa y efecto, actividad y
ubicación, actividad y resultado, herramienta y función, material y producto.

Las relaciones asociativas se describen por flechas en dos sentidos (véase la Figura D.3).

Soleado Verano

Figura D.3. Representación gráfica de una relación asociativa

57
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

D.4 DIAGRAMAS DE CONCEPTOS

Las Figuras B.1 a B.5 muestran los diagramas de conceptos en los que se basan las
definiciones del numeral 1 de esta norma. La Figura B.6 es un diagrama de conceptos adicional
que indica la relación de algunos términos que aparecen previamente en las Figuras B.1 a B.5.
Las Figuras C.1 a C.4 muestran los diagramas de conceptos en los que se basan las
definiciones del numeral 2 de esta norma. Existen varios términos que aparecen en diagramas
de conceptos múltiples que establecen un vínculo entre los diagramas. Estos términos se
indican de la siguiente manera:

Figura B.1 Conceptos básicos sobre población y muestras

Estadística descriptiva (véase el numeral 2.5) Véase la Figura B.5

Muestra aleatoria simple (véase el numeral 2.7) Véase la Figura B.2

Estimador (Véase la el numeral 2.12) Véase la Figura B.3

Estadístico de prueba, estadístico de contraste (Véase el Véase la Figura B.4


numeral 2.52)
Véase la Figura C.1, C.2
Variable aleatoria (véase el numeral 3.10)
Véase la Figura C.1
Función de distribución (véase el numeral 3.7)

Figura B.2 Conceptos acerca de momentos de la muestra (véase el numeral 2.7)

Muestra aleatoria simple (véase el numeral 2.7) Véase la Figura B.1

Figura B.3 Conceptos de estimación:

Estimador (véase el numeral 2.12) Véase la Figura B.1

Parámetro (véase el numeral 3.9) Véase la Figura C.1

Familia de distribuciones (véase el numeral 3.8) Véase la Figura B.4, C.1

Función de densidad de probabilidad (véase el numeral 3.26) Véase la Figura C.3

Función de masa de probabilidad (véase el numeral 3.24) Véase la Figura C 3

Figura B.4. Conceptos acerca de pruebas estadísticas

Estadístico de prueba, estadístico de contraste (véase el Véase la Figura B.1


numeral 2.52)

Función de densidad de probabilidad (véase el numeral 3.26) Véase la Figura B.3, C.3

Función de masa de probabilidad (véase el numeral 3.24) Véase la Figura B.3, C.3

Familia de distribuciones (véase el numeral 3.8) Véase la Figura B.3, C.1

Figura B.5. Conceptos acerca de clases y distribuciones empíricas

Estadística descriptiva (2.5) Véase la Figura B.1

Figura 6. Diagrama de conceptos de inferencia estadística

Población (véase el numeral 2.1) Véase la Figura B.1

Muestra (véase el numeral 2.3) Véase la Figura B.1

Valor observado (véase el numeral 2.4) Véase la Figura B.1, B.5


Continúa

58
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

(Final)

Figura 6. Diagrama de conceptos de inferencia estadística

Estimación (véase el numeral 2.36) Véase la Figura B.3

Prueba estadística (véase el numeral 2.48) Véase la Figura B.4

Parámetro (véase el numeral 3.9) Véase la Figura B.3, C.1

Variable aleatoria (véase el numeral 3.10) Véase la Figura B.1, C.1, C.2

Figura C.1 Conceptos fundamentales en probabilidad

Variable aleatoria (véase el numeral 3.10) Véase la Figura B.1, C.2

Distribución de probabilidad (véase el numeral 3.11)

Familia de distribuciones (véase el numeral 3.8)

Función de distribución (véase el numeral 3.7)

Parámetro (véase el numeral 3.9)

Figura C.2 Conceptos acerca de momentos

Variable aleatoria (véase el numeral 3.10) Véase la Figura B.1, C.1

Distribución de probabilidad (véase el numeral 3.11) Véase la Figura C.1, C.3

Figura C.3 Conceptos acerca de las distribuciones de probabilidad

Distribución de probabilidad (véase el numeral 3.11) Véase la Figura C.2, C.3

Función de masa de probabilidad (véase el numeral 3.24) Véase la Figura B.3, B.4

Distribución continua (véase el numeral 3.23) Véase la Figura C.4

Distribución con una variable (véase el numeral 3.16) Véase la Figura C.4

Distribución con múltiples variables (véase el numeral 3.17) Véase la Figura C.4

Figura C.4. Conceptos acerca de distribuciones continuas

Distribución con una variable (véase el numeral 3.16) Véase la Figura C.3

Distribución con múltiples variables (véase el numeral 3.17) Véase la Figura C.3

Distribución continua (véase el numeral 3.23) Véase la Figura C.3

Como Nota final a la Figura C.4, las siguientes distribuciones son ejemplos de distribuciones con
una variable: normal, distribución t, distribución F, normal estandarizada, gama, beta, chi-cuadrado,
exponencial, uniforme, valor extremo Tipo I, valor extremo Tipo II y valor extremo Tipo III. Las
siguientes distribuciones son ejemplos de distribuciones con variables múltiples: normal con
múltiples variables, normal con dos variables y normal estandarizada con dos variables. Al incluir la
distribución con una variable (véase el numeral 3.16) y la distribución con múltiples variables (véase
el numeral 3.17) se sobrecargaría indebidamente la figura en el diagrama de conceptos.

59
NORMA TÉCNICA COLOMBIANA NTC 2062-1 (Segunda actualización)

DOCUMENTO DE REFERENCIA

INTERNATIONAL ORGANIZATION FOR STANDARDIZATION. Statistics - Vocabulary and


Symbols. Part 1: General Statistic Terms and Terms Used in Probability. Genève: ISO, 2006,
103 p. (ISO 3534-1).

60

You might also like