Professional Documents
Culture Documents
Minerı́a de Datos
Redes Neuronales, Evaluación, Implementación
Octubre, 2016
2 Evaluación
3 Implementación
Redes Neuronales
Otra representación.
Capa de entrada.
Suponga que se tienen n observaciones de un conjunto de datos
con p variables explicativas x1 , x2 , . . . , xp y una variable objetivo
categórica yk con k categorı́as. En la capa de entrada, que
consta de p nodos, se reciben los datos para cada observación.
Para variables contı́nuas, se realiza la estandarización de los
datos, mientras que las variables categóricas se transforman a
variables dummy. Una vez procesados los datos en la capa de
entrada, éstos pasan a la siguiente capa.
Conecciones ponderaciones.
La conecciones, o dentritas, realizan una ponderación entre
capas, es decir, cada valor de una capa es multiplicado por un
valor w, antes de ingresar a la siguiente capa.
Nodos o neuronas.
En los nodos de cada capa, se realiza una transformación
mediante alguna función de activación. Existe una gran
variedad de funciones activación, entre las cuales están la
Logı́stica, Gauss, Seno, Coseno, Tangente hiperbólica, etc. A
este proceso se le denomina sinápsis.
Capas Ocultas.
Por cada nodo de la capa de entrada, se hace una conección a
cada nodo de la primer capa oculta, es decir, para este ejemplo
se realizan 3 × p conecciones de la capa de entrada a la primer
capa oculta.
Una vez recibidos los datos en la primer capa oculta, cada nodo
realizará una transformación. La primer capa oculpa realizará 3
transformaciones, cuyo resultado serán los datos de entrada de
la siguiente capa oculta. En este proceso se realizarán 3 × 3
conecciones.
Capas de salida.
Cada nodo de esta segunda capa oculta, realizará tambien una
transformación y cuyos resultados seran lo datos de entrada de
las capa de salida que contiene k nodos. Se realizarán 3 × k
conecciones.
Para variables objetivo del tipo categóricas, el valor de
respuesta será la probabilidad de pertenecia a la categorı́a que
está representada por el nodo dentro de la capa de salida. Para
variables objetivo contı́nuas, el valor de respuesta será el valor
estiimado.
exp(ηi11 ) − exp(−ηi11 )
Hi11 = tanh(ηi11 ) = .
exp(ηi11 ) + exp(−ηi11 )
Esta transformación mapea los valores de ηi11 del intervalo
(−∞, +∞), al intervalo (−1, +1).
y
ηi13 = w013 + w113 xi1 + w213 xi2 + · · · + wp13 xip .
Y las salidas de los nodos:
exp(ηi12 ) − exp(−ηi12 )
Hi12 = tanh(ηi12 ) =
exp(ηi12 ) + exp(−ηi12 )
y
exp(ηi13 ) − exp(−ηi13 )
Hi13 = tanh(ηi13 ) = .
exp(ηi13 ) + exp(−ηi13 )
exp(ηi21 ) − exp(−ηi21 )
Hi21 = tanh(ηi21 ) = .
exp(ηi21 ) + exp(−ηi21 )
exp(ηi31 ) 1
yi = =
1 + exp(ηi31 ) 1 + exp(ηi31 )
Γi (W, Xi ),
1
Distribución Normal, Cauchy o Uniforme
Act. Fernando Roque Minerı́a de Datos
Índice Redes Neuronales Artificiales Evaluación Un
Implementación
poco de Teorı́a RNAs en SAS EM
m
X Γi (W(k) , Xi ) Γi (W(k) , Xi )
E(k) = −2 yi ln + (1 − yi ) ln .
yi yi
i=1
2
Otros criterios de selección son Beneficio\Pérdida y Error promedio.
Act. Fernando Roque Minerı́a de Datos
Índice Redes Neuronales Artificiales Evaluación Un
Implementación
poco de Teorı́a RNAs en SAS EM
RNAs en SAS EM
RNAs en SAS EM
Opciones de Optimización
En esta ventana podemos elegir el número de iteraciones
(modelos) para minimizar la tasa error de acuerdo a la función
de error seleccionada.
Criterios de Selección
Propiedades de la RNA
Entre las opciones de RNA a elegirse están la Arquitectura de
la Red, el número de capas, la forma de estandarización, la
selección de la distribución de los pesos iniciales, etc.
Evaluación
Evaluación
Evaluación
Evaluación
ROC
ROC
Índice ROC
Índice ROC
Evaluación
Evaluación
Una vez ejecutado este nodo, se muestran los siguientes resultados:
Evaluación
La primer ventana muestra la curva ROC para cada modelo evaluado.
Evaluación
Implementación
Implementación
Implementación
The End