You are on page 1of 13

UNIVERSIDAD DE LA FUERZAS ARMADAS ESPE

Optativa de Profesionalización Mecatrónica

Vías de Activación de Redes Neuronales

Edison Correa
Johnny Guanoluisa
Byron Chicaiza
Redes neuronales

 Una nueva forma de computación, inspirada en modelos biológicos.


 Un modelo matemático compuesto por un gran número de elementos
procesales organizados en niveles.
 un sistema de computación compuesto por un gran número de elementos
simples, elementos de procesos muy interconectados, los cuales procesan
información por medio de su estado dinámico como respuesta a entradas
externas.
 Redes neuronales artificiales son redes interconectadas masivamente en
paralelo de elementos simples (usualmente adaptativos) y con organización
jerárquica, las cuales intentan interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso biológico.
Ventajas que ofrecen las red neuronal.
 Aprendizaje Adaptativo. Capacidad de aprender a realizar tareas basadas en
un entrenamiento o en una experiencia inicial.
 Auto-organización. Una red neuronal puede crear su propia organización o
representación de la información que recibe mediante una etapa de
aprendizaje.
 Tolerancia a fallos. La destrucción parcial de una red conduce a una
degradación de su estructura; sin embargo, algunas capacidades de la red se
pueden retener, incluso sufriendo un gran daño.
 Operación en tiempo real. Los cómputos neuronales pueden ser realizados en
paralelo; para esto se diseñan y fabrican máquinas con hardware especial
para obtener esta capacidad.
 Fácil inserción dentro de la tecnología existente. Se pueden obtener chips
especializados para redes neuronales que mejoran su capacidad en ciertas
tareas. Ello facilitará la integración modular en los sistemas existentes.
Función de activación
 Las neuronas artificiales también tienen diferentes estados de
activación, algunas de ellas solamente dos, pero otras pueden tomar
cualquier valor dentro de un conjunto determinado.
 La función activación calcula el estado de actividad de una neurona;
transformando la entrada global (menos el umbral, Θi) en un valor
(estado) de activación, cuyo rango normalmente va de (0 a 1) o de (–1
a 1). Esto es así, porque una neurona puede estar totalmente inactiva
(0 o –1) o activa (1).
Función de identidad ( CvANN_MLP::IDENTITY ):

La función lineal o identidad

 Esta función devuelve directamente el valor de activación de la neurona. Este


tipo de función se utiliza en las redes de baja complejidad, como en el
modelo Adaline.
La función escalón o signo
 Esta función que representa salidas binarias (habitualmente 0, 1 o −1, 1). En este
caso si la activación de una neurona es inferior a un determinado umbral.
 Entre las redes que utilizan funciones de transferencias de tipo escalón cabe
destacar el Perceptron Simple, la red de Hopfield discreta.
La función mixta o lineal a tramos
 En la que si la activación de una unidad es menor que un limite inferior
preestablecido, la salida se asocia con un determinado valor, si la activación
es igual o superior que un limité superior, la salida se asocia con otro valor; si
el nivel de activación se encuentra comprendido entre ambos límites, se
aplica la función lineal o identidad
La función sigmoidea
 Definida en un determinado intervalo monotonito con limites superiores e
inferiores. Entre las funciones sigmoideas de transferencia más aplicadas se
destacan la función sigmoidea o logística, la función tangente hiperbólica, y
la función sigmoidea modificada propuesta por Azof
 Las funciones sigmoideas se caracterizan por presentar una derivada simple
positiva e igual a cero en sus límites asintóticos, que toma su valor máximo
cuando x = 0. Así, estas funciones admiten la aplicación de las reglas de
aprendizaje típicas de la función escalón,
La función gaussiana
 Adquiere la forma de campana de Gauss cuyo centro, radio y apuntamiento
son susceptibles a adaptación, lo que las hace muy versátiles. Las funciones
gaussianas se suelen aplicar a redes complejas con m capas ocultas (m ≥ 2)
que requieren reglas de propagación basadas en el calculo de distintas
cuadráticas entre los vectores de entrada y los pesos de la red
la red capacitada funciona de la
siguiente manera:
 Tome el vector de características como entrada. El tamaño del vector es igual
al tamaño de la capa de entrada.
 Pasa valores como entrada a la primera capa oculta.
 Calcule las salidas de la capa oculta usando los pesos y las funciones de
activación.
 Pase las salidas más abajo hasta que calcule la capa de salida.
Se pueden utilizar diferentes funciones de
activación. MLP implementa tres funciones
estándar:
 Función de identidad (CvANN_MLP :: IDENTITY): f (x) = x

 Sigmoide simétrico (CvANN_MLP :: SIGMOID_SYM): ,


que es la opción por defecto para MLP . El sigmoide estándar con beta = 1,
alpha = 1

 Función gaussiana (CvANN_MLP :: GAUSSIAN): , que no está


completamente soportada en este momento.
MLP con la topología especificada
void CvANN_MLP::create(const CvMat* layerSizes,
int activateFunc=CvANN_MLP::SIGMOID_SYM, double fparam1=0, double fparam2=0 )

Parámetros:
LayerSizes - Vector entero que especifica el número de neuronas en cada capa incluyendo las
capas de entrada y salida.
ActivateFunc - Parámetro que especifica la función de activación para cada neurona:
una de CvANN_MLP :: IDENTITY,
CvANN_MLP :: SIGMOID_SYM
CvANN_MLP :: GAUSSIAN.
Fparam1 - Parámetro libre de la función de activación, alpha. Vea las fórmulas en la sección de
introducción.
Fparam2 - Parámetro libre de la función de activación, beta. Vea las fórmulas en la sección de
introducción.

El método crea una red MLP con la topología especificada y asigna la misma función de activación
a todas las neuronas.
Gracias

You might also like