You are on page 1of 16

CONEXIONISMO

VIII. ALGUNOS MODELOS DE REDES NEURONALES

VIII.1. REDES DE McCULLOCH-PITTS O REDES DE NEURONAS FORMALES


VIII.2. PERCEPTRONES
VIII.3. EL PANDEMONIUM: UN MODELO PARA EL RECONOCIMIENTO DE PATRONES
VIII.3.1. La tarea de reconocimiento de patrones: dos explicaciones, el modelo de plantillas y
modelo de anlisis de caractersticas
VIII.3.2. El Pandemonium: rasgos principales
VIII.3.3. El Pandemonium: base experimental
VIII.3.4. El Pandemonium: dificultades
VIII.3.5. El Pandemonium y el conexionismo
VIII.4. NETtalk: APRENDER A LEER EN INGLS

Web www.e-torredebabel.com

VIII. 1. REDES DE McCULLOCH-PITTS O REDES DE NEURONAS FORMALES

En 1943, Warren McCulloch (neurofisilogo) y Walter Pitts (matemtico) publicaron en el Bu


Mathematical Biophysics "Un clculo lgico de las ideas inmanentes en la actividad nerviosa"; en este
defendieron la tesis de que las actividades de las neuronas y las relaciones existentes entre ellas
estudiarse mediante la lgica proposicional. Creyeron que las neuronas tenan un comportamiento biesta
producir salidas todo-nada) y que, en este sentido, eran semejantes al comportamiento tambin biest
los conmutadores elctricos (abierto-cerrado). Junto con la idea relativa al comportamiento supuestament
de las neuronas, presentaron tambin la idea de construir mquinas de computar con una arquitectura s
las neuronas. A pesar de su conocimiento insuficiente de las neuronas y las sinapsis orgnicas, sus ide
tenido mucha importancia en el desarrollo de la psicologa cognitiva: consideraron que las leyes que go
la mente tienen ms que ver con las leyes que gobiernan la informacin que con las relativas a la mater
ms comn a la psicologa cognitiva clsica que al conexionismo); pero en su comprensin del apre
anticiparon tambin ideas conexionistas: dieron ms importancia al aprendizaje que a factores i
consideraron que nuestro cerebro comienza con redes aleatorias, que los estmulos provocan conexiones
determinada manera y que los estmulos posteriores, si son fuertes y constantes, llevaran a la red a ma
una configuracin determinada. Esta configuracin determinara que la respuesta de la red fuese distin
nuevos estmulos. En definitiva, su artculo fue importante al tratar al cerebro como un organismo computa

Demostraron tambin que redes neuronales sencillas, conectadas entre s mediante sinapsis exci
o excitadoras e inhibidoras, y asignando un valor umbral para la activacin de la unidad de salida, eran c
de representar adecuadamente las leyes lgicas fundamentales. Llamaron neuronas formales a las ne
que componen dichas redes. Aunque intentaron modelar aspectos elementales de las neuronas biolgic
neuronas McCulloch-Pitts no eran otra cosa que conmutadores lgicos, semejantes a los circuitos lgicos
pueden crear mediante simples interruptores por los que pueden fluir la corriente elctrica.

Las redes siguientes son algunos ejemplos que presentaron en su artculo, y, como se indica, sir
para calcular los valores de verdad de la disyuncin, la conjuncin y la conjuncin con negacin. Las neu
poda recibir tanto entradas excitadoras como inhibidoras. La neurona tomaba valor 0 cuando estaba
desactivada y valor 1 cuando estaba activada (es decir utilizaba una funcin de activacin tipo umbral). L
salida de la unidad era 1 cuando estaba activada y 0 cuando estaba desactivada (por lo tanto la funcin
transferencia era la funcin identidad). En todos los casos el peso sinptico de las conexiones excitadora
1. Las sinapsis inhibidoras provocaban la inhibicin total de la neurona: independientemente de la cantid
excitacin que le llegase desde las sinapsis excitadoras, si una sinapsis inhibidora se excitaba, la neurona
quedaba totalmente desactivada y produca la salida 0; por lo tanto, la neurona produca 1 de salida si y
si no reciba ninguna seal inhibidora y las seales excitadoras que reciba igualaban o superaban el valo
umbral. Esta es una de las diferencias fundamentales respecto de las redes que se utilizan actualmente

pero tambin podemos utilizar los siguientes grficos para representar las neuronas McCulloch- Pitts, grfi
seguramente resultan ms intuitivos (tomado de Estructura, dinmica y aplicaciones de las redes de ne
artificiales, VVAA, Editorial Centro de Estudios Ramn Areces, p. 103); el nmero en el interior de la n
indica el umbral

Volver al ndice
VIII. 2. PERCEPTRONES

En 1958 Frank Rosenblatt escribi The Perceptron, a Probabilistc Model for Information Stora
Organization in the Brain. Rosenblatt rechaz el uso que McCulloch y Pitts hicieron de la lgica simblica a
a las redes y defendi mtodos probabilsticos. En esta obra llam perceptrones a unas redes McCullo
capaces de modificar los pesos de sus conexiones si las respuestas de la red no eran las correctas y de
que estas redes se podan entrenar para clasificar ciertos patrones en iguales o distintos, por tanto qu
capaces del reconocimiento de formas sencillas.

Ejemplo de un Perceptrn sencillo


las unidades y conexiones que se muestran son slo ilustrativas
y no reflejan totalmente la complejidad del modelo

El mecanismo de procesamiento del Perceptrn es el siguiente: el patrn a reconocer incide en


sensorial; cada una de las unidades sensoriales responde en forma todo o nada al patrn de entrada; las
generadas por las unidades sensoriales se transmiten a las unidades de asociacin; stas unidades se ac
la suma de sus entradas sobrepasa algn valor umbral. Cuando una unidad de la capa asociativa se
provoca una seal de salida, la cual va por las sinapsis correspondientes hasta las unidades de la capa de
estas responden de forma muy similar a las de las unidades de asociacin: si la suma de sus entradas sob
un umbral, producen un valor de salida 1, en caso contrario su salida vale 0 (por lo tanto, la funcin de ac
de las unidades era tipo umbral, produciendo actividades con valores discretos, 0 y 1, y la funcin de trasf
era la funcin de identidad).

La representacin del Perceptrn utilizada ms arriba puede inducir a pensar que se trata de u
multicapa, pero este no es el caso: las conexiones entre las unidades sensitivas y las de la capa de aso
son fijas, no se modifican durante el aprendizaje; siempre es preciso presentar a la red el patrn de ent
esto se puede hacer de varias formas, por ejemplo el usuario puede introducir los datos en el ordenador m
el teclado, pero si la red est conectada a algn sensor (como el Perceptrn intentaba simular) los d
llegarn a travs de l. Por lo tanto, a todos los efectos el Perceptrn puede considerarse como una red
capas, sin unidades ocultas.

El Perceptrn era una red capaz de aprendizaje. En su configuracin inicial a los pesos de las con
se les da valores arbitrarios, por lo que ante la presencia de estmulos la red genera respuestas arbi
respuestas que no coinciden con las deseadas. Se considera que la red ha conseguido aprender cuando lo
se han ajustado de tal modo que la respuesta que emite es la deseada. El procedimiento propuesto por Ros
para este entrenamiento era sencillo: se le presenta a la red un patrn cuya seal se transmite hasta la c
salida, provocando la activacin de alguna de sus unidades; si se activan las unidades de respuesta corre
se hace ningn ajuste de sus pesos; si la respuesta es incorrecta se procede de la manera siguiente: si la
deba estar activada y no lo est, aumentar todos los pesos de sus conexiones; si la unidad deb
desactivada y est activada, disminuir los pesos de sus conexiones. Se repite este procedimiento con to
patrones deseados de estmulo-respuesta. Rosenblatt crey que era posible hacer que los pesos converja
conjunto de valores, a partir de los cuales le es posible a la red computar cada uno de los patrones de e
para producir los correspondientes patrones de salida.

En el prrafo anterior se ha descrito de modo cualitativo y poco preciso la modificacin que han d
los pesos cuando la red produce errores; existen varios algoritmos que se pueden utilizar para detal
exactitud el modo de modificar los pesos de las conexiones, por ejemplo:

si la respuesta es 0 debiendo ser 1, wij (t+1) = wij(t) + *oi;


si la respuesta es 1 debiendo ser 0, wij (t+1) = wij(t) *oi

donde
wij : es el peso correspondiente a la conexin de la unidad i con la unidad j
oi : es la salida de la unidad i
: es la tasa de aprendizaje que controla la velocidad de adaptacin

En 1969 Marvin Minsky y Seymour Papert escribieron Perceptrons: An Introduction to Compu


Geometry. En esta obra analizaron las capacidades y limitaciones del Perceptrn, y demostraron que hay
clases de problemas que el Perceptrn y cualquier modelo simple de dos capas no puede resolv
perceptrones slo pueden distinguir tramas o patrones linealmente separables, y dado que hay mu
importantes problemas que no son linealmente separables, concluyeron que los perceptrones son poco ade
como clasificadores de patrones. Adems ampliaron su crtica afirmando que esta dificultad no se puede r
con redes multicapa (algo que posteriormente se demostr errneo). Decimos que un patrn o conjunto d
de entrada de la red es linealmente separable cuando el espacio de todas las entradas puede dividirse
regiones, quedando en uno de los lados del hiperplano las correspondientes a una categora y en la otr
del hiperplano las correspondientes a otra categora. Se llaman hiperespacios a los espacios n-dimensiona
ejemplo, el espacio euclideo es un caso particular de hiperespacio, y consta de tres dimensiones); se
hiperplanos a los objetos de n-1 dimensiones que dividen un hiperespacio de n dimensiones en varias re
en el caso de un espacio bidimensional, el hiperplano es una lnea que descompone el espacio en dos re
en el caso del espacio tridimensional, el hiperespacio es un plano y puede dividir el espacio en tres regio
la resolucin de problemas puede ser til la referencia a los hiperplanos puesto que permiten separar re
de puntos de un hiperespacio en categoras individuales o clases, por lo que es un recurso til para di
unas clases de otras.

La obra de Minsky y Papert supuso un importante freno en el desarrollo de la investigacin en


neuronales pues convenci a la administracin americana de la bondad de la arquitectura tradicio
arquitectura Von Neumann) y de la incompetencia de las arquitecturas de redes neuronales, y llev a m
investigadores a preocuparse por la lnea tradicional en psicologa cognitiva e Inteligencia Arti
despreocuparse de los modelos conexionistas.

Se puede comprender la crtica de Minsky y Papert y el problema de la separabilidad lineal si nos


en uno de los ms conocidos y sencillos problemas que la red no puede resolver: el relativo al problema
disyuncin exclusiva. Dado que el Perceptrn es capaz de asociar patrones de entrada con patrones d
y que las tablas de verdad de los funtores son tambin correspondencias entre pares de valores de verd
valor del enunciado molecular compuesto por el funtor correspondiente, parece que podemos utili
perceptrones para decidir los valores de verdad de los enunciados moleculares; por ejemplo, la tabla de
de la funcin AND (la conjuncin) y de la funcin OR (la disyuncin inclusiva) son las siguientes
x1 x2 x1 x2 x1 x2 x1 x2
0 0 0 0 0 0
0 1 0 0 1 1
1 0 0 1 0 1
1 1 1 1 1 1

tabla de verdad de la conjuncin tabla de verdad de la disyuncin inclusiva

La tarea que tiene que realizar el Perceptrn es, en el primer caso, aprender a asociar la entrada (
con la salida 1, y las entradas restantes con la salida 0; en el segundo caso debe aprender a asociar la e
(0,0) con la salida 1, y las entradas restantes con la salida 1. La red que se ha de utilizar para realizar la
computacin debe constar de dos unidades de entrada y una unidad de salida: cada unidad de entrada re
uno de los elementos del patrn de entrada y la unidad de salida produce una salida, que es la que
corresponde a la solucin.

Como se ha indicado, para la funcin OR (disyuncin inclusiva) la re


ser capaz de devolver la salida 0 si se le presenta el patrn (0,0) y p
restantes patrones la salida 1; para la funcin AND (la conjuncin) la re
devolver la salida 1 para el patrn (1,1) y 0 para los restantes patrones. V
el caso de la funcin OR:

x1 y x2 son las entradas a la neurona;


en las neuronas de la capa de entrada la salida es igua
entrada;
w1 y w2 son los pesos de las conexiones entre las neuro
entrada y la neurona de salida;
la entrada neta es la suma ponderada de las entradas (w
w2x2);
la funcin de activacin de la neurona de salida es la
identidad;
la salida es discreta tomando alguno de los valores
(1,0);
la funcin de salida o transferencia es de tipo escaln, e
establece un umbral que es necesario superar para que la salida

De este modo, tendramos:

entrada neta = w1x1 + w2x2


activacin de la unidad de entrada = w1x1 + w2x2
valor de salida = 1 si w1x1 + w2x2 umbral
0 si w1x1 + w2x2 < umbral

Para el caso de la disyuncin inclusiva, el umbral puede ser cero o superior, sin embargo,
conjuncin el umbral ha de ser mayor que cero. Es posible entrenar a la red para que modifique sus pe
modo que converjan en los adecuados para producir el patrn de salida adecuado. Expresado en trm
hiperplanos, la red resuelve los problemas lgicos anteriores si existe un hiperplano capaz de distribuir e
en dos regiones: en el caso de la funcin AND (la conjuncin), en una regin quedaran los patrones de e
(0,0), (0,1), (1,0) y en la otra regin el patrn (1,1); en el caso de la funcin OR (la disyuncin inclusi
una regin quedara el patrn (0,0) y en la otra los patrones de entrada (0,1), (1,0), (1,1); estos p
corresponden a los valores de verdad posibles de los enunciados que componen el enunciado molecular. V
cmo se puede utilizar este mtodo:

primero construimos un plano en el que se pueda representar cada uno de los vectores de entr
plano tendr las coordinadas x1, x2;
en segundo lugar, mediante puntos, situamos en el plano los cuatro valores de verdad correspon
a la funcin lgica que se quiere computar;
en tercer lugar, representamos en el plano la ecuacin w1x1 + w2x2 (que corresponde a la fun
activacin); w1 y w2 son los pesos y x1 y x2 los distintos patrones de entrada. Esta ecuaci
ecuacin de una lnea en el plano x1, x2.
La recta divide el espacio en dos regiones que podramos interpretar uno como correspondiendo
1, y el otro como correspondiendo al valor 0; si en cada una de estas regiones se incluye el patrn de e
correspondiente, entonces podemos decir que la red es capaz de computar la funcin lgica, pues dis
adecuadamente los valores de verdad del patrn de entrada con el valor de salida que les debe correspon
las figuras siguientes se muestra el plano xi, x2 con los cuatro puntos que corresponden a los cuatro v
de entrada (0,0), (0,1), (1,0), (1,1).

en la funcin AND al vector (0,0) le debe corresp


la salida 0, al (0,1) la salida 0, al (1,0) la salida
(1,1) la salida 1 (en el grfico la salida se pone e
negrita); como se puede apreciar, la recta gener
por la ecuacin w1x1 + w2x2 permite distribuir
correctamente los valores de salida, luego la red
computar la funcin lgica AND

en la funcin OR al vector (0,0) le debe correspo


salida 0, al (0,1) la salida 1, al (1,0) la salida 1
(1,1) la salida 1; como en el caso anterior, la rec
tambin distribuye correctamente los valores de
por ello la red podra computar la funcin lgica
Sin embargo, la red de dos capas no puede computar adecuadamente la funcin lgica XOR (la disy
exclusiva); vemoslo:

x1 x2 x1 x2
0 0 0
0 1 1
1 0 1
1 1 0

tabla de verdad de la disyuncin exclusiva

si ahora representamos en el plano las vectores de entrada y los valores de verdad correspondiente, ten

Se observa fcilmente que con una sola lnea es imposible separar


puntos 1 y 1 de los puntos 0 y 0; no hay forma de disponer la lnea de
que separe los conjuntos de puntos citados. Esto es precisamente lo qu
quiere indicar cuando se dice que este problema no es linealmente sepa
Si tuvisemos dos lneas entonces sera posible descomponer el espacio
tres regiones, en dos de las cuales se encontraran los puntos 0 y en la
los puntos 1. Los perceptrones de dos capas no pueden dar lugar ms
una lnea, pero podemos conseguir dos lneas si entre la capa de entrad
de salida situamos una capa intermedia con dos neuronas, cada una de
cuales nos permitir obtener una lnea (ver grficos de la pgina siguie
En la poca de Rosenblatt no se dispona de un algoritmo de aprendiza
adecuado para redes con capas ocultas y hubo que esperar a los aos
ochenta para su perfecto desarrollo (la regla delta generalizada) y, por
tanto, para la superacin del problema de la separabilidad lineal.
Red multicapa con unidades
ocultas que resuelve
correctamente el problema XOR.
Si el umbral de la unidad c = 0.4,
de la d = 1.2, de la e = 0.5 y los
pesos wca = 1, wcb = 1, wda =
1, wdb = 1, wec = 0.6, wed = -
0.4, la red da lugar a la
representacin grfica inferior. Se
aprecia que las dos lneas crean
una regin en donde se sita el
conjunto formado por 1 y 1 y dos
regiones en donde se sitan los
otros dos valores; por lo tanto, la
red resuelve el problema XOR

Volver al ndice

VIII. 3. EL PANDEMONIUM: UN MODELO PARA EL RECONOCIMIENTO DE PATRO

VIII. 3. 1. La tarea de reconocimiento de patrones: dos explicaciones, el modelo de plantilla


modelo de anlisis de caractersticas

Una caracterstica del sistema de procesamiento visual humano es su flexibilidad: somos capa
identificar un patrn, un tipo de estmulo, con independencia sus posibles variaciones en tamao, posici
contexto y orientacin espacial; e incluso cuando su forma vara en ciertos lmites; fijmonos en los sig
ejemplos:

En todos ellos reconocemos sin dificultad la letra "E", y


ellos pueden interpretarse como variaciones del mismo patr
correspondiente a dicha letra. Podemos llamar reconocimi
de patrones al hecho de identificar distintos estmulos com
perteneciendo a la misma clase, como siendo del mismo tipo
psiclogos han presentado diversas teoras para comprende
modo en que nuestra mente es capaz de reconocer patrones
de las primeras y ms sencillas es la de comparacin de
plantillas. Segn esta teora en nuestra memoria debe hab
modelo o plantilla correspondiente a cada forma que podam
reconocer. Cuando vemos un objeto, la imagen que se prod
la retina se la compara con las plantillas almacenadas en nu
memoria y aquella que mejor se ajusta a la imagen retinian
que identifica al objeto visto. Fcilmente se ve que esta teor
es satisfactoria: un cambio en la posicin, tamao u orienta
del objeto provocara un desajuste que hara imposible el
reconocimiento. Adems no podramos reconocer formas
deterioradas pues tampoco coincidiran con las plantillas.

Podramos modificar la teora para superar estas dificultades: por ejemplo suponiendo que existen
plantillas almacenadas como variedades posibles de posicin, rotacin, tamao y distorsin, pero est cl
sta no es una buena solucin pues exigira un nmero tan grande de plantillas que ni siquiera el cerebro
almacenar. Otra estrategia ms razonable consistira en suponer que antes de la comparacin del input re
con las plantillas nuestra mente realiza un anlisis preparatorio, lo que algunos autores
preprocesamiento: mediante este anlisis las imgenes retinianas se someten a un proceso de norma
que los traduce a un formato estndar compatible con los formatos de las plantillas existentes en n
memoria (ajustando el tamao y la orientacin por ejemplo). Existen algunos resultados experimenta
parecen avalar la hiptesis de la normalizacin.

Algunas de las dificultades del modelo de plantillas se pueden resolver con otro modelo algo ms co
que el anterior: el modelo basado en el anlisis de caractersticas. Esta teora defiende que nuestra m
trabaja con copias exactas de la informacin sino con el anlisis de las caractersticas internas de cada
por ejemplo, el sistema visual utilizara un anlisis de caractersticas al menos en las siguientes dimen
lneas y sus variantes (verticales, horizontales, oblicuas), ngulos y sus variantes y curvas. En la mem
representa cada patrn mediante una lista de sus caractersticas geomtricas y (al menos en las version
elaboradas) sus correspondientes pesos. As, la letra "A" podra representarse mediante la siguiente
caractersticas: pesos altos: dos lneas inclinadas, una hacia la derecha y otra hacia la izquierda, un
horizontal, un ngulo apuntando hacia arriba; pesos bajos o nulos: lneas verticales, lneas curvas discon
ngulos rectos, etc. El patrn estimular activa los detectores de caractersticas, y la configuracin de la act
resultante se comparara con la de los patrones almacenados en la memoria; la configuracin que mejor se
determinara la interpretacin perceptual del sistema.

VIII. 3. 2. El Pandemonium: rasgos principales

El Pandemonium propuesto por O. Selfridge en su escrito de 1959 Pandemonium: A parad


learning es precisamente uno de los primeros y ms conocidos modelos de reconocimiento de patrones b
en el anlisis de caractersticas. Originariamente el Pandemonium se concibi como un programa de ord
para reconocer seales del cdigo Morse, pero posteriormente se le dio una interpretacin psicolgic
modelo de reconocimiento alfanumrico. La exposicin y comentarios que siguen se refiere precisamen
versin ms conocida del Pandemonium (la de Lindsay y Norman en su obra Introduccin a la psicologa cog
y cuyo objetivo es el reconocimiento de letras. El Pandemonium consiste en varios conjuntos de unidad
que Selfrigde dio el nombre de demonios, unidades que realizan distintas tareas y provocan la informa
salida (la identificacin de la forma presentada al sistema). El dibujo siguiente es una representacin habi
Pandemonium (tomado de Linsay y Norman, Introduccin a la psicologa cognitiva).
Los tipos de demonios de los que
el modelo son los siguientes:

Demonios de la imagen: su tarea


registrar la imagen del signo extern
Demonios de caractersticas: l
de las unidades de este tipo es ana
imagen registrada; cada demo
caractersticas est especializado
aspecto particular de la forma
detectan lneas, otros ngulos,
curvas, ...) por lo que el procesa-
en este nivel consiste en la descomp
de la forma en sus caracte
relevantes; cada demonio
caractersticas detecta la presen
alguno de los rasgos para los que
definido (por ejemplo el d
correspondiente a las lneas ve
detecta la presencia y nmero de
verticales en la figura).

Demonios cognitivos: reciben y examinan la informacin de los demonios de caractersticas; cada d


cognitivo est especializado en el reconocimiento de una forma (por ejemplo, uno para la letra "A" otro
"B", ...) y busca en los datos que les ofrecen los demonios de caractersticas la presencia de los rasg
definen la letra en la estn especializados (por ejemplo el demonio cognitivo de la letra "A" buscar la pr
de una lnea horizontal, dos oblicuas y tres ngulos agudos).
Demonio de decisin: cuando un demonio cognitivo encuentran una caracterstica que buscaba em
gritar y cuantas ms caractersticas descubre ms grita; la tarea del demonio de decisin es escu
Pandemonium producido por los demonios cognitivos y seleccionar el que grita ms fuerte; la interpretac
el sistema hace de la forma que se le presenta corresponde a la letra decidida por este demonio.

Una cuestin muy importante que tiene que decidir el diseador de un Pandemonium es la de dete
las caractersticas de cada patrn. Se han dado distintas propuestas de los criterios ms adecuados pa
propuestas entre las que destaca la que present en 1969 E. J. Gibson en su obra Principles of per
learning and development. Los criterios que defendi se referan a la seleccin de la lista de caracterstic
las letras maysculas, y son los siguientes:

1. Las caractersticas crticas deben estar presentes en algunos miembros, pero no en otros, de mo
permitan una clara distincin entre ellos.
2. No deben variar cuando cambia el brillo, tamao o perspectiva.
3. Deben producir un nico patrn para cada letra.
4. La lista no debe ser muy extensa.
Ms explcita es la propuesta de Linsay y Norman en su libro ya clsico Introduccin a la ps
cognitiva. El cuadro siguiente (tomado de dicha obra) presenta los demonios de caractersticas necesari
la identificacin de una letra y los valores que activan para cada una de las letras del alfabeto. Mediante l
caractersticas citadas podemos identificar adecuadamente la totalidad de las letras.

Lneas Lneas Lneas ngulos ngulos Curvas Curvas


verticales horizontales oblicuas rectos agudos continuas discontinuas

A 1 2 3
B 1 3 4 2
C 1
D 1 2 2 1
E 1 3 4
F 1 2 3
G 1 1 1 1
H 2 1 4
I 1 2 4
J 1 1
K 1 2 1 2
L 1 1 1
M 2 2 3
N 2 1 2
O 1
P 1 2 3 1
Q 1 2 1
R 1 2 1 3 1
S 2
T 1 1 2
U 2 1
V 2 1
W 4 3
X 2 2
Y 1 2 1
Z 2 1 2

En realidad, el modelo basado en el anlisis de caractersticas es semejante al de comparacin de pla


slo que aqu las plantillas son las partes geomtricas que componen la letra (podramos llamar
caracterstica miniplantilla) y en el segundo caso las letras mismas. Parece que este modelo puede exp
que el modelo de plantillas puede explicar (ya que las plantillas estn compuestas por caractersticas) y, a
otra serie de fenmenos para los que el modelo de plantillas es ineficaz.

Volver al ndice

VIII. 3. 3. El Pandemonium: base experimental

La teora del anlisis de caractersticas (bien sea al modo del Pandemonio, bien sea con otro
architectura) goza de un apoyo experimental razonable, apoyo mayor que la teora de las plantillas. V
alguno de estos experimentos:

En su artculo de 1964 Visual search (Scientific American, 210) Neisser plante la siguiente hip
si el modelo de deteccin de caractersticas es correcto la identificacin de una letra (que podramos
letra-objetivo) en un contexto formado por otras letras con caractersticas muy semejantes ser m
que la identificacin de una letra en un contexto formado por letras con caractersticas muy distint
ejemplo la identificacin de la letra-objetivo "Z" en el contexto de las letras "X", "L", "N" (letras ang
ser ms lenta que la identificacin de dicha letra-objetivo en el contexto de las letras "C", "S
(letras redondeadas). Esta hiptesis parece razonable puesto que se debe tardar ms en rechaz
"N" que una "C", puesto que la "Z" comparte con la "N" ms rasgos que con la "C". En los experim
los sujetos tardaban ms en identificar la letra-objetivo cuando estaban en un contexto con letras si
que cuando estaban en un contexto con letras menos parecidas.
Existen ciertas tcnicas que nos permiten preparar el ojo de tal modo que la imagen visual en la
sea la misma aunque el ojo cambie de posicin; en estos casos se observa (y quiz por la fatiga
receptores retinianos) que la imagen empieza a desaparecer, pero lo hace perdiendo partes signific
no al azar (la imagen detenida va perdiendo lneas rectas, curvas, segmentos significativos, ...)
estudios de fragmentacin perceptual parecen avalar la teora del anlisis de caractersticas.
Otro conjunto de experimentos importante se refiere a las confusiones que se producen
reconocimiento de letras cuando stas se presentan en condiciones que dificultan su identificacin.
varias tcnicas para provocar la confusin en los sujetos que realizan la tarea (por ejemplo ut
taquistoscopio para presentar estmulos en tiempos extremadamente breves). Los resultados d
experimentos muestran que las letras que comparten ms caractersticas tienden a confundirse, a
la teora del anlisis de caractersticas predice.
Algunas investigaciones sugieren la existencia de diversos tipos de clulas nerviosas funciona
distintas, clulas que responden selectivamente a distintos estmulos: unas a bordes, otras a v
otras a barras luminosas, otras a barras oscuras, ...). Sin embargo los resultados y experimen
controvertidos y no hay un acuerdo unnime en este punto. En el caso de existir la especializacin n
citada, la teora de los detectores de caractersticas quedara fuertemente avalada.
Volver al ndice

VIII. 3. 4. El Pandemonium: dificultades

Pero, ms all de su bondad (por ejemplo para explicar la identificacin de los caracteres escrito
formas geomtricas sencillas) el modelo del Pandemonium y, en general, la teora del anlisis de caracter
presenta importantes deficiencias si lo queremos utilizar como una teora general del reconocimiento de pa
Veamos alguna de ellas:

El Pandemonium no puede distinguir entre una "T" y una "T" invertida, o una letra y su image
espejo. La causa de estas limitaciones est en el tipo de informacin que el sistema considera relevante
identificacin: el Pandemonium se fija en los elementos que componen el patrn pero no en sus rel
estructurales. Las relaciones estructurales tienen que ver, por ejemplo, con el modo de estar localiz
orientados unos rasgos respecto de otros (la simetra, la interseccin, la igualdad, ...), y, sin duda, inte
realmente en el modo en que nosotros reconocemos patrones. Adems, posiblemente nuestra mente at
este tipo de relaciones para distinguir variantes del mismo patrn: vemos como distintos los signos A, A,
(aunque todos sean ejemplos de la letra "A"), somos capaces de clasificar ejemplos del mismo patrn en
a partir de sus semejanzas. Seguramente debido a la limitacin citada, el modelo del Pandemonium no
explicar esta competencia (por ejemplo, el demonio de decisin responder del mismo modo y sin matic
dichos signos).

Otra limitacin de este modelo es que no introduce datos de alto nivel como puede ser la infor
contextual (se ha demostrado experimentalmente que el sentido global de una frase interviene
interpretacin particular que se le asigna a una letra), o las expectativas inducidas.
Por lo dems, cuando creamos un Pandemonium e intentamos comprobar su validez, parece ne
que nosotros hayamos interpretado antes el estmulo en los trminos de las categoras fsicas que el
sistema utiliza para definir el patrn (lneas rectas, curvas, ngulos, ...), de tal manera que, en real
Pandemonium interpreta lo que antes nosotros hemos interpretado del estmulo, no interpreta el estmulo
para que de verdad fuese capaz de realizar esto ltimo al sistema se le debera presentar la energa lumin
propio estmulo (es decir, debera estar conectado a un sensor y utilizar los datos que ste le ofrezc
ejemplo, si al sistema le presentamos una letra que conste de una lnea recta, no es cierto que el estmulo
o primitivo sea propiamente una lnea recta pues esto ya exige una interpretacin (es necesario saber
una lnea recta); nuestra mente es capaz de descubrir lneas rectas en el entorno, y es necesario una exp
de esta competencia; el Pandemonium no da cuenta de la habilidad de nuestra mente para captar este
regularidad en los estmulos. O dicho en otros trminos: en el reconocimiento de patrones ex
procesamiento de la informacin anterior y ms bsico que el que nos ofrece los modelos al es
Pandemonium.

Por ltimo, y relacionado con lo anterior, el modelo del Pandemonium tiene poca validez ecolgica:
ser competente en situaciones bastante artificiales (pocos patrones, cada uno de ellos compuesto de un n
reducido de categoras y que se ofrecen en condiciones perceptuales ptimas), como ocurre en el caso
letras del alfabeto; sin embargo, en situaciones normales, los estmulos son objetos tridimensionales y se
en condiciones fsicas no necesariamente perfectas (poca iluminacin, sombras, escorzos, mezcla de unos
con otros, ...); en estas situaciones reales la eficacia de un Pandemonium es prcticamente nula.

Volver al ndice

VIII. 3. 5. El Pandemonium y el conexionismo

Este modelo de identificacin de patrones se puede incluir en el enfoque conexionista pues p


algunos de sus rasgos principales:

1. Existen muchas unidades de procesamiento.


2. La informacin se almacena de un modo bastante distribuido: en el nivel de los demon
caractersticas cada letra se define por la activacin de un conjunto de unidades y cada unidad c
en la identificacin de varias letras.
3. El procesamiento es en paralelo pues todas las unidades de cada nivel actan simultneamente
4. Las unidades estn conectadas entre s formando distintos niveles o capas.
5. La entrada y la salida de cada una de las unidades se expresa de modo cuantitativo.
6. El cmputo que realiza el sistema es bsicamente de tipo cuantitativo y probabilstico (los de
cognitivos reciben informacin cuantitativa de los demonios de caractersticas y envan su s
demonio de decisin de modo cuantitativo (gritando mucho, poco o nada).

Pero tambin encontramos algunas importantes diferencias:

La primera y ms llamativa se refiere al sistema de representacin grfica utilizado: en los m


conexionistas tpicos las unidades se suelen representar con crculos, reciben el nombre de neuron
conexiones entre ellas se representan mediante lneas rectas; en el Pandemonium las unidades rec
nombre de demonios, se las representa mediante pequeos diablillos, y las conexiones entr
mediante flechas ms o menos imaginativas.
En el Pandemonium las conexiones son excitatorias: en el sentido de que si un demonio de caracte
detecta un caracterstica enva su seal a un demonio cognitivo provocando un aumento en la pos
de que este se active o un incremento en su activacin; a su vez el incremento de los demonios cog
provoca un aumento en la posibilidad de que el demonio de decisin se decida por el carct
representa dicho demonio cognitivo; pero el Pandemonium (al menos en sus versiones ms senci
presenta conexiones inhibitorias mientras que las redes conexionistas tradicionales s lo hacen.
Aunque, como se ha dicho, el sistema es un sistema de representacin distribuida, las redes tradic
distribuyen de un modo ms acentuado la informacin. Un aspecto de esta diferencia se refie
interpretacin cognitiva: en los modelos de redes conexionistas en los que la informacin es
distribuida las unidades no representan ni significan nada, los significados y las representaciones ap
como consecuencia de la interaccin entre una muchedumbre de unidades, y se reflejan particula
en el patrn de pesos y el patrn de actividad. En el Pandemonium hay, al menos, un nivel en el
posible la interpretacin cognitiva puesto que en l la informacin se representa de forma localis
distribuida (el de los demonios de caractersticas, en donde cada demonio representa una letra) P
lado, es cierto que tambin se han propuesto importantes ejemplos de redes conexionistas con u
que permiten una interpretacin cognitiva (por ejemplo la red NETtalk explicada ms abajo), y,
tanto, representaciones locales.

El Pandemonium no presenta de modo preciso las modificaciones cuantitativas que sufren las un
(por ejemplo la intensidad exacta necesaria para la activacin de un demonio cognitivo, ni la m
exacta de la seal que enva un demonio cognitivo al demonio de decisin para que se decida por
correspondiente al demonio cognitivo).

En el modelo tampoco encontramos conceptos habituales en el procesamiento de las redes conexi


tradicionales (umbral, funcin de activacin, funcin de transferencia, .... );

El procesamiento realizado por el Pandemonium depende de las asignaciones que el diseador del s
a establecido, las cuales dependen, a su vez, de la comprensin que el diseador tiene
caractersticas esenciales de las letras (por ejemplo, considerar que la caractersticas esenciales de
G son tener una lnea vertical, una lnea horizontal, un ngulo recto y una curva discontinua); p
razn en realidad el Pandemonium no es un sistema capaz de aprender a reconocer formas (no s
proceso de modificacin de las unidades para adecuar la entrada con la salida del sistema) n
algoritmos de aprendizaje; sin embargo las redes tradicionales pueden aprender en el sentido c
para ello disponen de algoritmos de aprendizaje. El Pandemonium puede llegar a reconocer patron
su capacidad se debe bsicamente a la comprensin que el diseador tiene de la estructura de los p
que ha de identificar.
De todos modos, las diferencias anteriores no son significativas pues algunas se refieren in
cuestiones de ndole esttico (el uso de demonio en vez de neurona, o los dibujos de las unidades
mayora de ellos se deben a la falta de concrecin con habitualmente se presenta el Pandemonium. De h
posible utilizar las ideas bsicas que utiliza este modelo para explicar nuestra capacidad para reconocer p
y reflejarla de un modo ms preciso y detallado y en trminos similares a las redes conexionistas tradici
Es lo que ocurrira si intentsemos implementar el Pandemonium en un ordenador; en este caso sera
concretar con precisin las modificaciones cuantitativas que afectan a las unidades, a la vez que las fu
matemticas que determinan el cmputo en los distintos niveles de procesamiento; incluso podran a
conexiones inhibitorias para favorecer el procesamiento. Con estos complementos (que no implican un
en el modelo sino su concrecin) la representacin y arquitectura del Pandemonium de Selfridge tendra el
aroma que los modelos conexionistas tradicionales.

Sin embargo, en donde las diferencias estn ms marcadas es en el tema del aprendizaje. Ya se h
que una de las caractersticas principales de las redes conexionistas es que aprenden a reconocer patro
slo que reconocen patrones; pero en el caso del Pandemonium quien debe aprender es el diseador de
debe descubrir y aprender cules son las caractersticas bsicas que tiene cada letra (ngulos, lneas
lneas curvas, ...) y debe descubrir a mano las dificultades con las que puede tropezar el sistema para
un procesamiento eficaz. Por ejemplo, si intentamos poner en funcionamiento el Pandemonium podemos o
que en principio tendra dificultades para distinguir la letra "P" de la "R": la "P" tiene una lnea vertic
horizontales, tres ngulos rectos y una curva discontinua y la "R" todas ellas ms una lnea oblicua, de mo
los demonios cognitivos de la "P" y la "R" se activan por igual y el demonio de decisin no podr eleg
ellos. El diseador ha de utilizar alguna estrategia para resolver este problema, por ejemplo obligar a
demonio cognitivo se active al mximo si y slo si estn presentes todas las caractersticas de l
correspondiente, de este modo tanto la ausencia de una caracterstica como la presencia de una caract
irrelevante inhibir la respuesta de la unidad. Con este ejemplo se quiere sealar que el modelo del Pandem
exige que el diseador conozca la lgica del procesamiento de la informacin para el reconocimie
patrones, algo que, como se sabe, constituye uno de los objetivos de la psicologa cognitiva tradicional.
ocurre en el caso de los modelos conexionistas: en ellos la red utiliza algoritmos para la modificacin de lo
de sus conexiones y gracias a dichas modificaciones puede aprender por s misma a reconocer los patron
consecuencia de ello es que en los modelos conexionistas no es posible saber cules son los elementos rele
que la red toma en cuenta para el procesamiento ni el orden ni la lgica de dicho procesamiento; precis
la originalidad del planteamiento conexionista es que rechaza la existencia de reglas de procesamiento).

Volver al ndice

VIII. 4. NETtalk: APRENDER A LEER EN INGLS

Terrence Sejnowsky y Charles R. Rosenberg escribieron en 1986 NETtalk: A Parallel Network that
to Read Aloud. En este artculo presentaron la red NETtalk, cuya finalidad era leer y hablar textos en ingl

NETtalk tiene una estructura de tres capas interconectadas con cerca de 20.000 sinapsis:

en la capa de entrada encontramos 7 grupos de 29 unidades cada uno (203 unidades de entrad
la capa oculta consta de 80 unidades;
y la capa de salida de 26 unidades.
De las 29 neuronas que consta cada grupo de la capa sensorial, 26 codifican una letra del alfabeto
y las otras tres restantes la puntuacin y los lmites entre palabras. Puesto que las unidades de entr
distribuyen en siete grupos, el patrn de entrada que la red es capaz de reconocer ha de ser de 7 car
como mximo. Las unidades de salida o motoras codifican las dimensiones fundamentales del habla: fo
acentos y hiatos entre slabas.

La red transformaba los datos de entrada (las letras) en fonemas o sonidos. Dado que los pesos or
se establecieron al azar, los primeros resultados no eran buenos; el entrenamiento consisti en presenta
de 1000 palabras del habla corriente de un nio; un maestro o supervisor controlaba la correcci
respuesta de la red y modificaba los pesos mediante la regla delta generalizada (entrenamiento con propa
hacia atrs). Tras casi 50.000 presentaciones y las modificaciones correspondientes de sus pesos, la
capaz de leer y hablar con una exactitud del 95 por ciento.

Resultan sorprendentes algunas semejanzas entre NETtalk y la capacidad lingstica humana:

la progresiva eficacia de la red guarda cierta semejanza con la de los nios: las primeras respue
parecen a los balbuceos sin sentido de un beb, pero el sucesivo ajuste de los pesos mejora la cal
los balbuceos lentamente, hasta culminar en unas respuestas coherentes e inteligibles ante cu
texto en ingls;
es capaz de generalizar: al presentarle nuevas palabras del mismo nio el sistema era capaz de
pronunciar con una exactitud del 78 por ciento;
degradacin elegante: la red muestra una clara resistencia al dao; la destruccin de algunos ele
de la red no tiene consecuencias catastrficas en el rendimiento total, simplemente dismin
rendimiento.
Las propiedades citadas son las que cabra esperar de un sistema de procesamiento distribuido y p
(como se ha comentado en la seccin correspondiente), y, sin duda, resulta ms eficaz para modelar la cap
humana para detectar patrones que los modelos de plantillas y de anlisis de caractersticas.

La figura siguiente es un esquema simplificado de la arquitectura del NETtalk (tomado de S


Ballesteros, Psicologa General. Un enfoque cognitivo).

Volver al ndice

You might also like