You are on page 1of 36

Introduccin

Donde se intentar explicar por qu se considera a la inteligencia articial un tema


digno de estudio y donde se intentar denirla con exactitud; es esta tarea muy
recomendable antes de emprender de lleno su estudio.

INTELIGENCIA
ARTIFICIAL

Los hombres se han denominado a s mismos como Homo sapiens (hombre sabio) porque nuestras capacidades mentales son muy importantes para nosotros. Durante miles
de aos, hemos tratado de entender cmo pensamos, es decir, entender cmo un simple puado de materia puede percibir, entender, predecir y manipular un mundo mucho ms grande y complicado que ella misma. El campo de la in td ig a iria artificial
o IA, va ms all: no slo intenta comprender, sino que tambin se esfuerza en construir entidades inteligentes.
La IA es una de las ciencias ms recientes. El trabajo comenz poco despus de la
Segunda Guerra Mundial, y el nombre se acu en 1956. La IA se cita, junto a la biologa molecular, como un campo en el que a la mayora de cientficos de otras disciplinas les gustara trabajar. Un estudiante de ciencias fsicas puede pensar razonablemente
que todas las buenas ideas han sido ya propuestas por Galileo, Newton, Einstein y otros.
Por el contrario, la IA an tiene flecos sin cerrar en los que podran trabajar varios Einsteins a tiempo completo.
La IA abarca en la actualidad una gran variedad de subcampos, que van desde reas de propsito general, como el aprendizaje y la percepcin, a otras ms especficas como
el ajedrez, la demostracin de teoremas matemticos, la escritura de poesa y el diagnstico de enfermedades. La IA sintetiza y automatiza tareas intelectuales y es, por lo
tanto, potencialmente relevante para cualquier mbito de la actividad intelectual humana. En este sentido, es un campo genuinamente universal.

1.1

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

RACIONALIDAD

Qu es la IA?

Hemos proclamado que la IA es excitante, pero no hemos dicho qu es. La Figura 1.1
presenta definiciones de inteligencia artificial extradas de ocho libros de texto. Las que
aparecen en la parte superior se refieren a procesos mentales y al razonamiento, mientras que las de la parte inferior aluden a la conducta. Las definiciones de la izquierda
miden el xito en trminos de la fidelidad en la forma de actuar de los humanos mientras que las de la derecha toman como referencia un concepto ideal de inteligencia, que
llamaremos racionalidad. Un sistema es racional si hace lo correcto, en funcin de
su conocimiento.
A lo largo de la historia se han seguido los cuatro enfoques mencionados. Como es
de esperar, existe un enfrentamiento entre los enfoques centrados en los humanos y los
centrados en torno a la racionalidad1. El enfoque centrado en el comportamiento humano debe ser una ciencia emprica, que incluya hiptesis y confirmaciones mediante experimentos. El enfoque racional implica una combinacin de matemticas e ingeniera.
Cada grupo al mismo tiempo ha ignorado y ha ayudado al otro. A continuacin revisaremos cada uno de los cuatro enfoques con ms detalle.
Sistemas qoe piensan como humanos

Sistemas qne piensan racionalmente

El nuevo y excitante esfuerzo de hacer que los


computadores piensen... mquinas con mentes, en
el ms amplio sentido literal. (Haugeland, 1985)

El estudio de las facultades mentales mediante el uso de modelos computacionales. (Charniak y McDermott, 1985)

Sistemas que actan como lm anos

Sfaemas que actan radonafanente

[La automatizacin de] actividades que vinculamos con procesos de pensamiento humano, actividades como la toma de decisiones, resolucin
de problemas, aprendizaje... (Bellman, 1978)
El arte de desarrollar mquinas con capacidad
para realizar funciones que cuando son realizadas por personas requieren de inteligencia.
(Kurzwell, 1990)

El estudio de cmo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor. (Rich y Knight, 1991)
Fifjira 1.1

El estudio de los clculos que hacen posible


percibir, razonar y actuar. (Winston, 1992)

La Inteligencia Computacional es el estudio


del diseo de agentes inteligentes. (Poole et
al., 1998)
IA... est relacionada con conductas Inteligentes en artefactos. (Nilsson, 1998)

Algunas definiciones de Inteligencia artificial, organizadas en cuatro categoras.

1Conviene aclarar, que al distinguir entre comportamiento humano y racionaIno se est sugiriendo que los
humanos son necesariamente irracionales en el sentido de inestabilidad emocional o desequilibrio
mental. Basta con damos cuenta de que no somos perfectos: no todos somos maestros de ajedrez, incluso
aquellos que conocemos todas las reglas del ajedrez; y desafortunadamente, no todos obtenemos un sobresaliente en un examen. Kahneman et al. (1982) ha elaborado un catlogo con algunos de los errores que
sistemticamente cometen los humanos cuando razonan.

INTRODUCCIN

Com portam iento humano: el enfoque


de la Prueba de Turing

PRU E BA DE TURING

PROCESAMIENTO DE
LENGUAJE NATU RAL
REPRESENTACIN

DEL CONOCIMIENTO
RAZONAMIENTO
AU TOM TICO
APRENDIZAJE
M QUINA

PRUEBA DE TU R ING
GLOBAL

VISTA COMPUTACIONAL
ROB TICA

La Prueba de Ita in g propuesta por Alan Turing (1950), se dise para proporcionar
una definicin operacional y satisfactoria de inteligencia. En vez de proporcionar una
lista larga y quiz controvertida de cualidades necesarias para obtener inteligencia artificialmente, l sugiri una prueba basada en la incapacidad de diferenciar entre entidades inteligentes indiscutibles y seres humanos. El computador supera la prueba si un evaluador humano no es capaz de distinguir si las respuestas, a una serie de preguntas
planteadas, son de una persona o no. En el Captulo 26 se comentan detalles de esta prueba y se discute si un computador que supera la prueba es realmente inteligente. Hoy por
hoy, podemos decir que programar un computador para que supere la prueba requiere
un trabajo considerable. El computador debera poseer las siguientes capacidades:
IVocesamento de l o m a je natural que le permita comunicarse satisfactoriamente
en ingls.
Representacin del cenom iorfo para almacenar lo que se conoce o siente.
Razonamiento automtico para utilizar la informacin almacenada para responder a preguntas y extraer nuevas conclusiones.
Aprendizaje automtico para adaptarse a nuevas circunstancias y para detectar
y extrapolar patrones.

La Prueba de Turing evit deliberadamente la interaccin fsica directa entre el evaluador y el computador, dado que para medir la inteligencia es innecesario simular fsicamente a una persona. Sin embargo, la llamada Prueba Global de Turing incluye una seal de vdeo que permite al evaluador valorar la capacidad de percepcin del evaluado,
y tambin le da la oportunidad al evaluador de pasar objetos fsicos a travs de una ventanita. Para superar la Prueba Global de Turing el computador debe estar dotado de
Visin computacional para percibir objetos.
Robtica para manipular y mover objetos.

Estas seis disciplinas abarcan la mayor parte de la IA, y Turing merece ser reconocido
por disear una prueba que se conserva vigente despus de 50 aos. Los investigadores
del campo de la IA han dedicado poco esfuerzo a la evaluacin de sus sistemas con la
Prueba de Turing, por creer que es ms importante el estudio de los principios en los que
se basa la inteligencia que duplicar un ejemplar. La bsqueda de un ingenio que volara
artificialmente tuvo xito cuando los hermanos Wright, entre otros, dejaron de imitar a
los pjaros y comprendieron los principios de la aerodinmica. Los textos de ingeniera
aerodinmica no definen el objetivo de su campo como la construccin de mquinas que
vuelen como palomas de forma que puedan incluso confundir a otras palomas.

Pensar com o un humano: el enfoque


del m odelo cognitivo

Para poder decir que un programa dado piensa como un humano, es necesario contar con
un mecanismo para determinar cmo piensan los humanos. Es necesario penetraren el

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

CIENCIA CO GNrriVA

funcionamiento de las mentes humanas. Hay dos formas de hacerlo: mediante introspeccin (intentando atrapar nuestros propios pensamientos conforme stos van apareciendo) y mediante experimentos psicolgicos. Una vez se cuente con una teora lo
suficientemente precisa sobre cmo trabaja la mente, se podr expresar esa teora en la
forma de un programa de computador. Si los datos de entrada/salida del programa y los
tiempos de reaccin son similares a los de un humano, existe la evidencia de que algunos de los mecanismos del programa se pueden comparar con los que utilizan los seres
humanos. Por ejemplo, a Alien Newell y Herbert Simn, que desarrollaron el Sistema
de Resolucin General de Problemas (SRGP) (Newell y Simn, 1961), no les bast con
que su programa resolviera correctamente los problemas propuestos. Lo que les interesaba era seguir la pista de las etapas del proceso de razonamiento y compararlas con las
seguidas por humanos a los que se les enfrent a los mismos problemas. En el campo
interdisciplinario de la d o id a com itiva convergen modelos computacionales de IA y
tcnicas experimentales de psicologa intentando elaborar teoras precisas y verificables
sobre el funcionamiento de la mente humana.
La ciencia cognitiva es un campo fascinante, merecedora de una enciclopedia dedicada a ella (Wilson y Keil, 1999). En este libro no se intenta describir qu se conoce
de la cognicin humana. Ocasionalmente se hacen comentarios acerca de similitudes
o diferencias entre tcnicas de IA y cognicin humana. La autntica ciencia cognitiva
se fundamenta necesariamente en la investigacin experimental en humanos y animales, y en esta obra se asume que el lector slo tiene acceso a un computador para experimentar.
En los comienzos de la IA haba confusin entre las distintas aproximaciones: un autor podra argumentar que un algoritmo resolva adecuadamente una tarea y que por tanto era un buen modelo de representacin humana, o viceversa. Los autores actuales hacen diferencia entre las dos reivindicaciones; esta distincin ha permitido que ambas
disciplinas, IA y ciencia cognitiva, se desarrollen ms rpidamente. Los dos campos continan alimentndose entre s, especialmente en las reas de la visin y el lenguaje natural. En particular, el campo de la visin ha avanzado recientemente con la ayuda de
una propuesta integrada que tiene en cuenta la evidencia neurofisiolgica y los modelos computacionales.

Pensamiento racional: el enfoque


de las leyes del pensamiento

SILOGISM OS

LGICA

El filsofo griego Aristteles fue uno de los primeros en intentar codificar la manera
correcta de pensar, es decir, un proceso de razonamiento irrefutable. Sus silogismos son
esquemas de estructuras de argumentacin mediante las que siempre se llega a conclusiones correctas si se parte de premisas correctas (por ejemplo: Scrates es un hombre;
todos los hombres son mortales; por lo tanto Scrates es mortal). Estas leyes de pensamiento supuestamente gobiernan la manera de operar de la mente; su estudio fue el
inicio de un campo llamado l ^ c a
Estudiosos de la lgica desarrollaron, en el siglo xix, una notacin precisa para definir sentencias sobre todo tipo de elementos del mundo y especificar relaciones entre

INTRODUCCIN

LOGISTA

ellos (comprese esto con la notacin aritmtica comn, que prcticamente slo sirve
para representar afirmaciones acerca de la igualdad y desigualdad entre nmeros). Ya
en 1965 existan programas que, en principio, resolvan cualquier problema resoluble
descrito en notacin lgica2. La llamada tradicin Injusta dentro del campo de la inteligencia artificial trata de construir sistemas inteligentes a partir de estos programas.
Este enfoque presenta dos obstculos. No es fcil transformar conocimiento informal y expresarlo en los trminos formales que requieren de notacin lgica, particularmente cuando el conocimiento que se tiene es inferior al 100 por 100. En segundo lugar, hay una gran diferencia entre poder resolver un problema en principio y hacerlo
en la prctica. Incluso problemas con apenas una docena de datos pueden agotar los recursos computacionales de cualquier computador a menos que cuente con alguna directiva
sobre los pasos de razonamiento que hay que llevar a cabo primero. Aunque los dos obstculos anteriores estn presentes en todo intento de construir sistemas de razonamiento computacional, surgieron por primera vez en la tradicin lgica.

Actuar de form a racional: el enfoque del agente racional

AGENTE

AGENTE RACIONAL

Un agm tees algo que razona (agenteviene del latn agere, hacer). Pero de los agentes
informticos se espera que tengan otros atributos que los distingan de los programas
convencionales, como que estn dotados de controles autnomos, que perciban su entorno, que persistan durante un perodo de tiempo prolongado, que se adapten a los cambios, y que sean capaces de alcanzar objetivos diferentes. Un agm te racional es aquel
que acta con la intencin de alcanzar el mejor resultado o, cuando hay incertidumbre,
el mejor resultado esperado.
En el caso del enfoque de la IA segn las leyes del pensamiento, todo el nfasis
se pone en hacer inferencias correctas. La obtencin de estas inferencias correctas puede, a veces, formar parte de lo que se considera un agente racional, ya que una manera
racional de actuar es llegar a la conclusin lgica de que si una accin dada permite alcanzar un objetivo, hay que llevar a cabo dicha accin. Sin embargo, el efectuar una inferencia correcta no depende siempre de la racionalidad, ya que existen situaciones para
las que no hay nada correcto que hacer y en las que hay que tomar una decisin. Existen tambin formas de actuar racionalmente que no implican realizar inferencias. Por
ejemplo, el retirar la mano de una estufa caliente es un acto reflejo mucho ms eficiente que una respuesta lenta llevada a cabo tras una deliberacin cuidadosa.
Todas la habilidades que se necesitan en la Prueba de Turing deben permitir emprender acciones racionales. Por lo tanto, es necesario contar con la capacidad para representar el conocimiento y razonar basndonos en l, porque ello permitir alcanzar decisiones correctas en una amplia gama de situaciones. Es necesario ser capaz de generar
sentencias comprensibles en lenguaje natural, ya que el enunciado de tales oraciones permite a los agentes desenvolverse en una sociedad compleja. El aprendizaje no se lleva
a cabo por erudicin exclusivamente, sino que profundizar en el conocimiento de cmo
funciona el mundo facilita la concepcin de estrategias mejores para manejarse en l.
2 Si no se encuentra una solucin, el programa nunca debe parar de buscarla.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

La percepcin visual es necesaria no slo porque ver es divertido, sino porque es necesaria para poder tener una idea mejor de lo que una accin puede llegar a representar,
por ejemplo, el ver un delicioso bocadillo contribuir a que nos acerquemos a l.
Por esta razn, el estudiar la IA desde el enfoque del diseo de un agente racional
ofrece al menos dos ventajas. La primera es ms general que el enfoque que proporcionan las leyes del pensamiento, dado que el efectuar inferencias correctas es slo uno
de los mecanismos existentes para garantizar la racionalidad. La segunda es ms afn a
la forma en la que se ha producido el avance cientfico que los enfoques basados en la
conducta o pensamiento humano, porque la norma de la racionalidad est claramente definida y es de aplicacin general. Por el contrario, la conducta humana se adapta bien a
un entorno especfico, y en parte, es producto de un proceso evolutivo complejo, en gran
medida desconocido, que an est lejos de llevarnos a la perfeccin. Por tanto, esta obra

RACIONALIDAD
LIMITADA

1.2

se centrar en los principios generales que rigen a los agentes racionales y en los
elementos necesarios para construirlos. Ms adelante quedar patente que a pesar de la
aparente facilidad con la que se puede describir un problema, cuando se intenta resolver surgen una enorme variedad de cuestiones. El Captulo 2 revisa algunos de estos
aspectos con ms detalle.
Un elemento importante a tener en cuenta es el siguiente: ms bien pronto que tarde se observar cmo obtener una racionalidad perfecta (hacer siempre lo correcto) no
es posible en entornos complejos. La demanda computacional que esto implica es demasiado grande. En la mayor parte de esta obra se adoptar la hiptesis de trabajo de
que la racionalidad perfecta es un buen punto de partida para el anlisis. Lo cual simplifica el problema y proporciona el escenario base adecuado sobre el que se asientan
los cimientos de este campo. Los Captulos 6 y 17 se centran explcitamente en el tema
de la raricnalidad limitada (actuar adecuadamente cuando no se cuenta con el tiempo
suficiente para efectuar todos los clculos que seran deseables).

Los fundam entos de la inteligencia artificial

Esta seccin presenta una breve historia de las disciplinas que han contribuido con
ideas, puntos de vista y tcnicas al desarrollo de la IA. Como toda revisin histrica, en
este caso se centra en un pequeo nmero de personas, eventos e ideas e ignora otras
que tambin fueron importantes. La historia se organiza en torno a una serie de cuestiones, dejando claro que no se quiere dar la impresin de que estas cuestiones son las
nicas por las que las disciplinas se han preocupado y que el objetivo ltimo de todas
estas disciplinas era hacer avanzar la IA.

Filosofa (desde el ao 428 a.C. hasta el presente)

Se pueden utilizar reglas formales para extraer conclusiones vlidas?


Cmo se genera la inteligencia mental a partir de un cerebro fsico?
De dnde viene el conocimiento?
Cmo se pasa del conocimiento a la accin?

INTRODUCCIN

MATER IALISM O

EMPIRICO

INDUCCION

Aristteles (384-322 a.C.) fue el primero en formular un conjunto preciso de leyes que
gobernaban la parte racional de la inteligencia. l desarroll un sistema informal para
razonar adecuadamente con silogismos, que en principio permita extraer conclusiones
mecnicamente, a partir de premisas iniciales. Mucho despus, Ramn Lull (d. 1315)
tuvo la idea de que el razonamiento til se podra obtener por medios artificiales. Sus
ideas aparecen representadas en la portada de este manuscrito. Thomas Hobbes (15881679) propuso que el razonamiento era como la computacin numrica, de forma que
nosotros sumamos y restamos silenciosamente en nuestros pensamientos. La automatizacin de la computacin en s misma estaba en marcha; alrededor de 1500, Leonardo da Vinci (1452-1519) dise, aunque no construy, una calculadora mecnica;
construcciones recientes han mostrado que su diseo era funcional. La primera mquina calculadora conocida se construy alrededor de 1623 por el cientfico alemn Wilhelm Schickard (1592-1635), aunque la Pascalina, construida en 1642 por Blaise Pascal (1623-1662), sea ms famosa. Pascal escribi que la mquina aritmtica produce
efectos que parecen ms similares a los pensamientos que a las acciones animales. Gottfried Wilhelm Leibniz (1646-1716) construy un dispositivo mecnico con el objetivo
de llevar a cabo operaciones sobre conceptos en lugar de sobre nmeros, pero su campo de accin era muy limitado.
Ahora que sabemos que un conjunto de reglas pueden describir la parte racional y
formal de la mente, el siguiente paso es considerar la mente como un sistema fsico. Ren
Descartes (1596-1650) proporciona la primera discusin clara sobre la distincin entre
la mente y la materia y los problemas que surgen. Uno de los problemas de una concepcin puramente fsica de la mente es que parece dejar poco margen de maniobra al
libre albedro: si el pensamiento est totalmente gobernado por leyes fsicas, entonces
una piedra podra decidir caer en direccin al centro de la Tierra gracias a su libre albedro. A pesar de ser denodado defensor de la capacidad de razonamiento, Descartes
fue un defensor del duafismo. Sostena que existe una parte de la mente (o del alma o
del espritu) que est al margen de la naturaleza, exenta de la influencia de las leyes fsicas. Los animales, por el contrario, no poseen esta cualidad dual; a ellos se le podra
concebir como si se tratasen de mquinas. Una alternativa al dualismo es el matfoiaEsmo, que considera que las operaciones del cerebro realizadas de acuerdo a las leyes
de la fsica constituyen la mente. El libre albedro es simplemente la forma en la que la
percepcin de las opciones disponibles aparecen en el proceso de seleccin.
Dada una mente fsica que gestiona conocimiento, el siguiente problema es establecer
las fuentes de este conocimiento. El movimiento n^irico, iniciado con el Novum Organun?, de Francis Bacon (1561-1626), se caracteriza por el aforismo de John Locke
(1632-1704): Nada existe en la mente que no haya pasado antes por los sentidos. David Hume (1711-1776) propuso en A Treatise o f Human Nature (Hume, 1739) lo que
actualmente se conoce como principio de mduccin: las reglas generales se obtienen mediante la exposicin a asociaciones repetidas entres sus elementos. Sobre la base de las
propuestas de Ludwig Wittgenstein (1889-1951) y Bertrand Russell (1872-1970), el
famoso Crculo de Viena, liderado por Rudolf Carnap (1891-1970), desarroll la doctrina del positiviaiiD Ico. Esa doctrina sostiene que todo el conocimiento se puede
3 Una actualizacin del Organon, o instrumento de pensamiento, de Aristteles.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

PO Sm VISM O LGICO
SENTENC IA DE
OBSERVACIN
TEORIA DE LA

CONFIRMACIN

caracterizar mediante teoras lgicas relacionadas, en ltima instancia, con sm to n a s


de observacin que corresponden a estmulos sensoriales4. La teora de la confirmacin de Camap y Cari Hempel (1905-1997) intenta explicar cmo el conocimiento se
obtiene a partir de la experiencia. El libro de Camap, The LogicalStructure ofthe World
(1928), define un procedimiento computacional explcito para la extraccin de conocimiento a partir de experiencias primarias. Fue posiblemente la primera teora en mostrar la mente como un proceso computacional.
El ltimo elemento en esta discusin filosfica sobre la mente es la relacin que existe entre conocimiento y accin. Este asunto es vital para la IA, ya que la inteligencia requiere tanto accin como razonamiento. Ms an, simplemente con comprender cmo se
justifican determinadas acciones se puede llegar a saber cmo construir un agente cuyas
acciones sean justificables (o racionales). Aristteles argumenta que las acciones se pueden justificar por la conexin lgica entre los objetivos y el conocimiento de los efectos de
las acciones (la ltima parte de este extracto tambin aparece en la portada de este libro):
Cmo es que el pensamiento viene acompaado en algunos casos de acciones y en otros
no?, en algunos casos por movimiento y en otros no? Parece como si la misma cosa
sucediera tanto si razonramos o hiciramos inferencias sobre objetos que no cambian;
pero en este caso el fin es una proposicin especulativa... mientras la conclusin resultante de las dos premisas es una accin... Yo necesito abrigarme; una manta abriga. Yo
necesito una manta. Qu necesito, qu debo hacer; necesito una manta. Necesito hacer
una manta. Y la conclusin, Yo tengo que hacer una manta, es una accin. (Nussbaum,
1978, p. 40)

En Nicomachean Ethics (Libro III. 3, 1112b), Aristteles contina trabajando en este


tema, sugiriendo un algoritmo:
Nosotros no reflexionamos sobre los fines, sino sobre los medios. Un mdico no reflexiona sobre si debe curar, ni un orador sobre si debe persuadir... Ellos asumen el fin y
consideran cmo y con qu medios se obtienen, y si resulta fcil y es por tanto productivo; mientras que si slo se puede alcanzar por un medio se tiene en consideracin cmo
se alcanzar por este y por qu medios se obtendr ste, hasta que se llegue a la causa
primera..., y lo ltimo en el orden del anlisis parece ser lo primero en el orden de los
acontecimientos. Y sise llega a un estado imposible, se abandona la bsqueda, como por
ejemplo si se necesita dinero y no se puede conseguir; pero si hay una posibilidad se intentar.

El algoritmo de Aristteles se implemento 2.300 aos ms tarde por Newell y Simn con la ayuda de su programa SRGP. El cual se conoce como sistema de planificacin regresivo {vase el Captulo 11).
El anlisis basado en objetivos es til, pero no indica qu hacer cuando varias acciones nos llevan a la consecucin del objetivo, o cuando ninguna accin facilita su completa consecucin. Antoine Arnauld (1612-1694) describi correctamente una forma
cuantitativa para decidir qu accin llevar a cabo en un caso como este {vase el Captulo 16). El libro Utilitarianism (Mili, 1863) de John Stuart Mili (1806-1873) propone
1 En este contexto, es posible comprobar o rechazar toda aseveracin significativa mediante el anlisis del significado de las palabras o mediante la experimentacin. Dado que esto no es aplicable en la mayor parte del
mbito de la metafsica, como era intencin, el positivismo lgico se hizo impopular en algunos crculos.

INTRODUCCIN

la idea de un criterio de decisin racional en todos los mbitos de la actividad humana.


En la siguiente seccin se explica una teora de la decisin ms formalmente.

Matemticas (aproximadamente desde


el ao 800 al presente)

Qu reglas formales son las adecuadas para obtener conclusiones vlidas?


Qu se puede computar?
Cmo razonamos con informacin incierta?

ALGORITM O

TEOREM A DE

IN COM PLETfTUD

Los filsofos delimitaron las ideas ms importantes de la IA, pero para pasar de ah a
una ciencia formal es necesario contar con una formulacin matemtica en tres reas fundamentales: lgica, computacin y probabilidad.
El concepto de lgica formal se remonta a los filsofos de la antigua Grecia (vase
el Captulo 7), pero su desarrollo matemtico comenz realmente con el trabajo de
George Boole (1815-1864) que defini la lgica proposicional o Booleana (Boole,
1847). En 1879, GottlobFrege (1848-1925) extendi la lgica de Boole para incluir objetos y relaciones, y cre la lgica de primer orden que se utiliza hoy como el sistema
ms bsico de representacin de conocimiento5. Alfred Tarski (1902-1983) introdujo una
teora de referencia que ensea cmo relacionar objetos de una lgica con objetos del
mundo real. El paso siguiente consisti en definir los lmites de lo que se poda hacer
con la lgica y la informtica.
Se piensa que el primer a^joritmo no trivial es el algoritmo Eucldeo para el clculo del mximo comn divisor. El considerar los algoritmos como objetos en s mismos
se remonta a la poca de al-Khowarazmi, un matemtico persa del siglo ix, con cuyos
escritos tambin se introdujeron los nmeros arbigos y el lgebra en Europa. Boole, entre
otros, present algoritmos para llevar a cabo deducciones lgicas y hacia el final del siglo xix se llevaron a cabo numerosos esfuerzos para formalizar el razonamiento matemtico general con la lgica deductiva. En 1900, David Hilbert (1862-1943) present
una lista de 23 problemas que acertadamente predijo ocuparan a los matemticos
durante todo ese siglo. En el ltimo de ellos se preguntaba si existe un algoritmo que
permita determinar la validez de cualquier proposicin lgica en la que aparezcan nmeros naturales (el famoso Entscheidungsproblem, o problema de decisin). Bsicamente,
lo que Hilbert se preguntaba es si hay lmites fundamentales en la capacidad de los procedimientos efectivos de demostracin. En 1930, Kurt Godel (1906-1978) demostr que
existe un procedimiento eficiente para demostrar cualquier aseveracin verdadera en la
lgica de primer orden de Frege y Russell, sin embargo con la lgica de primer orden
no era posible capturar el principio de induccin matemtica necesario para la caracterizacin de los nmeros naturales. En 1931, demostr que, en efecto, existen lmites
reales. Mediante su teoranadeincon^ilehud demostr que en cualquier lenguaje que
tuviera la capacidad suficiente para expresar las propiedades de los nmeros naturales,
existen aseveraciones verdaderas no decidible en el sentido de que no es posible decidir su validez mediante ningn algoritmo.
5 La notacin para la lgica de primer orden propuesta por Frege no se ha aceptado umversalmente, por razones que son aparentemente obvias cuando se observa el ejemplo que aparece en la cubierta de este libro.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

El resultado fundamental anterior se puede interpretar tambin como la indicacin


de que existen algunas funciones de los nmeros enteros que no se pueden representar
mediante un algoritmo, es decir no se pueden calcular. Lo anterior llev a Alan Turing
(1912-1954) a tratar de caracterizar exactamente aquellas funciones que s eran
susceptibles de ser caracterizadas. La nocin anterior es de hecho problemtica hasta cierto punto, porque no es posible dar una definicin formal a la nocin de clculo o procedimiento efectivo. No obstante, la tesis de Church-Turing, que afirma que la mquina de Turing (Turing, 1936) es capaz de calcular cualquier funcin computable, goza de
aceptacin generalizada ya que proporciona una definicin suficiente. Turing tambin
demostr que existen algunas funciones que no se pueden calcular mediante la mquina de Turing. Por ejemplo, ninguna mquina puede decidir en general si un programa
dado producir una respuesta a partir de unas entradas, o si seguir calculando indefinidamente.
Si bien ser no decidible ni computable son importantes para comprender el proceso
del clculo, la nocin de rfratabilidad tuvo repercusiones ms importantes. En trminos generales se dice que un problema es intratable si el tiempo necesario para la resolucin de casos particulares de dicho problema crece exponencialmente con el tamao
de dichos casos. La diferencia entre crecimiento polinomial y exponencial de la complejidad se destac por primera vez a mediados de los aos 60 (Cobham, 1964; Edmonds,
1965). Es importante porque un crecimiento exponencial implica la imposibilidad de resolver casos moderadamente grandes en un tiempo razonable. Por tanto, se debe optar
por dividir el problema de la generacin de una conducta inteligente en subproblemas
que sean tratables en vez de manejar problemas intratables.
Cmo se puede reconocer un problema intratable? La teora de la NP-completitud
propuesta por primera vez por Steven Cook (1971) y Richard Karp (1972) propone un
mtodo. Cook y Karp demostraron la existencia de grandes clases de problemas de razonamiento y bsqueda combinatoria cannica que son NP completos. Toda clase de problema a la que la clase de problemas NP completos se pueda reducir ser seguramente
intratable (aunque no se ha demostrado que los problemas NP completos son necesariamente intratables, la mayor parte de los tericos as lo creen). Estos resultados contrastan con el optimismo con el que la prensa popular recibi a los primeros computadores, Supercerebros Electrnicos que eran Ms rpidos que Einsteinl. A pesar del
rpido incremento en la velocidad de los computadores, los sistemas inteligentes se caracterizarn por el uso cuidadoso que hacen de los recursos. De manera sucinta, fiel mundo es un ejemplo de problema extremadamente grande! Recientemente la IA ha ayudado a explicar por qu algunos ejemplos de problemas NP completos son difciles de
resolver y otros son fciles (Cheeseman et al., 1991).
Adems de la lgica y el clculo, la tercera gran contribucin de las matemticas a
la IA es la teora de la probabilidad. El italiano Gerolamo Cardano (1501-1576) fue el
primero en proponer la idea de probabilidad, presentndola en trminos de los resultados de juegos de apuesta. La probabilidad se convirti pronto en parte imprescindible de
las ciencias cuantitativas, ayudando en el tratamiento de mediciones con incertidumbre
y de teoras incompletas. Pierre Fermat (1601-1665), Blaise Pascal (1623-1662), James
Bernoulli (1654-1705), Pierre Laplace (1749-1827), entre otros, hicieron avanzar esta teora e introdujeron nuevos mtodos estadsticos. Thomas Bayes (1702-1761) propuso una

INTRODUCCIN

11

regla para la actualizacin de probabilidades subjetivas a la luz de nuevas evidencias. La


regla de Bayes y el rea resultante llamado anlisis Bayesiano conforman la base de las
propuestas ms modernas que abordan el razonamiento incierto en sistemas de IA.

Econom a (desde el ao 1776 hasta el presente)

Cmo se debe llevar a cabo el proceso de toma de decisiones para maximizar el


rendimiento?
Cmo se deben llevar a cabo acciones cuando otros no colaboren?
Cmo se deben llevar a cabo acciones cuando los resultados se obtienen en un
futuro lejano?

TEOR IA DE LA
DECISIN

TEOR IA DE JUEGOS

INVESTIGACIN
OPERATIVA

La ciencia de la economa comenz en 1776, cuando el filsofo escocs Adam Smith


(1723-1790) public An Inquirinto the Nature and Causes o f the Wealth ofNations Aunque los antiguos griegos, entre otros, haban hecho contribuciones al pensamiento econmico, Smith fue el primero en tratarlo como una ciencia, utilizando la idea de que las
economas pueden concebirse como un conjunto de agentes individuales que intentan
maximizar su propio estado de bienestar econmico. La mayor parte de la gente cree que
la economa slo se trata de dinero, pero los economistas dicen que ellos realmente estudian cmo la gente toma decisiones que les llevan a obtener los beneficios esperados.
Lon Walras (1834-1910) formaliz el tratamiento matemtico del beneficio deseado
o itfid ad , y fue posteriormente mejorado por Frank Ramsey (1931) y despus por John
von Neumann y Oskar Morgenstern en su libro The Theory o f Games andEconomic Behavior (1944).
La teora de la decisin, que combina la teora de la probabilidad con la teora de
la utilidad, proporciona un marco completo y formal para la toma de decisiones (econmicas o de otra ndole) realizadas bajo incertidumbre, esto es, en casos en los que las
descripciones probabilsticas capturan adecuadamente la forma en la que se toman las
decisiones en el entorno; lo cual es adecuado para grandes economas en las que cada
agente no necesita prestar atencin a las acciones que lleven a cabo el resto de los agentes individualmente. Cuando se trata de pequeas economas, la situacin se asemeja ms a la de un juego; las acciones de un jugador pueden afectar significativamente a
la utilidad de otro (tanto positiva como negativamente). Los desarrollos de von Neumann
y Morgenstern a partir de la teora dejuegos (vase tambin Luce y Raiffa, 1957) mostraban el hecho sorprendente de que, en algunos juegos, un agente racional deba actuar
de forma aleatoria o, al menos, aleatoria en apariencia con respecto a sus contrincantes.
La gran mayora de los economistas no se preocuparon de la tercera cuestin mencionada anteriormente, es decir, cmo tomar decisiones racionales cuando los resultados
de las acciones no son inmediatos y por el contrario se obtienen los resultados de las acciones de forma secuenciaI. El campo de la ivesti^prin operativa persigue este objetivo; dicho campo emergi en la Segunda Guerra Mundial con los esfuerzos llevados a cabo
en el Reino Unido en la optimizacin de instalaciones de radar, y posteriormente en aplicaciones civiles relacionadas con la toma de decisiones de direccin complejas. El trabajo de Richard Bellman (1957) formaliza una clase de problemas de decisin secuencial
llamados pncesas de deritin de Markov. que se estudiarn en los Captulos 17 y 21.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

El trabajo en la economa y la investigacin operativa ha contribuido en gran medida a la nocin de agente racional que aqu se presenta, aunque durante muchos aos la
investigacin en el campo de la IA se ha desarrollado por sendas separadas. Una razn
fue la cam plgidad aparente que trae consigo el tomar decisiones racionales. Herbert
Simn (1916-2001), uno de los primeros en investigar en el campo de la IA, gan el premio Nobel en Economa en 1978 por su temprano trabajo, en el que mostr que los modelos basados en satisfaccin (que toman decisiones que son suficientemente buenas,
en vez de realizar clculos laboriosos para alcanzar decisiones ptimas) proporcionaban
una descripcin mejor del comportamiento humano real (Simn, 1947). En los aos 90,
hubo un resurgimiento del inters en las tcnicas de decisin terica para sistemas basados en agentes (Wellman, 1995).

Neurociencia (desde el ao 1861 hasta el presente)


Cmo procesa informacin el cerebro?

La N eurotioicia es el estudio del sistema neurolgico, y en especial del cerebro. La


forma exacta en la que en un cerebro se genera el pensamiento es uno de los grandes
misterios de la ciencia. Se ha observado durante miles de aos que el cerebro est de alguna manera involucrado en los procesos de pensamiento, ya que fuertes golpes en la
cabeza pueden ocasionar minusvala mental. Tambin es ampliamente conocido que los
cerebros humanos son de alguna manera diferentes; aproximadamente en el 335 a.C.
Aristteles escribi, de entre todos los animales el hombre tiene el cerebro ms grande en proporcin a su tamao6. Aunque, no fue hasta mediados del siglo xviii cuando
se acept mayoritariamente que el cerebro es la base de la conciencia. Hasta este momento, se pensaba que estaba localizado en el corazn, el bazo y la glndula pineal.
El estudio de Paul Broca (1824-1880) sobre la afasia (dificultad para hablar) en
pacientes con el cerebro daado, en 1861, le dio fuerza a este campo y convenci a la
sociedad mdica de la existencia de reas localizadas en el cerebro responsables de funciones cognitivas especficas. En particular, mostr que la produccin del habla se
localizaba en una parte del hemisferio izquierdo; hoy en da conocida como el rea de
Broca7. En esta poca ya se saba que el cerebro estaba formado por clulas nerviosas o
neuronas, pero no fue hasta 1873 cuando Camillo Golgi (1843-1926) desarroll una tcnica de coloracin que permiti la observacin de neuronas individuales en el cerebro
(vase h Figura 1.2). Santiago Ramn y Cajal (1852-1934) utiliz esta tcnica es sus
estudios pioneros sobre la estructura neuronal del cerebro8.
En la actualidad se dispone de informacin sobre la relacin existente entre las reas del cerebro y las partes del cuerpo humano que controlan o de las que reciben impulsos
6Desde entonces, se ha descubierto que algunas especies de delfines y ballenas tienen cerebros relativamente
grandes. Ahora se piensa que el gran tamao de los cerebros humanos se debe en parte a la mejora reciente
en su sistema de refrigeracin.
7Muchos citan a Alexander Hood (1824) como una fuente posiblemente anterior.
8 Golgi insisti en la creencia de que las funciones cerebrales se desarrollaron inicialmente en el medio continuo en el que las neuronas estaban inmersas, mientras que Cajal propuso la doctrina neuronal. Ambos
compartieron el premio Nobel en 1906 pronunciando un discurso de aceptacin antagnico.

INTRODUCCIN

13

Cuerpo de la clula o Soma

Fipra 1.2 Partes de una clula nerviosa o neurona. Cada neurona contiene un cuerpo celular, o
soma, que tiene un ncleo celular. Un nmero de fibras llamadas dendritas se ramifican a partir del
cuerpo de la clula junto con una nica fibra larga llamada axn. El axn se alarga considerablemente, mucho ms que lo que se representa en esta imagen. Normalmente miden un centmetro (100
veces ms que el dimetro del cuerpo de la clula), pero pueden alcanzar hasta un metro de longitud. Una neurona se conecta con entre 10 y 100.000 neuronas formando una maraa llamada
sinapsis. Las seales se propagan de neurona a neurona mediante una reaccin electroqumica complicada. Las seales controlan la actividad del cerebro a corto plazo, y permiten establecer cambios en la posicin y conectividad de las neuronas a largo plazo. Se piensa que estos mecanismos
forman la base del aprendizaje del cerebro. La mayora del procesamiento de informacin se lleva
a cabo en la corteza del cerebro, la capa ms externa de ste. La unidad de organizacin bsica es
una columna de tejido de aproximadamente 0,5 mm de dimetro, con lo cual se ampla la profundidad total de la corteza cerebral, que en el caso de los humanos es de cuatro mm. Una columna
contiene aproximadamente 20.000 neuronas.

sensoriales. Tales relaciones pueden cambiar de forma radical incluso en pocas semanas, y algunos animales parecen disponer de mltiples posibilidades. Ms an, no se tiene totalmente claro cmo algunas reas se pueden encargar de ciertas funciones que eran
responsabilidad de reas daadas. No hay prcticamente ninguna teora que explique
cmo se almacenan recuerdos individuales.
Los estudios sobre la actividad de los cerebros intactos comenz en 1929 con el descubrimiento del electroencefalograma (EEG) desarrollado por Hans Berger. El reciente descubrimiento de las imgenes de resonancia magntica funcional (IRMF) (Ogawa
et al, 1990) est proporcionando a los neurlogos imgenes detalladas de la actividad
cerebral sin precedentes, permitindoles obtener medidas que se corresponden con procesos cognitivos en desarrollo de manera muy interesante. Este campo est evolucionando
gracias a los avances en los estudios en celdas individuales y su actividad neuronal. A
pesar de estos avances, nos queda un largo camino para llegar a comprender cmo funcionan todos estos procesos cognitivos.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

La conclusin verdaderamente increble es que una coleccin de simples clulas puede llegar a generar razonamiento, accin, y conciencia o, dicho en otras palabras, los
cerebros generan las inteligencias (Searle, 1992). La nica teora alternativa es el misticismo: que nos dice que existe alguna esfera mstica en la que las mentes operan fuera del control de la ciencia fsica.
Cerebros y computadores digitales realizan tareas bastante diferentes y tienen propiedades distintas. La Figura 1.3 muestra cmo hay 1.000 veces ms neuronas en un cerebro humano medio que puertas lgicas en la UCP de un computador estndar. La ley
de Moore9predice que el nmero de puertas lgicas de la UCP se igualar con el de neuronas del cerebro alrededor del ao 2020. Por supuesto, poco se puede inferir de esta prediccin; ms an, la diferencia en la capacidad de almacenamiento es insignificante comparada con las diferencias en la velocidad de intercambio y en paralelismo. Los circuitos
de los computadores pueden ejecutar una instruccin en un nanosegundo, mientras que
las neuronas son millones de veces ms lentas. Las neuronas y las sinapsis del cerebro
estn activas simultneamente, mientras que los computadores actuales tienen una o como
mucho varias UCP. Por tanto, incluso sabiendo que un computador es un milln de veces
ms rpido en cuanto a su velocidad de intercambio, el cerebro acaba siendo 100.000
veces ms rpido en lo que hace.

Psicologa (desde el ao 1879 hasta el presente)


Cmo piensan y actan los humanos y los animales?

La psicologa cientfica se inici con los trabajos del fsico alemn Hermann von Helmholtz (1821-1894), segn se referencia habitualmente, y su discpulo Wilhelm Wundt
(1832-1920). Helmholtz aplic el mtodo cientfico al estudio de la vista humana, y su
obra Handbook ofPhysiological Optics, todava en nuestros das, se considera como el
tratado actual ms importante sobre la fsica y la fisiologa de la vista humana (Nalwa,
1993, p. 15). En 1879, Wundt abri el primer laboratorio de psicologa experimental en

Unidades computacionales
Unidades de Almacenamiento
Duracin de un ciclo
Ancho de banda
Memoria actualizacin/sec

Computador
1 UCP, 108puertas
10' bits RAM
10" bits disco
10'3sec
10lbils/sec
109

Cerebro Humano
10" neuronas
10" neuronas
1014sinapsis
10_3sec
1014 bits/sec
1014

Figura 1.3 Comparacin bsica entre los recursos de cmputo generales de que disponenlos computadores (clrca2003) y el cerebro. Las cifras correspondientes a los computadores se han incrementado
en al menos un factor 10 desde la primera edicin de este libro, y se espera que suceda la mismo en
esta dcada. Las cifras correspondientes al cerebro no han cambiado en los ltimos 10.000 aos.
9 La ley de Moore dice que el nmero de transistores por pulgada cuadrada se duplica cada ao o ao y medio. La capacidad del cerebro humano se dobla aproximadamente cada dos o cuatro millones de aos.

INTRODUCCIN

CO ND UC TISM O

PSICOLOGIA
COGNITIVA

15

la Universidad de Leipzig. Wundt puso mucho nfasis en la realizacin de experimentos controlados cuidadosamente en la que sus operarios realizaban tareas de percepcin
o asociacin al tiempo que sometan a introspeccin sus procesos mentales. Los meticulosos controles evolucionaron durante un largo perodo de tiempo hasta convertir la
psicologa en una ciencia, pero la naturaleza subjetiva de los datos hizo poco probable
que un investigador pudiera contradecir sus propias teoras. Bilogos, estudiando el comportamiento humano, por el contrario, carecan de datos introspectivos y desarrollaron
una metodologa objetiva, tal y como describe H. S. Jennings (1906) en su influyente
trabajo Behavior ofthe Lower Organisms. El movimiento anductista, liderado por John
Watson (1878-1958) aplic este punto de vista a los humanos, rechazando cualquier teora en la que intervinieran procesos mentales, argumentando que la introspeccin no
aportaba una evidencia fiable. Los conductistas insistieron en el estudio exclusivo de mediciones objetivas de percepciones (o estmulos) sobre animales y de las acciones resultantes (o respuestas). Construcciones mentales como conocimientos, creencias, objetivos y pasos en un razonamiento quedaron descartadas por ser consideradas psicologa
popular no cientfica. El conductismo hizo muchos descubrimientos utilizando ratas y
palomas, pero tuvo menos xito en la comprensin de los seres humanos. An as, su
influencia en la psicologa fue notable (especialmente en Estados Unidos) desde aproximadamente 1920 hasta 1960.
La conceptualizacin del cerebro como un dispositivo de procesamiento de informacin, caracterstica principal de la pcoloa comitiva, se remonta por lo menos a
las obras de William James10 (1842-1910). Helmholtz tambin pone nfasis en que la
percepcin entraa cierto tipo de inferencia lgica inconsciente. Este punto de vista cognitivo se vio eclipsado por el conductismo en Estados Unidos, pero en la Unidad de Psicologa Aplicada de Cambridge, dirigida por Frederic Bartlett (1886-1969), los modelos cognitivos emergieron con fuerza. La obra The Nature o f Explanation, de Kenneth
Craik (1943), discpulo y sucesor de Bartlett, reestablece enrgicamente la legitimidad
de trminos mentales como creencias y objetivos, argumentando que son tan cientficos como lo pueden ser la presin y la temperatura cuando se habla acerca de los gases, a pesar de que stos estn formados por molculas que no tienen ni presin ni temperatura. Craik establece tres elementos clave que hay que tener en cuenta para disear
un agente basado en conocimiento: (1) el estmulo deber ser traducido a una representacin interna, (2) esta representacin se debe manipular mediante procesos cognitivos
para as generar nuevas representaciones internas, y (3) stas, a su vez, se traducirn de
nuevo en acciones. Dej muy claro por qu consideraba que estos eran los requisitos idneos para disear un agente:
Si el organismo tiene en su cabeza un modelo a pequea escala de la realidad externa
y de todas sus posibles acciones, ser capaz de probar diversas opciones, decidir cul es
la mejor, planificar su reaccin ante posibles situaciones futuras antes de que stas surjan, emplear lo aprendido de experiencias pasadas en situaciones presentes y futuras, y
en todo momento, reaccionar ante los imprevistos que acontezcan de manera satisfactoria, segura y ms competente (Craik, 1943).

10 William James era hermano del novelista Henry James. Se comenta que Henry escribi novelas narrativas
como si se tratara de psicologa y William escribi sobre psicologa como si se tratara de novelas narrativas.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

Despus de la muerte de Craik en un accidente de bicicleta en 1945, Donald Boadbent continu su trabajo, y su libro Perception and Communication (1958) incluy algunos de los
primeros modelos de procesamiento de informacin del fenmeno psicolgico. Mientras
tanto, en Estados Unidos el desarrollo del modelo computacional llevo a la creacin del campo de la senda co^tiva Se puede decir que este campo comenz en un simposio celebrado en el MIT, en septiembre de 1956 (como se ver a continuacin este evento tuvo lugar
slo dos meses despus de la conferencia en la que naci la IA). En este simposio, George
Miller present The Magic Number Seven, Noam Chomsky present Three Models o f
Language, y Alien Newell y Herbert Simn presentaron The Logic Theory Machine. Estos
tres artculos influyentes mostraron cmo se podan utilizarlos modelos informticos para
modelar la psicologa de la memoria, el lenguaje y el pensamiento lgico, respectivamente. Los psiclogos comparten en la actualidad el punto de vista comn de que la teora
cognitiva debe ser como un programa de computadora (Anderson, 1980), o dicho de otra
forma, debe describir un mecanismo de procesamiento de informacin detallado, lo cual
lleva consigo la implementacin de algunas funciones cognitvas.

Ingeniera com putacional (desde el ao 1940


hasta el presente)
Cmo se puede construir un computador eficiente?

Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas:
inteligencia y un artefacto. El computador ha sido el artefacto elegido. El computador
electrnico digital moderno se invent de manera independiente y casi simultnea por
cientficos en tres pases involucrados en la Segunda Guerra Mundial. El equipo de Alan
Turing construy, en 1940, el primer computador operacionalde carcter electromecnico, llamado Heath Robinson11, con un nico propsito: descifrar mensajes alemanes.
En 1943 el mismo grupo desarroll el Colossus, una mquina potente de propsito general basada en vlvulas de vaco12. El primer computador operacional programable fue
el Z-3, inventado por Konrad Zuse en Alemania, en 1941. Zuse tambin invent los nmeros de coma flotante y el primer lenguaje de programacin de alto nivel, Plankalkl.
El primer computador electrnico, el ABC, fue creado por John Atanasoffjunto a su discpulo Clifford Beny entre 1940 y 1942 en la Universidad Estatal de Iowa. Las investigaciones de Atanasoff recibieron poco apoyo y reconocimiento; el ENIAC, desarrollado en el marco de un proyecto militar secreto, en la Universidad de Pensilvania, por un
equipo en el que trabajaban entre otros John Mauchly y John Eckert, puede considerarse como el precursor de los computadores modernos.
Desde mediados del siglo pasado, cada generacin de dispositivos hardwareha conllevado un aumento en la velocidad de proceso y en la capacidad de almacenamiento,
11Heath Robinson fue un caricaturista famoso por sus dibujos, que representaban artefactos de uso diario,
caprichosos y absurdamente complicados, por ejemplo, uno para untar mantequilla en el pan tostado.
12En la postguerra, Turing quiso utilizar estos computadores para investigar en el campo de la IA, por ejemplo, desarrollando uno de los primeros programas para jugar a la ajedrez (Turing etal., 1953). El gobierno
britnico bloque sus esfuerzos.

INTRODUCCIN

17

as como una reduccin de precios. La potencia de los computadores se dobla cada 18


meses aproximadamente y seguir a este ritmo durante una o dos dcadas ms. Despus,
se necesitar ingeniera molecular y otras tecnologas novedosas.
Por supuesto que antes de la aparicin de los computadores ya haba dispositivos de
clculo. Las primeras mquinas automticas, que datan del siglo x v ii , ya se mencionaron en la pgina seis. La primera mquina programable fue un telar, desarrollado en 1805
por Joseph Marie Jacquard (1752-1834) que utilizaba tarjetas perforadas para almacenar informacin sobre los patrones de los bordados. A mediados del siglo x d <, Charles
Babbage (1792-1871) dise dos mquinas, que no lleg a construir. La Mquina de
Diferencias, que aparece en la portada de este manuscrito, se concibi con la intencin
de facilitar los clculos de tablas matemticas para proyectos cientficos y de ingeniera.
Finalmente se construy y se present en 1991 en el Museo de la Ciencia de Londres
(Swade, 1993). La Mquina Analtica de Babbage era mucho ms ambiciosa: inclua
memoria direccionable, programas almacenados y saltos condicionales; fue el primer
artefacto dotado de los elementos necesarios para realizar una computacin universal.
Ada Lovelace, colega de Babbage e hija del poeta Lord Byron, fue seguramente la
primera programadora (el lenguaje de programacin Ada se llama as en honor a esta
programadora). Ella escribi programas para la inacabada Mquina Analtica e incluso
especul acerca de la posibilidad de que la mquina jugara al ajedrez y compusiese
msica.
La IA tambin tiene una deuda con la parte software de la informtica que ha proporcionado los sistemas operativos, los lenguajes de programacin, y las herramientas
necesarias para escribir programas modernos (y artculos sobre ellos). Sin embargo, en
este rea la deuda se ha saldado: la investigacin en IA ha generado numerosas ideas novedosas de las que se ha beneficiado la informtica en general, como por ejemplo el tiempo compartido, los intrpretes imperativos, los computadores personales con interfaces
grficas y ratones, entornos de desarrollo rpido, listas enlazadas, administracin automtica de memoria, y conceptos claves de la programacin simblica, funcional, dinmica y orientada a objetos.

Teora de control y ciberntica (desde el ao 1948


hasta el presente)
Cmo pueden los artefactos operar bajo su propio control?

Ktesibios de Alejandra (250 a.C.) construy la primera mquina auto controlada: un reloj
de agua con un regulador que mantena el flujo de agua circulando por l, con un ritmo
constante y predecible. Esta invencin cambi la definicin de lo que un artefacto poda hacer. Anteriormente, solamente seres vivos podan modificar su comportamiento
como respuesta a cambios en su entorno. Otros ejemplos de sistemas de control auto regulables y retroalimentados son el motor de vapor, creado por James Watt (1736-1819),
y el termostato, inventado por Cornelis Drebbel (1572-1633), que tambin invent el submarino. La teora matemtica de los sistemas con retroalimentacin estables se desarroll
en el siglo xix.

18

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

TEORA DE C ONTRO L

CIBERNTICA

FUNCIN OBJETIVO

La figura central del desarrollo de lo que ahora se llama la teora de control fue Norbert Wiener (1894-1964). Wiener fue un matemtico brillante que trabaj en sistemas
de control biolgicos y mecnicos y en sus vnculos con la cognicin. De la misma forma que Craik (quien tambin utiliz sistemas de control como modelos psicolgicos),
Wiener y sus colegas Arturo Rosenblueth y Julin Bigelow desafiaron la ortodoxia conducsta (Rosenblueth et al., 1943). Ellos vean el comportamiento determinista como
algo emergente de un mecanismo regulador que intenta minimizar el error (la diferencia entre el estado presente y el estado objetivo). A finales de los aos 40, Wiener,
junto a Warren McCulloch, Walter Pitts y John von Neumann, organizaron una serie de
conferencias en las que se exploraban los nuevos modelos cognitivos matemticos y computacionales, e influyeron en muchos otros investigadores en el campo de las ciencias
del comportamiento. El libro de Wiener, Cybernetics (1948), fue un bestsellery desvel al pblico las posibilidades de las mquinas con inteligencia artificial.
La teora de control moderna, especialmente la rama conocida como control ptimo
estocstico, tiene como objetivo el diseo de sistemas que maximizan una fundn objetivo en el tiempo. Lo cual se asemeja ligeramente a nuestra visin de lo que es la IA:
diseo de sistemas que se comportan de forma ptima. Por qu, entonces, IA y teora
de control son dos campos diferentes, especialmente teniendo en cuenta la cercana relacin entre sus creadores? La respuesta est en el gran acoplamiento existente entre las
tcnicas matemticas con las que estaban familiarizados los investigadores y entre los
conjuntos de problemas que se abordaban desde cada uno de los puntos de vista. El
clculo y el lgebra matricial, herramientas de la teora de control, se utilizaron en la
definicin de sistemas que se podan describir mediante conjuntos fijos de variables
continuas: ms an, el anlisis exacto es slo posible en sistemas lineales. La IA se fund en parte para escapar de las limitaciones matemticas de la teora de control en los
aos 50. Las herramientas de inferencia lgica y computacin permitieron a los investigadores de IA afrontar problemas relacionados con el lenguaje, visin y planificacin,
que estaban completamente fuera del punto de mira de la teora de control.

Lingstica (desde el ao 1957 hasta el presente)


Cmo est relacionado el lenguaje con el pensamiento?

En 1957, B. F. Skinner public Verbal Behavior. La obra presentaba una visin extensa y detallada desde el enfoque conductista al aprendizaje del lenguaje, y estaba escrita
por los expertos ms destacados de este campo. Curiosamente, una revisin de este libro lleg a ser tan famosa como la obra misma, y provoc el casi total desinters por el
conductismo. El autor de la revisin fue Noam Chomsky, quien acababa de publicar un
libro sobre su propia teora, Syntactic Structures. Chomsky mostr cmo la teora conductista no abordaba el tema de la creatividad en el lenguaje: no explicaba cmo es posible
que un nio sea capaz de entender y construir oraciones que nunca antes ha escuchado.
La teora de Chomsky (basada en modelos sintcticos que se remontaban al lingista
indio Panini, aproximadamente 350 a.C.) s poda explicar lo anterior y, a diferencia
de teoras anteriores, posea el formalismo suficiente como para permitir su programacin.

INTRODUCCIN

LIN GSTICA

COMPUTACIONAL

1.3

19

La lingstica moderna y la IA nacieron, al mismo tiempo y maduraron juntas, solapndose en un campo hbrido llamado Engfstka computaricnal o procesamiento
del loigpajenatural El problema del entendimiento del lenguaje se mostr pronto mucho ms complejo de lo que se haba pensado en 1957. El entendimiento del lenguaje
requiere la comprensin de la materia bajo estudio y de su contexto, y no solamente el
entendimiento de la estructura de las sentencias. Lo cual puede parecer obvio, pero no
lo fue para la mayora de la comunidad investigadora hasta los aos 60. Gran parte de
los primeros trabajos de investigacin en el rea de la rqvesm tatitin d d conocimiento (el estudio de cmo representar el conocimiento de forma que el computador pueda
razonar a partir de dicha representacin) estaban vinculados al lenguaje y a la bsqueda de informacin en el campo del lenguaje, y su base eran las investigaciones realizadas durante dcadas en el anlisis filosfico del lenguaje.

H istoria de la inteligencia artificial


Una vez revisado el material bsico estamos ya en condiciones de cubrir el desarrollo
de la IA propiamente dicha.

Gnesis de la inteligencia artificial (1943-1955)

Warren McCulloch y Walter Pitts (1943) han sido reconocidos como los autores del primer trabajo de IA. Partieron de tres fuentes: conocimientos sobre la fisiologa bsica y
funcionamiento de las neuronas en el cerebro, el anlisis formal de la lgica preposicional de Russell y Whitehead y la teora de la computacin de Turing. Propusieron un
modelo constituido por neuronas artificiales, en el que cada una de ellas se caracterizaba por estar activada o desactivada; la activacin se daba como respuesta a la estimulacin producida por una cantidad suficiente de neuronas vecinas. El estado de una
neurona se vea como equivalente, de hecho, a una proposicin con unos estmulos adecuados. Mostraron, por ejemplo, que cualquier funcin de cmputo podra calcularse
mediante alguna red de neuronas interconectadas, y que todos los conectares lgicos (and,
or, not, etc.) se podran implementar utilizando estructuras de red sencillas. McCulloch
y Pitts tambin sugirieron que redes adecuadamente definidas podran aprender. Donald
Hebb (1949) propuso y demostr una sencilla regla de actualizacin para modificar las
intensidades de las conexiones entre neuronas. Su regla, ahora llamada de afrendizaj e Hebbiano o de Hebb, sigue vigente en la actualidad.
Dos estudiantes graduados en el Departamento de Matemticas de Princeton, Marvin Minsky y Dean Edmonds, construyeron el primer computador a partir de una red neuronal en 1951. El S n a r c , como se llam, utilizaba 3.000 vlvulas de vaco y un mecanismo de piloto automtico obtenido de los desechos de un avin bombardero B-24 para
simular una red con 40 neuronas. El comit encargado de evaluar el doctorado de Minsky
vea con escepticismo el que este tipo de trabajo pudiera considerarse como matemtico, pero se dice que von Newmann dijo, Si no lo es actualmente, algn da lo ser.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

Minsky posteriormente prob teoremas influyentes que mostraron las limitaciones de la


investigacin con redes neuronales.
Hay un nmero de trabajos iniciales que se pueden caracterizar como de IA, pero
fue Alan Turing quien articul primero una visin de la IA en su artculo Computing
Machinery and Intelligence, en 1950. Ah, introdujo la prueba de Turing, el aprendizaje automtico, los algoritmos genricos y el aprendizaje por refuerzo.

Nacim iento de la inteligencia artificial (1956)

Princeton acogi a otras de la figuras seeras de la IA, John McCarthy. Posteriormente


a su graduacin, McCarthy se translad al Dartmouth College, que se erigira en el lugar
del nacimiento oficial de este campo. McCarthy convenci a Minsky, Claude Shannon
y Nathaniel Rochester para que le ayudaran a aumentar el inters de los investigadores
americanos en la teora de autmatas, las redes neuronales y el estudio de la inteligencia. Organizaron un taller con una duracin de dos meses en Darmouth en el verano de
1956. Hubo diez asistentes en total, entre los que se incluan Trenchard More de Princeton, Arthur Samuel de IBM, y Ray Solomonoff y Oliver Selfridge del MIT.
Dos investigadores del Carnegie Tech13, Alien Newell y Herbert Simn, acapararon
la atencin. Si bien los dems tambin tenan algunas ideas y, en algunos casos, programas para aplicaciones determinadas como el juego de damas, Newell y Simn contaban ya con un programa de razonamiento, el Terico Lgico (IL), del que Simn
afirmaba: Hemos inventado un programa de computacin capaz de pensar de manera
no numrica, con lo que ha quedado resuelto el venerable problema de la dualidad
mente-cuerpo14. Poco despus del trmino del taller, el programa ya era capaz de demostrar gran parte de los teoremas del Captulo 2 de Principia Matemtica de Russell
y Whitehead. Se dice que Russell se manifest complacido cuando Simn le mostr que
la demostracin de un teorema que el programa haba generado era ms corta que la que
apareca en Principia. Los editores de la revista Journal ofSymbolic Logic resultaron
menos impresionados y rechazaron un artculo cuyos autores eran Newell, Simn y el
Terico Lgico (TL).
El taller de Dartmouth no produjo ningn avance notable, pero puso en contacto a
las figuras importantes de este campo. Durante los siguientes 20 aos, el campo estuvo
dominado por estos personajes, as como por sus estudiantes y colegas del MIT, CMU,
Stanford e IBM. Quiz lo ltimo que surgi del taller fue el consenso en adoptar el nuevo nombre propuesto por McCarthy para este campo: Intdigairia Artificial Quiz racionalidad computacional hubiese sido ms adecuado, pero IA se ha mantenido.
Revisando la propuesta del taller de Dartmouth (McCarthy et al., 1955), se puede
apreciar por qu fue necesario para la IA convertirse en un campo separado. Por qu
13Actualmente Universidad Carnegie Mellon (UCM).
14Newell y Simn tambin desarrollaron un lenguaje de procesamiento de listas, IPL, para poder escribir el
TL. No disponan de un compilador y lo tradujeron a cdigo mquina a mano. Para evitar errores, trabajaron en paralelo, diciendo en voz alta nmeros binarios, conforme escriban cada instruccin para asegurarse de que ambos coincidan.

INTRODUCCIN

21

no todo el trabajo hecho en el campo de la IA se ha realizado bajo el nombre de teora


de control, o investigacin operativa, o teora de la decisin, que, despus de todo, persiguen objetivos similares a los de la IA? O, por qu no es la IA una rama de las matemticas? La primera respuesta es que la IA desde el primer momento abarc la idea
de duplicar facultades humanas como la creatividad, la auto-mejora y el uso del lenguaje.
Ninguno de los otros campos tenan en cuenta esos temas. La segunda respuesta est relacionada con la metodologa. La IA es el nico de estos campos que es claramente una
rama de la informtica (aunque la investigacin operativa comparte el nfasis en la simulacin por computador), adems la IA es el nico campo que persigue la construccin de mquinas que funcionen automticamente en medios complejos y cambiantes.

Entusiasmo inicial, grandes esperanzas (1952-1969)

SISTEM A DE

s m b o l o s f s i c o s

Los primeros aos de la IA estuvieron llenos de xitos (aunque con ciertas limitaciones).
Teniendo en cuenta lo primitivo de los computadores y las herramientas de programacin de aquella poca, y el hecho de que slo unos pocos aos antes, a los computadores se les consideraba como artefactos que podan realizar trabajos aritmticos y nada
ms, result sorprendente que un computador hiciese algo remotamente inteligente. La
comunidad cientfica, en su mayora, prefiri creer que una mquina nunca podra hacer tareas (vase el Captulo 26 donde aparece una extensa lista de tensas recopilada
por Turing). Naturalmente, los investigadores de IA responderan demostrando la realizacin de una tarea tras otra John McCarthy se refiere a esta poca como la era de Mira,
mam, ahora sin manos!.
Al temprano xito de Newell y Simn sigui el del sistema de resolucin general
de problemas, o SRGP. A diferencia del Terico Lgico, desde un principio este programa se dise para que imitara protocolos de resolucin de problemas de los seres
humanos. Dentro del limitado nmero de puzles que poda manejar, result que la secuencia en la que el programa consideraba que los subobjetivos y las posibles acciones
eran semejantes a la manera en que los seres humanos abordaban los mismos problemas. Es decir, el SRGP posiblemente fue el primer programa que incorpor el enfoque
de pensar como un ser humano. El xito del SRGP y de los programas que le siguieron,
como los modelos de cognicin, llevaron a Newell y Simn (1976) a formular la famosa
hiptesis del ssta n a de smbolos fisicos, que afirma que un sistema de smbolos fsicos tiene los medios suficientes y necesarios para generar una accin inteligente. Lo
que ellos queran decir es que cualquier sistema (humano o mquina) que exhibiese inteligencia debera operar manipulando estructuras de datos compuestas por smbolos.
Posteriormente se ver que esta hiptesis se ha modificado atendiendo a distintos puntos de vista.
En IBM, Nathaniel Rochester y sus colegas desarrollaron algunos de los primeros
programas de IA. Herbert Gelernter (1959) construy el demostrador de teoremas de geometra (DTG), el cual era capaz de probar teoremas que muchos estudiantes de matemticas podan encontrar muy complejos de resolver. A comienzos 1952, Arthur Samuel
escribi una serie de programas para el juego de las damas que eventualmente aprendieron a jugar hasta alcanzar un nivel equivalente al de un amateur. De paso, ech por

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

tierra la idea de que los computadores slo pueden hacer lo que se les dice: su programa pronto aprendi a jugar mejor que su creador. El programa se present en la televisin en febrero de 1956 y caus una gran impresin. Como Turing, Samuel tena dificultades para obtener el tiempo de cmputo. Trabajaba por las noches y utilizaba
mquinas que an estaban en perodo de prueba en la planta de fabricacin de IBM. El
Captulo 6 trata el tema de los juegos, y en el Captulo 21 se describe con detalle las tcnicas de aprendizaje utilizadas por Samuel.
John McCarthy se traslad de Darmouth al MIT, donde realiz tres contribuciones cruciales en un ao histrico: 1958. En el Laboratorio de IA del MIT Memo Nmero 1,
McCarthy defini el lenguaje de alto nivel Lfcp, que se convertira en el lenguaje de programacin dominante en la IA. Lisp es el segundo lenguaje de programacin ms antiguo
que se utiliza en la actualidad, ya que apareci un ao despus de FORTRAN. Con Lisp,
McCarthy tena la herramienta que necesitaba, pero el acceso a los escasos y costosos recursos de cmputo an era un problema serio. Para solucionarlo, l, junto a otros miembros del MIT, inventaron el tiempo compartido. Tambin, en 1958, McCarthy public un
artculo titulado Programs with Common Sense, en el que describa el Generador de Consejos, un programa hipottico que podra considerarse como el primer sistema de IA
completo. Al igual que el Terico Lgico y el Demostrador de Teoremas de Geometra,
McCarthy dise su programa para buscar la solucin a problemas utilizando el conocimiento. Pero, a diferencia de los otros, manejaba el conocimiento general del mundo. Por
ejemplo, mostr cmo algunos axiomas sencillos permitan a un programa generar un plan
para conducirnos hasta el aeropuerto y tomar un avin. El programa se dise para que
aceptase nuevos axiomas durante el curso normal de operacin, permitindole as ser competente en reas nuevas, sin necesidad de reprogramacin. El Generador de Consejos incorporaba as los principios centrales de la representacin del conocimiento y el razonamiento: es til contar con una representacin formal y explcita del mundo y de la forma
en que la accin de un agente afecta al mundo, as como, ser capaces de manipular estas
representaciones con procesos deductivos. Es sorprendente constatar cmo mucho de lo
propuesto en el artculo escrito en 1958 permanece vigente incluso en la actualidad.
1958 fue el ao en el que Marvin Minsky se traslad al MIT. Sin embargo, su colaboracin inicial no dur demasiado. McCarthy se centr en la representacin y el razonamiento con lgica formal, mientras que Minsky estaba ms interesado en lograr que los
programas funcionaran y eventualmente desarroll un punto de vista anti-lgico. En 1963
McCarthy cre el Laboratorio de IA en Stanford. Su plan para construir la versin ms reciente del Generador de Consejos con ayuda de la lgica sufri un considerable impulso
faca s al descubrimiento de J. A. Robinson del mtodo de resolucin (un algoritmo completo para la demostracin de teoremas para la lgica de primer orden; vase el Captulo
9). El trabajo realizado en Stanford haca nfasis en los mtodos de propsito general para
el razonamiento lgico. Algunas aplicaciones de la lgica incluan los sistemas de planificacin y respuesta a preguntas de Cordell Green (1969b), as como el proyecto de robtica de Shakey en el nuevo Instituto de Investigacin de Stanford (Stanford Research
Institute, SRI). Este ltimo proyecto, comentado en detalle en el Captulo 25, fue el primero que demostr la total integracin del razonamiento lgico y la actividad fsica.
Minsky supervis el trabajo de una serie de estudiantes que eligieron un nmero de
problemas limitados cuya solucin pareci requerir inteligencia. Estos dominios limi-

INTRODUCCIN
M IC RO M UND O S

23

tados se conocen como nHcramm dos El programa SAINT de James Slagle (1963a)
fue capaz de resolver problemas de integracin de clculo en forma cerrada, habituales
en los primeros cursos de licenciatura. El programa ANALOGY de Tom Evans (1968)
resolva problemas de analoga geomtrica que se aplicaban en las pruebas de medicin
de inteligencia, semejante al de la Figura 1.4. El programa STUDENT de Daniel Bobrow (1967) poda resolver problemas de lgebra del tipo:
Si el nmero de clientes de Tom es dos veces el cuadrado del 20 por ciento de la cantidad de anuncios que realiza, y stos ascienden a 45, cuntos clientes tiene Tom?

El micromundo ms famoso fue el mundo de los bloques, que consiste en un conjunto de bloques slidos colocados sobre una mesa (ms frecuentemente, en la simulacin de sta), como se muestra en la Figura 1.5. Una tarea tpica de este mundo es la
reordenacin de los bloques de cierta manera, con la ayuda de la mano de un robot que
es capaz de tomar un bloque cada vez. El mundo de los bloques fue el punto de partida
para el proyecto de visin de David Huffman (1971), la visin y el trabajo de propagacin con restricciones de David Waltz (1975), la teora del aprendizaje de Patrick Winston (1970), del programa para la comprensin de lenguaje natural de Terry Winograd
(1972) y del planificador de Scott Fahlman (1974).
El trabajo realizado por McCulloch y Pitts con redes neuronales hizo florecer esta
rea. El trabajo de Winograd y Cowan (1963) mostr cmo un gran nmero de elementos
podra representar un concepto individual de forma colectiva, lo cual llevaba consigo un
aumento proporcional en robustez y paralelismo. Los mtodos de aprendizaje de Hebb
se reforzaron con las aportaciones de Bemie Widrow (Widrow y Hoff, 1960; Widrow,
1962), quien llam adaUnes a sus redes, y por Frank Rosenblatt (1962) con sus p a 1ceptrmes. Rosenblatt demostr el famoso teorema del perceptrn, con lo que mostr
que su algoritmo de aprendizaje podra ajustar las intensidades de las conexiones de un
perceptrn para que se adaptaran a los datos de entrada, siempre y cuando existiera una
correspondencia. Estos temas se explicarn en el Capitulo 20.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

z
z

FigiM*a 1.5 Esquema del mundo de los bloques. SHRDLU (Wlnograd, 1972) ha com pletado su
tarea, Busca un bloque que sea m s alto que el que ahora tienes y ponlo en la caja.

Una dosis de realidad (1966-1973)

Desde el principio, los investigadores de IA hicieron pblicas, sin timidez, predicciones


sobre el xito que les esperaba. Con frecuencia, se cita el siguiente comentario realizado por Herbert Simn en 1957:
Sin afn de sorprenderlos y dejarlos atnitos, pero la forma ms sencilla que tengo de resumirlo es dicindoles que actualmente en el mundo existen mquinas capaces de pensar, aprender y crear. Adems, su aptitud para hacer lo anterior aumentar rpidamente
hasta que (en un futuro previsible) la magnitud de problemas que sern capaces de resolver ir a la par que la capacidad de la mente humana para hacer lo mismo.

Trminos como futuro previsible pueden interpretarse de formas distintas, pero Simn
tambin hizo predicciones ms concretas: como que en diez aos un computador llegara a ser campen de ajedrez, y que se podra demostrar un importante teorema matemtico con una mquina. Estas predicciones se cumpliran (al menos en parte) dentro
de los siguientes 40 aos y no en diez. El exceso de confianza de Simn se debi a la
prometedora actuacin de los primeros sistemas de IA en problemas simples. En la mayor parte de los casos result que estos primeros sistemas fallaron estrepitosamente cuando se utilizaron en problemas ms variados o de mayor dificultad.
El primer tipo de problemas surgi porque la mayora de los primeros programas contaban con poco o ningn conocimiento de las materia objeto de estudio; obtenan resultados gracias a sencillas manipulaciones sintcticas. Una ancdota tpica tuvo lugar
cuando se comenzaba a trabajar en la traduccin automtica, actividad que reciba un

INTRODUCCIN

25

generoso patrocinio del Consejo Nacional para la Investigacin de Estados Unidos en


un intento de agilizar la traduccin de artculos cientficos rusos en vsperas del lanzamiento del Sputnik en 1957. Al principio se consider que todo se reducira a sencillas
transformaciones sintcticas apoyadas en las gramticas rusas e inglesa y al emplazamiento de palabras mediante un diccionario electrnico, lo que bastara para obtener el
significado exacto de las oraciones. La realidad es que para traducir es necesario contar
con un conocimiento general sobre el tema, que permita resolver ambigedades y as,
precisar el contenido de una oracin. La famosa retraduccin del ruso al ingls de la frase el espritu es fuerte pero la carne es dbil, cuyo resultado fue el vodka es bueno
pero la carne est podrida es un buen ejemplo del tipo de dificultades que surgieron.
En un informe presentado en 1966, el comit consultivo declar que no se ha logrado
obtener ninguna traduccin de textos cientficos generales ni se prev obtener ninguna
en un futuro inmediato. Se cancel todo el patrocinio del gobierno estadounidense que
se haba asignado a los proyectos acadmicos sobre traduccin. Hoy da, la traduccin
automtica es una herramienta imperfecta pero de uso extendido en documentos tcnicos, comerciales, gubernamentales y de Internet.
El segundo problema fue que muchos de los problemas que se estaban intentando
resolver mediante la IA eran intratables. La mayora de los primeros programas de IA
resolvan problemas experimentando con diversos pasos hasta que se llegara a encontrar una solucin. Esto funcion en los primeros programas debido a que los micromundos
con los que se trabajaba contenan muy pocos objetos, y por lo tanto muy pocas acciones posibles y secuencias de soluciones muy cortas. Antes de que se desarrollara la teora
de la complejidad computacional, se crea que para aumentar el tamao de los programas de forma que estos pudiesen solucionar grandes problemas sera necesario
incrementar la velocidad del hardware y aumentar las memorias. El optimismo que acompa al logro de la demostracin de problemas, por ejemplo, pronto se vio eclipsado cuando los investigadores fracasaron en la demostracin de teoremas que implicaban ms de
unas pocas decenas de condiciones. Elhecho deque, en principio, un programa sea capaz

EVOLUCIN

AU TOM TICA

de encontrar una solucin no implica que tal programa encierre todos los mecanismos
necesarios para encontrarla solucin en la prctica.
La ilusoria nocin de una ilimitada capacidad de cmputo no slo existi en los programas para la resolucin de problemas. Los primeros experimentos en el campo de la
evchidn automtica (ahora llamados algoritmosgenticos) (Friedberg, 1958; Friedberg et al., 1959) estaban basados en la, sin duda correcta, premisa de que efectuando
una adecuada serie de pequeas mutaciones a un programa de cdigo mquina se podra generar un programa con buen rendimiento aplicable en cualquier tarea sencilla.
Despus surgi la idea de probar con mutaciones aleatorias aplicando un proceso de seleccin con el fin de conservar aquellas mutaciones que hubiesen demostrado ser ms
tiles. No obstante, las miles de horas de CPU dedicadas, no dieron lugar a ningn avance tangible. Los algoritmos genticos actuales utilizan representaciones mejores y han
tenido ms xito.
La incapacidad para manejar la explosin combinatoria fue una de las principales crticas que se hicieron a la IA en el informe de Lighthill (Lighthill, 1973), informe
en el que se bas la decisin del gobierno britnico para retirar la ayuda a las investigaciones sobre IA, excepto en dos universidades. (La tradicin oral presenta un cuadro un

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

poco distinto y ms animado, en el que se vislumbran ambiciones polticas y animadversiones personales, cuya descripcin est fuera del mbito de esta obra.)
El tercer obstculo se deriv de las limitaciones inherentes a las estructuras bsicas
que se utilizaban en la generacin de la conducta inteligente. Por ejemplo, en 1969, en
el libro de Minsky y Papert, Perceptrons, se demostr que si bien era posible lograr que
los perceptrones (una red neuronal simple) aprendieran cualquier cosa que pudiesen representar, su capacidad de representacin era muy limitada. En particular, un perceptrn
con dos entradas no se poda entrenar para que aprendiese a reconocer cundo sus dos
entradas eran diferentes. Si bien los resultados que obtuvieron no eran aplicables a redes ms complejas multicapa, los fondos para la investigacin de las redes neuronales
se redujeron a prcticamente nada. Es irnico que los nuevos algoritmos de aprendizaje de retroalimentacin utilizados en las redes multicapa y que fueron la causa del gran
resurgimiento de la investigacin en redes neuronales de finales de los aos 80, en realidad, se hayan descubierto por primera vez en 1969 (Bryson y Ho, 1969).

Sistemas basados en el conocim iento:


clave del poder? (1969-1979)

DBILES

El cuadro que dibujaba la resolucin de problemas durante la primera dcada de la investigacin en la IA estaba centrado en el desarrollo de mecanismos de bsqueda de propsito general, en los que se entrelazaban elementos de razonamiento bsicos para encontrar
as soluciones completas. A estos procedimientos se les ha denominado mtodos dbiles, debido a que no tratan problemas ms amplios o ms complejos. La alternativa a los
mtodos dbiles es el uso de conocimiento especfico del dominio que facilita el desarrollo de etapas de razonamiento ms largas, pudindose as resolver casos recurrentes en dominios de conocimiento restringido. Podra afirmarse que para resolver un problema en
la prctica, es necesario saber de antemano la correspondiente respuesta.
El programa DENDRAL (Buchanan etal., 1969) constituye uno de los primeros ejemplos de este enfoque. Fue diseado en Stanford, donde Ed Feigenbaum (discpulo de Herbert Simn), Bruce Buchanan (filsofo convertido en informtico) y Joshua Lederberg
(genetista ganador del Premio Nobel) colaboraron en la solucin del problema de inferir una estructura molecular a partir de la informacin proporcionada por un espectrmetro de masas. El programa se alimentaba con la frmula elemental de la molcula
(por ejemplo, C6H13N 02) y el espectro de masas, proporcionando las masas de los distintos fragmentos de la molcula generada despus de ser bombardeada con un haz de
electrones. Por ejemplo, un espectro de masas con un pico en m = 15, correspondera a
la masa de un fragmento de metilo (CH3).
La versin ms simple del programa generaba todas las posibles estructuras que correspondieran a la frmula, luego predeca el espectro de masas que se observara en cada
caso, y comparaba stos con el espectro real. Como era de esperar, el mtodo anterior
result pronto inviable para el caso de molculas con un tamao considerable. Los
creadores de DENDRAL consultaron con qumicos analticos y se dieron cuenta de que
stos trabajaban buscando patrones conocidos de picos en el espectro que sugeran
estructuras comunes en la molcula. Por ejemplo, par identificar el subgrupo (con un peso
de 28) de las cetonas (C=0) se emple la siguiente regla:

INTRODUCCIN

27

hay dos picos en x y x2 tales que


) x + x = M + 28 (siendo A/la masa de toda la molcula);
b) x, - 28 es un pico alto;
c) x2- 28 es un pico alto;
d) al menos una de x y x2es alta.
t a n c a existe un subgrupo de cetonas

Al reconocer que la molcula contiene una subestructura concreta se reduce el nmero de


posibles candidatos de forma considerable. La potencia de DENDRAL se basaba en que:
Toda la informacin terica necesaria para resolver estos problemas se ha proyectado desde su forma general [componente predicho por el espectro] (primeros principios) a formas eficientes especiales (recetas de cocina). (Feigenbaum et al., 1971)

s is te m a s e x p e r t o s

La trascendencia de DENDRAL se debi a ser el primer sistema de conocimiento intenso que tuvo xito: su base de conocimiento estaba formada por grandes cantidades
de reglas de propsito particular. En sistemas diseados posteriormente se incorporaron
tambin los elementos fundamentales de la propuesta de McCarthy para el Generador
de Consejos, la ntida separacin del conocimiento (en forma de reglas) de la parte correspondiente al razonamiento.
Teniendo en cuenta esta leccin, Feigenbaumjunto con otros investigadores de Stanford
dieron comienzo al Proyecto de Programacin Heurstica, PPH, dedicado a determinar
el grado con el que la nueva metodologa de los sistanas expertos poda aplicarse a otras
reas de la actividad humana El siguiente gran esfuerzo se realiz en el rea del diagnstico mdico. Feigenbaum, Buchanan y el doctor Edward Shortliffe disearon el programa MYCIN, para el diagnstico de infecciones sanguneas. Con 450 reglas aproximadamente,
MYCIN era capaz de hacer diagnsticos tan buenos como los de un experto y, desde luego,
mejores que los de un mdico recin graduado. Se distingua de DENDRAL en dos aspectos principalmente. En primer lugar, a diferencia de las reglas de DENDRAL, no se contaba
oon un modelo terico desde el cual se pudiesen deducir las reglas de MYCIN. Fue necesario obtenerlas a partir de extensas entrevistas con los expertos, quienes las haban obtenido
de libros de texto, de otros expertos o de su experiencia directa en casos prcticos. En segundo
lugar, las reglas deberan reflejar la incertidumbre inherente al conocimiento mdico. MYCIN
oontaba con un elemento que facilitaba el clculo de incertidumbre denominado factores de
certeza ( vase el Captulo 13), que al parecer (en aquella poca) corresponda muy bien a la
manera como los mdicos ponderaban las evidencias al hacer un diagnstico.
La importancia del conocimiento del dominio se demostr tambin en el rea de la
comprensin del lenguaje natural. Aunque el sistema SHRDLU de Winograd para la comprensin del lenguaje natural haba suscitado mucho entusiasmo, su dependencia del anlisis sintctico provoc algunos de los mismos problemas que haban aparecido en los
trabajos realizados en la traduccin automtica. Era capaz de resolver los problemas de
ambigedad e identificar los pronombres utilizados, gracias a que se haba diseado especialmente para un rea (el mundo de los bloques). Fueron varios los investigadores
que, como Eugene Charniak, estudiante de Winograd en el MIT, opinaron que para una
slida comprensin del lenguaje era necesario contar con un conocimiento general sobre el mundo y un mtodo general para usar ese conocimiento.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

En Yale, el lingista transformado en informtico Roger Schank reforz lo anterior


al afirmar: No existe eso que llaman sintaxis, lo que irrit a muchos lingistas, pero
sirvi para iniciar un til debate. Schank y sus estudiantes disearon una serie de programas (Schank y Abelson, 1977; Wilensky, 1978; Schank y Riesbeck, 1981;Dyer, 1983)
cuyo objetivo era la comprensin del lenguaje natural. El foco de atencin estaba menos
en el lenguaje per se y ms en los problemas vinculados a la representacin y razonamiento del conocimiento necesario para la comprensin del lenguaje. Entre los problemas
estaba el de la representacin de situaciones estereotipo (Cullingford, 1981), la descripcin de la organizacin de la memoria humana (Rieger, 1976; Kolodner, 1983) y la
comprensin de planes y objetivos (Wilensky, 1983).
El crecimiento generalizado de aplicaciones para solucionar problemas del mundo
real provoc el respectivo aumento en la demanda de esquemas de representacin del
conocimiento que ftrncionaran. Se desarroll una considerable cantidad de lenguajes de
representacin y razonamiento diferentes. Algunos basados en la lgica, por ejemplo el
lenguaje Prolog goz de mucha aceptacin en Europa, aceptacin que en Estados Unidos fue para la familia del P l a n n e r . Otros, siguiendo la nocin de m v c o s de Minsky
(1975), se decidieron por un enfoque ms estructurado, al recopilar informacin sobre
objetos concretos y tipos de eventos, organizando estos tipos en grandes jerarquas taxonmicas, similares a las biolgicas.

La IA se convierte en una industria


(desde 1980 hasta el presente)

El primer sistema experto comercial que tuvo xito, R1, inici su actividad en Digital Equipment Corporation (McDermott, 1982). El programa se utilizaba en la elaboracin de pedidos de nuevos sistemas informticos. En 1986 representaba para la compaa un ahorro estimado de 40 millones de dlares al ao. En 1988, el grupo de Inteligencia Artificial de DEC
haba distribuido ya 40 sistemas expertos, y haba ms en camino. Du Pont utilizaba ya 100
y estaban en etapa de desarrollo 500 ms, lo que le generaba ahorro de diez millones de dlares anuales aproximadamente. Casi todas las compaas importantes de Estados Unidos
contaban con su propio grupo de IA, en el que se utilizaban o investigaban sistemas expertos.
En 1981 los japoneses anunciaron el proyecto Quinta Generacin, un plan de diez
aos para construir computadores inteligentes en los que pudiese ejecutarse Prolog. Como
respuesta Estados Unidos constituy la Microelectronics and Computer Technology
Corporation (MCC), consorcio encargado de mantener la competitividad nacional en estas reas. En ambos casos, la IA formaba parte de un gran proyecto que inclua el diseo de chips y la investigacin de la relacin hombre mquina. Sin embargo, los componentes de IA generados en el marco de MCC y del proyecto Quinta Generacin nunca
alcanzaron sus objetivos. En el Reino Unido, el informe Alvey restaur el patrocinio suspendido por el informe Lighthill15.
15Para evitar confusiones, se cre un nuevo campo denominado Sistemas Inteligentes Basados en Conocimiento (IKBS, IntetogentKnowledge-BasedSystem^) ya que la Inteligencia Artificial haba sido oficialmente
cancelada.

INTRODUCCIN

29

En su conjunto, la industria de la IA creci rpidamente, pasando de unos pocos millones de dlares en 1980 a billones de dlares en 1988. Poco despus de este perodo
Deg la poca llamada El Invierno de la IA, que afect a muchas empresas que no fueron capaces de desarrollar los extravagantes productos prometidos.

Regreso de las redes neuronales


(desde 1986 hasta el presente)

c o n e x io h is t a s

Aunque la informtica haba abandonado de manera general el campo de las redes neuronales a finales de los aos 70, el trabajo continu en otros campos. Fsicos como John
Hopfield (1982) utilizaron tcnicas de la mecnica estadstica para analizar las propiedades de almacenamiento y optimizacin de las redes, tratando colecciones de nodos como
colecciones de tomos. Psiclogos como David Rumelhart y Geoff Hinton continuaron con
el estudio de modelos de memoria basados en redes neuronales. Como se ver en el Captulo 20, el impulso ms fuerte se produjo a mediados de la dcada de los 80, cuando por
lo menos cuatro grupos distintos reinventaron el algoritmo de aprendizaje de retroalimentacin, mencionado por vez primera en 1969 por Biyson y Ho. El algoritmo se aplic a diversos problemas de aprendizaje en los campos de la informtica y la psicologa, y
la gran difusin que conocieron los resultados obtenidos, publicados en la coleccin Parallel Distrbuted Processing (Rumelhart y McClelland, 1986), suscit gran entusiasmo.
Aquellos modelos de inteligencia artificial llamados eonerionstas fueron vistos por
algunos como competidores tanto de los modelos simblicos propuestos por Newell y
Simn como de la aproximacin lgica de McCarthy entre otros (Smolensky, 1988). Puede parecer obvio que los humanos manipulan smbolos hasta cierto nivel, de hecho, el libro The Symbolic Species (1997) de Terrence Deacon sugiere que esta es la caracterstica que dene a los humanos, pero los conexionistas ms ardientes se preguntan si la
manipulacin de los smbolos desempea algn papel justificable en determinados modelos
de cognicin. Este interrogante no ha sido an clarificado, pero la tendencia actual es que
las aproximaciones conexionistas y simblicas son complementarias y no competidoras.

IA se convierte en una ciencia


(desde 1987 hasta el presente)

En los ltimos aos se ha producido una revolucin tanto en el contenido como en la


metodologa de trabajo en el campo de la inteligencia artificial.17 Actualmente es ms
usual el desarrollo sobre teoras ya existentes que proponer teoras totalmente novedo16Se usa la traduccin literal del trmino connectionist por no existir un trmino equivalente en espaol
oN .delRl).
17 Hay quien ha caracterizado este cambio como la victoria de los pulcros (aquellos que consideran que las
teoras de IA deben basarse rigurosamente en las matemticas) sobre los desaliados (aquellos que despus
de intentar muchas ideas, escriben algunos programas y despus evalan las que aparentemente funcionan).
Ambos enfoques son tiles. Esta tendencia en favor de una mayor pulcritud es seal de que el campo ha alcanzado cierto nivel de estabilidad y madurez. Lo cual no implica que tal estabilidad se puede ver alterada
con el surgimiento de otras ideas poco estructuradas.

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

sas, tomar como base rigurosos teoremas o slidas evidencias experimentales ms que
intuicin, y demostrar la utilidad de las aplicaciones en el mundo real ms que crear ejemplos de juguete.
La IA se fund en parte en el marco de una rebelin en contra de las limitaciones de
los campos existentes como la teora de control o la estadstica, y ahora abarca estos campos. Tal y como indica David McAllester (1998),
En los primeros aos de la IA pareca perfectamente posible que las nuevas formas de la
computacin simblica, por ejemplo, los marcos y las redes semnticas, hicieran que la
mayor parte de la teora clsica pasara a ser obsoleta. Esto llev a la IA a una especie de
aislamiento, que la separ del resto de las ciencias de la computacin. En la actualidad
se est abandonando este aislamiento. Existe la creencia de que el aprendizaje automtico no se debe separar de la teora de la informacin, que el razonamiento incierto no se
debe separar de los modelos estocsticos, de que la bsqueda no se debe aislar de la optimizacin clsica y el control, y de que el razonamiento automtico no se debe separar
de los mtodos formales y del anlisis esttico.

de d ato s

En trminos metodolgicos, se puede decir, con rotundidad, que la IA ya forma parte


del mbito de los mtodos cientficos. Para que se acepten, las hiptesis se deben someter
a rigurosos experimentos empricos, y los resultados deben analizarse estadsticamente
para identificar su relevancia (Cohn, 1995). El uso de Internet y el compartir repositorios de datos de prueba y cdigo, ha hecho posible que ahora se puedan contrastar experimentos.
Un buen modelo de la tendencia actual es el campo del reconocimiento del habla.
En la dcada de los 70 se someti a prueba una gran variedad de arquitecturas y enfoques. Muchos de ellos fueron un tanto ad hoc y resultaban frgiles, y fueron probados
slo en unos pocos ejemplos elegidos especialmente. En aos recientes, las aproximaciones basadas en los modelos de M arkov o c u lta s MMO, han pasado a dominar el rea.
Dos son las caractersticas de los MMO que tienen relevancia. Primero, se basan en una
rigurosa teora matemtica, lo cual ha permitido a los investigadores del lenguaje basarse
en los resultados de investigaciones matemticas hechas en otros campos a lo largo de
varias dcadas. En segundo lugar, los modelos se han generado mediante un proceso de
aprendizaje en grandes corpus de datos de lenguaje reales. Lo cual garantiza una
funcionalidad robusta, y en sucesivas pruebas ciegas, los MMO han mejorado sus
resultados a un ritmo constante. La tecnologa del habla y el campo relacionado del
reconocimiento de caracteres manuscritos estn actualmente en transicin hacia una
generalizada utilizacin en aplicaciones industriales y de consumo.
Las redes neuronales tambin siguen esta tendencia. La mayor parte del trabajo
realizado con redes neuronales en la dcada de los 80 se realiz con la idea de dejar a
un lado lo que se poda hacer y de descubrir en qu se diferenciaban las redes neuronales de otras tcnicas tradicionales. La utilizacin de metodologas mejoradas y marcos tericos, ha autorizado que este campo alcance un grado de conocimiento que ha permitido que ahora las redes neuronales se puedan comparar con otras tcnicas similares
de campos como la estadstica, el reconocimiento de patrones y el aprendizaje automtico, de forma que las tcnicas ms prometedoras pueden aplicarse a cualquier problema. Como resultado de estos desarrollos, la tecnologa denominada n i n o t i de datos
ha generado una nueva y vigorosa industria.

INTRODUCCIN

31

La aparicin de Probabilistic Reasoning in Intelligent Systems de Judea Pearl (1988)


hizo que se aceptara de nuevo la probabilidad y la teora de la decisin como parte de
la IA, como consecuencia del resurgimiento del inters despertado y gracias especialmente al artculo In Defense ofPmbabilityde Peter Cheeseman (1985). El formalismo
de las redes de Bayes apareci para facilitar la representacin eficiente y el razonamiento
riguroso en situaciones en las que se dispona de conocimiento incierto. Este enfoque
supera con creces muchos de los problemas de los sistemas de razonamiento probabilstico de las dcadas de los 60 y 70; y ahora domina la investigacin de la IA en el razonamiento incierto y los sistemas expertos. Esta aproximacin facilita el aprendizaje a
partir de la experiencia, y combina lo mejor de la IA clsica y las redes neuronales. El
trabajo de Judea Pearl (1982a) y de Eric Horvitz y David Heckerman (Horvitz y Heckerman, 1986; Horvitz et al., 1986) sirvi para promover la nocin de sistemas expertos normativos, es decir, los que actan racionalmente de acuerdo con las leyes de la teora de la decisin, sin que intenten imitar las etapas de razonamiento de los expertos
humanos. El sistema operativo Windows incluye varios sistemas expertos de diagnstico normativos para la correccin de problemas. En los Captulos 13 y 16 se aborda este tema.
Revoluciones similares y suaves se han dado en robtica, visin por computador, y
aprendizaje automtico. La comprensin mejor de los problemas y de su complejidad,
junto a un incremento en la sofisticacin de las matemticas ha facilitado el desarrollo
de una agenda de investigacin y de mtodos ms robustos. En cualquier caso, la formalizacin y especializacin ha llevado tambin a la fragmentacin: reas como la visin y la robtica estn cada vez ms aislados de la rama central de la IA. La concepcin
unificadora de IA como diseo de agentes racionales puede facilitar la unificacin de
estos campos diferentes.

Emergencia de los sistemas inteligentes


(desde 1995 hasta el presente)

Quizs animados por el progreso en la resolucin de subproblemas de IA, los investigadores han comenzado a trabajar de nuevo en el problema del agente total. El trabajo de Alien Newell, John Laird, y Paul Rosenbloom en S o a r (Newell, 1990; Laird
et al., 1987) es el ejemplo mejor conocido de una arquitectura de agente completa. El
llamado movimiento situado intenta entender la forma de actuar de los agentes inmersos en entornos reales, que disponen de sensores de entradas continuas. Uno de los
medios ms importantes para los agentes inteligentes es Internet Los sistemas de IA han
llegado a ser tan comunes en aplicaciones desarrolladas para la Web que el sufijo -bot
se ha introducido en el lenguaje comn. Ms an, tecnologas de IA son la base de muchas herramientas para Internet, como por ejemplo motores de bsqueda, sistemas de
recomendacin, y los sistemas para la construccin de portales Web.
Adems de la primera edicin de este libro de texto (Russell y Norvig, 1995), otros
libros de texto han adoptado recientemente la perspectiva de agentes (Poole etal., 1998;
Nilsson, 1998). Una de las conclusiones que se han extrado al tratar de construir agentes completos ha sido que se deberan reorganizar los subcampos aislados de la IA para

32

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

que sus resultados se puedan interrelacionar. En particular, ahora se cree mayoritariamente


que los sistemas sensoriales (visin, sonar, reconocimiento del habla, etc.) no pueden generar informacin totalmente fidedigna del medio en el que habitan. Otra segunda consecuencia importante, desde la perspectiva del agente, es que la IA se ha ido acercando
a otros campos, como la teora de control y la economa, que tambin tratan con agentes.

1.4

El estado del arte


Qu es capaz de hacer la IA hoy en da? Responder de manera concisa es difcil porque hay muchas actividades divididas en muchos subcampos. Aqu se presentan unas
cuantas aplicaciones; otras aparecern a lo largo del texto.
Flarificacin autnoma: a un centenar de millones de millas de la Tierra, el programa de la NASA Agente Remoto se convirti en el primer programa de planificacin
autnoma a bordo que controlaba la planificacin de las operaciones de una nave espacial desde abordo (Jonsson et al., 2000). El Agente Remoto generaba planes a partir de
objetivos generales especificados desde tierra, y monitorizaba las operaciones de la
nave espacial segn se ejecutaban los planes (deteccin, diagnstico y recuperacin de
problemas segn ocurran).
Ju egos Deep Blue de IBM fue el primer sistema que derrot a un campen mundial en una partida de ajedrez cuando super a Garry Kasparov por un resultado de 3.5
a 2.5 en una partida de exhibicin (Goodman y Keene, 1997). Kasparov dijo que haba
percibido un nuevo tipo de inteligencia al otro lado del tablero. La revista Newsweek
describi la partida como La partida final. El valor de las acciones de IBM se increment en 18 billones de dlares.
C o riro l aut no m o: el sistema de visin por computador A l v in n fue entrenado para
dirigir un coche de forma que siguiese una lnea. Se instal en una furgoneta controlada por computador en el N a v L a b de UCM y se utiliz para dirigir al vehculo por Estados Unidos. Durante 2.850 millas control la direccin del vehculo en el 98 por ciento del trayecto. Una persona lo sustituy en el dos por ciento restante, principalmente
en vas de salida. El N a v L a b posee videocmaras que transmiten imgenes de la carretera a A l v in n , que posteriormente calcula la mejor direccin a seguir, basndose en las
experiencias acumuladas en los viajes de entrenamiento.
Diagposis: los programas de diagnstico mdico basados en el anlisis probabilista han llegado a alcanzar niveles similares a los de mdicos expertos en algunas reas
de la medicina. Heckerman (1991) describe un caso en el que un destacado experto en
la patologa de los nodos linfticos se mof del diagnstico generado por un programa
en un caso especialmente difcil. El creador del programa le sugiri que le preguntase
al computador cmo haba generado el diagnstico. La mquina indic los factores ms
importantes en los que haba basado su decisin y explic la ligera interaccin existente entre varios de los sntomas en este caso. Eventualmente, el experto acept el diagnstico del programa.
H arificacinlagstica: durante la crisis del Golfo Prsico de 1991, las fuerzas de
Estados Unidos desarrollaron la herramienta Dynamic Analysis and Replanning Tool

INTRODUCCIN

33

(DART) (Crossy Walker, 1994), para automatizar la planificacin y organizacin logstica


del transporte. Lo que inclua hasta 50.000 vehculos, carga y personal a la vez, teniendo en cuenta puntos de partida, destinos, rutas y la resolucin de conflictos entre otros
parmetros. Las tcnicas de planificacin de IA permitieron que se generara un plan en
cuestin de horas que podra haber llevado semanas con otros mtodos. La agencia DARPA (Defense Advanced Research Project Agency) afirm que esta aplicacin por s sola
haba ms que amortizado los 30 aos de inversin de DARPA en IA.
Robtca: muchos cirujanos utilizan hoy en da asistentes robot en operaciones de
microciruga. HipNav (DiGioia etal., 1996) es un sistema que utiliza tcnicas de visin
por computador para crear un modelo tridimensional de la anatoma interna del paciente y despus utiliza un control robotizado para guiar el implante de prtesis de cadera.
Itocfsan m tod elaigp ajey resolu cin de problemas: P r o v e r b (Littman etal.,
1999) es un programa informtico que resuelve crucigramas mejor que la mayora de
fos humanos, utilizando restricciones en programas de relleno de palabras, una gran base
de datos de crucigramas, y varias fuentes de informacin como diccionarios y bases de
datos online, que incluyen la lista de pelculas y los actores que intervienen en ellas, entre
otras cosas. Por ejemplo, determina que la pista Historia de Niza se puede resolver
con ETAGE ya que su base de datos incluye el par pista/solucin Historia en Franda/ETAGE y porque reconoce que los patrones Niza X y X en Francia a menudo tienen la misma solucin. El programa no sabe que Niza es una dudad de Francia,
pero es capaz de resolver el puzle.
Estos son algunos de los ejemplos de sistemas de inteligencia artificial que existen
hoy en da. No se trata de magia o ciencia ficcin, son ms bien ciencia, ingeniera y matemticas, para los que este libro proporciona una introduccin.

1.5

R esum en
En este captulo se define la IA y se establecen los antecedentes culturales que han servido de base. Algunos de los aspectos ms destacables son:

Cada uno tiene una visin distinta de lo que es la IA. Es importante responder a
las dos preguntas siguientes: Est interesado en el razonamiento y el comportamiento? Desea modelar seres humanos o trabajar a partir de un ideal estndar?
En este libro se adopta el criterio de que la inteligencia tiene que ver principalmente
con las acam es racionales. Desde un punto de vista ideal, un agente inteligmte es aquel que emprende la mejor accin posible ante una situacin dada. Se
estudiar el problema de la construccin de agentes que sean inteligentes en este
sentido.
Los filsofos (desde el ao 400 a.C.) facilitaron el poder imaginar la IA, al concebir la idea de que la mente es de alguna manera como una mquina que funciona a partir del conocimiento codificado en un lenguaje interno, y al considerar que
el pensamiento serva para seleccionar la accin a llevar a cabo.
Las matemticas proporcionaron las herramientas para manipular tanto las aseveraciones de certeza lgicas, como las inciertas de tipo probabilista. Asimismo,

34

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

prepararon el terreno para un entendimiento de lo que es el clculo y el razonamiento con algoritmos.


Los economistas formalizaron el problema de la toma de decisiones para maximizar los resultados esperados.
Los psiclogos adoptaron la idea de que los humanos y los animales podan considerarse mquinas de procesamiento de informacin. Los lingistas demostraron
que el uso del lenguaje se ajusta a ese modelo.
Los informticos proporcionaron los artefactos que hicieron posible la aplicacin
de la IA. Los programas de IA tienden a ser extensos y no podran funcionar sin
los grandes avances en velocidad y memoria aportados por la industria informtica.
La teora de control se centra en el diseo de dispositivos que actan de forma ptima con base en la retroalimentacin que reciben del entorno en el que estn inmersos.
Inicialmente, las herramientas matemticas de la teora de control eran bastante
diferentes a las tcnicas que utilizaba la IA, pero ambos campos se estn acercando.
Las historia de la IA ha pasado por ciclos de xito, injustificado optimismo y consecuente desaparicin de entusiasmo y apoyos financieros. Tambin ha habido
ciclos caracterizados por la introduccin de enfoques nuevos y creativos y de un
perfeccionamiento sistemtico de los mejores.
La IA ha avanzado ms rpidamente en la dcada pasada debido al mayor uso del
mtodo cientfico en la experimentacin y comparacin de propuestas.
Los avances recientes logrados en el entendimiento de las bases tericas de la inteligencia han ido aparejados con las mejoras realizadas en la optimizacin de los
sistemas reales. Los subcampos de la IA se han integrado ms y la IA ha encontrado elementos comunes con otras disciplinas.

o t a s

b ib l io g r f ic a s e h is t r ic a s

El estatus metodolgico de la inteligencia artificial se ha investigado en The Sciences o f


the Artificial, escrito por Herb Simn (1981), en el cual se analizan reas de investigacin interesadas en el desarrollo de artefactos complejos. Explica cmo la IA se puede
ver como ciencia y matemtica. Cohn (1995) proporciona una visin de la metodologa experimental en el marco de la IA. Ford y Hayes (1995) presentan una revisin crtica
de la utilidad de la Prueba de Turing.
Artificial Intelligence: The Very Idea, de John Haugeland (1985), muestra una versin amena de los problemas prcticos y filosficos de la IA. La ciencia cognitiva est
bien descrita en varios textos recientes (Johnson-Laird, 1988; Stillings et al., 1995;
Thagard, 1996) y en la Encyclopedia o f the Cognitive Sciences (Wilson y Keil,
1999). Baker (1989) cubre la parte sintctica de la lingstica moderna, y Chierchia y
McConnell-Ginet (1990) la semntica. Jurafsky y Martin (2000) revisan la lingstica
computacional.
Los primeros trabajos en el campo de la IA se citan en Computers and Thought
(1963), de Feigenbaum y Feldman, en Semantic Information Processing de Minsky, y
en la serie Machine Intelligence, editada por Donald Michie. Webber y Nilsson (1981)

INTRODUCCIN

35

y Luger (1995) han recogido una nutrida cantidad de artculos influyentes. Los primeros artculos sobre redes neuronales estn reunidos en Neurocomputing (Anderson y
Rosenfeld, 1988). La Encyclopedia o/A f (Shapiro, 1992) contiene artculos de investigacin sobre prcticamente todos los temas de IA. Estos artculos son muy tiles para
iniciarse en las diversas reas presentes en la literatura cientfica.
El trabajo ms reciente se encuentra en las actas de las mayores conferencias de IA:
la International Joint Conference on A I (1JCAI), de carcter bianual, la European Conference on AI{ECAI), de carcter bianual, y la National Conference on AI, conocida normalmente como AAAI por la organizacin que la patrocina. Las revistas cientficas que
presentan aspectos generales de la IA ms importantes son Arcial Intelligence, Com-

putational Intelligence, IEEE Transactions on Pattern Analysis and Machine Intelligence,


IEEE Intelligent Systems, y la revista electrnica Journal o f Artificial Intelligence Research. Hay tambin numerosas revistas y conferencias especializadas en reas concretas, que se mencionarn en los captulos apropiados. La asociaciones profesionales de
IA ms importantes son la American Association for Artificial Intelligence (AAAI), la
ACM Special Interest Group in Artificial Intelligence (SIGART), y la Society for Artificial Intelligence and Simulation of Behaviour (AISB). La revista Al Magazine de
AAAI contiene muchos artculos de inters general y manuales, y su pgina Web,
aaai.org contiene noticias e informacin de referencia.

EJERCICIOS

El propsito de los siguientes ejercicios es estimular la discusin, y algunos de ellos se


podran utilizar como proyectos. Alternativamente, se podra hacer un esfuerzo inicial
para solucionarlos ahora, de forma que una vez se haya ledo todo el libro se puedan revisar estos primeros intentos.
1.1 Defina con sus propias palabras: (a) inteligencia, (b) inteligencia artificial, (c) agente.

1.2 Lea el artculo original de Turing sobre IA (Turing, 1950). En l se comentan algunas objeciones potenciales a su propuesta y a su prueba de inteligencia. Cules de
estas objeciones tiene todava validez? Son vlidas sus refutaciones? Se le ocurren nuevas objeciones a esta propuesta teniendo en cuenta los desarrollos realizados desde que
se escribi el artculo? En el artculo, Turing predijo que para el ao 2000 sera probable que un computador tuviera un 30 por ciento de posibilidades de superar una Prueba
de Turing dirigida por un evaluador inexperto con una duracin de cinco minutos. Considera razonable lo anterior en el mundo actual? Y en los prximos 50 aos?
1.3 Todos los aos se otorga el premio Loebner al programa que lo hace mejor en una
Prueba de Turing concreta. Investigue y haga un informe sobre el ltimo ganador del premio Loebner. Qu tcnica utiliza? Cmo ha hecho que progrese la investigacin en el
campo de la IA?

1.4 Hay clases de problemas bien conocidos que son intratables para los computadores,
y otras clases sobre los cuales un computador no pueda tomar una decisin. Quiere esto
decir que es imposible lograr la IA?

36

INTELIGENCIA ARTIFICIAL. UN ENFOQUE MODERNO

1.5 Supngase que se extiende A n a l o g y , el programa de Evans, como para alcanzar


una puntuacin de 200 en una prueba normal de cociente de inteligencia. Quiere
decir lo anterior que se ha creado un programa ms inteligente que un ser humano?
Expliqese.

1.6 Cmo puede la introspeccin (revisin de los pensamientos ntimos) ser inexacta? Se puede estar equivocado sobre lo que se cree? Disctase.
1.7 Consulte en la literatura existente sobre la IA si alguna de las siguientes tareas se
puede efectuar con computadores:

a)
b)
c)
d)
e)
f)
g)
h)
)
j)

Jugar una partida de tenis de mesa (ping-pong) decentemente.


Conducir un coche en el centro del Cairo.
Comprar comestibles para una semana en el mercado.
Comprar comestibles para una semana en la web.
Jugar una partida de bridge decentemente a nivel de competicin.
Descubrir y demostrar nuevos teoremas matemticos.
Escribir intencionadamente una historia divertida.
Ofrecer asesora legal competente en un rea determinada.
Traducir ingls hablado al sueco hablado en tiempo real.
Realizar una operacin de ciruga compleja.

En el caso de las tareas que no sean factibles de realizar en la actualidad, trate de describir cules son las dificultades y calcule para cundo se podrn superar.

1.8 Algunos autores afirman que la percepcin y las habilidades motoras son la parte

ms importante de la inteligencia y que las capacidades de alto nivel son ms bien parsitas (simples aadidos a las capacidades bsicas). Es un hecho que la mayor parte de
la evolucin y que la mayor parte del cerebro se han concentrado en la percepcin y las
habilidades motoras, en tanto la IA ha descubierto que tareas como juegos e inferencia
lgica resultan ms sencillas, en muchos sentidos, que percibir y actuar en el mundo real.
Considerara usted que ha sido un error la concentracin tradicional de la IA en las capacidades cognitivas de alto nivel?
1.9 Por qu la evolucin tiende a generar sistemas que actan racionalmente? Qu
objetivos deben intentar alcanzar estos sistemas?

1.10 Son racionales las acciones reflejas (como retirar la mano de una estufa caliente)? Son inteligentes?
1.11 En realidad los computadores no son inteligentes, hacen solamente lo que le dicen los programadores. Es cierta la ltima aseveracin, e implica a la primera?

1.12 En realidad los animales no son inteligentes, hacen solamente lo que le dicen
sus genes. Es cierta la ltima aseveracin, e implica a la primera?

1.13 En realidad los animales, los humanos y los computadores no pueden ser inteligentes, ellos slo hacen lo que los tomos que los forman les dictan siguiendo las leyes
de la fsica. Es cierta la ltima aseveracin, e implica a la primera?

You might also like