Professional Documents
Culture Documents
Original: SEARLE, J. (1981), Minds, brains, and programs, Behavioral and Brain
Sciences 3: 417-57.
Uma verso preliminar do artigo est disponvel online em:
http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=5322AF285B05EC8E53E67A
B168D086AD?doi=10.1.1.83.5248&rep=rep1&type=pdf&ei=N3CgTY2zOcaltweWgdn
0Ag&usg=AFQjCNEPvV8Ag3nymDPLcOX5wcpyID9BJA
O presente texto uma reimpresso da traduo feita por Cla Regina de Oliveira
Ribeiro (Escola de Enfermagem de Ribeiro Preto, USP), publicada em TEIXEIRA, J.F.
(org.) (1997), Mentes, Mquinas e Conscincia: uma introduo filosofia da mente,
Editora UFSCar, So Carlos, pp. 61-94. e disponvel no stio Filosofia da Mente no
Brasil:
http://www.filosofiadamente.org/images/stories/textos/mentes.doc .
N. do Tradutor: o termo "Inteligncia Artificial" ser abreviado, daqui em diante por IA.
1
1) No estou dizendo, claro, que o prprio Schank est comprometido com essas afirmaes.
(**
caso do idioma chins tenho tudo que a IA poderia colocar em mim por intermdio de
um programa, e mesmo assim no compreendo nada. No caso do ingls compreendo
tudo e at agora no tenho nenhuma razo para supor que minha compreenso tenha
alguma relao com programas de computador - isto , com operaes computacionais
especificadas sobre elementos puramente formais. Na medida em que o programa
definido em termos de operaes computacionais baseadas em elementos puramente
formais, o que o exemplo sugere que estes no tm conexo com a compreenso. Eles
no so condio suficiente e no h, tampouco, razo para supor que eles sejam
condio necessria ou mesmo que eles tenham alguma contribuio significativa para a
compreenso. Observe-se que a fora do argumento no simplesmente que mquinas
diferentes podem ter o mesmo input e output enquanto operando em princpios formais
diferentes - no este o ponto. O que queremos dizer que por mais que se coloque no
computador princpios formais isto no ser suficiente para a compreenso, uma vez
que um ser humano ser capaz de seguir tais princpios formais sem compreender nada.
No h vantagem em supor que eles sejam necessrios ou mesmo que contribuam em
algo, visto que no h nenhuma razo para supor que quando eu compreendo ingls,
estou operando com algum programa formal.
O que h no caso das sentenas em ingls que no existe no caso das sentenas
em chins? A resposta bvia que eu sei o que as primeiras significam, mas no tenho a
menor idia do que as ltimas significam. No que isto consiste e por que no posso
atribu-lo a uma mquina, qualquer que seja ela? Por que no posso atribuir a uma
mquina aquilo que faz com que eu saiba o que as sentenas em ingls significam?
Voltarei a estas questes depois de desenvolver um pouco mais o meu exemplo.
Tive oportunidade de apresentar este exemplo a vrios pesquisadores da IA e,
curiosamente, eles parecem discordar acerca do que seja uma resposta para estas
questes. Obtive uma variedade surpreendente de respostas,e, no que se segue,
analisarei vrias delas (especificadas conforme suas origens geogrficas). Primeiro,
entretanto,quero desmontar alguns equvocos comuns sobre "compreenso". Em muitas
destas discusses encontramos muita confuso sobre a palavra "compreenso". Meus
crticos alegam que h diferentes graus de compreenso, que "compreenso" no um
simples predicado binrio, que existem de fato diferentes tipos e nveis de compreenso
e, freqentemente, a lei do terceiro excludo no se aplica de uma maneira direta a
enunciados da forma "x compreende y"; em muitos casos se x compreende y matria
de deciso e no uma simples questo de fato e assim por diante. Sobre todos estes
comentrios eu digo: "est certo, isso mesmo" mas eles no tem nada a ver com o que
est sendo discutido aqui. H casos em que "compreenso" se aplica claramente e casos
onde claramente ela no se aplica. So situaes deste tipo que preciso para
fundamentar meu argumento (2).
Compreendo histrias em ingls, em grau inferior posso tambm compreender
histrias em francs, em um grau ainda menor, alemo, e em chins, de jeito nenhum.
Meu carro e minha mquina de somar, por um outro lado, no compreendem nada, esto
"por fora" seja por metfora ou por analogia. Freqentemente atribumos
"compreenso" e outros predicados cognitivos a carros, mquinas de somar e outros
artefatos mas nada se prova com tais atribuies. Dizemos: "a porta sabe quando abrir,
em razo de sua clula fotoeltrica" ; "a mquina de somar sabe como fazer soma e
subtrao, mas no diviso" e "o termostato percebe as mudanas de temperatura". A
(2
razo pela qual fazemos estas atribuies interessante e tem a ver com o fato de que
estendemos nossa prpria intencionalidade para os artefatos (3) Nossos instrumentos so
extenses de nossos propsitos, e assim achamos natural fazer atribuies metafricas
de intencionalidade a eles; mas estes exemplos no resolvem nosso problema filosfico.
O sentido no qual uma porta automtica "compreende instrues" atravs de sua clula
fotoeltrica no de jeito nenhum o sentido no qual eu compreendo ingls. Se o sentido
da compreenso de histrias dos computadores programados por Schank fosse o sentido
metafrico no qual a porta compreende e no o sentido no qual eu compreendo ingls
no valeria a pena discutir este problema. Newell e Simon escrevem afirmando que o
sentido de "compreenso" para os computadores exatamente o mesmo que para os
seres humanos. Gosto do modo incisivo desta afirmao e este tipo de assero que
analisarei. Argumentarei que, em um sentido literal, o computador no compreende
nada da mesma maneira que o carro e a mquina de somar tambm no compreendem
nada. A compreenso do computador no como minha compreenso de alemo, ou
seja, parcial ou incompleta, ela zero.
Examinemos agora as objees:
I - A objeo dos Sistemas (Berkeley). - "Embora seja verdade que a pessoa que
est trancada no quarto no compreende a histria, ocorre que ela meramente parte de
um sistema global, e o sistema compreende a histria. Essa pessoa tem uma grande
tabela a sua frente na qual esto escritas as regras, tem um bloco de papel de rascunho,
lpis para fazer clculos; alm disso tem um "banco de dados" com um conjunto de
smbolos em chins. Assim sendo, a compreenso no deve ser atribuda a um simples
indivduo, mas a totalidade de um sistema do qual ele faz parte".
Minha resposta a teoria dos sistemas simples: deixe o indivduo internalizar
todos estes elementos do sistema. Ele memoriza as regras da tabela e o banco de dados
com smbolos chineses e ento ele far todos os clculos em sua cabea. O indivduo,
desse modo, incorpora todo o sistema. No h nada no sistema que ele no possa
abarcar. Podemos at dispensar o quarto e supor que ele trabalha do lado de fora. Do
mesmo jeito, ele continuar no compreendendo nada de chins; portanto, o sistema no
compreende nada porque no h nada neste sistema que no esteja nele. Se ele no
compreende, ento o sistema no poder compreender, pois o sistema somente uma
parte dele.
Na realidade, sinto-me at embaraado ao dar uma resposta a teoria dos
sistemas. A idia que embora uma pessoa no compreenda chins, de alguma forma a
conjuno pessoa e pedacinhos de papel poderia compreender chins. No fcil para
mim imaginar como algum que no estivesse preso a uma ideologia acharia esta idia
plausvel. Entretanto, penso que muita gente que est comprometida com a ideologia da
IA no sentido forte, estar propensa a dizer algo muito parecido com isto. Vamos ento
explorar um pouco mais esta idia. De acordo com uma verso desta viso, enquanto o
homem do exemplo dos sistemas internalizados no compreende chins como um
falante nativo o faz (pois, por exemplo, ele no sabe que a histria se refere a
restaurante e hamburguers etc...) ainda assim o homem como sistema de manipulao
de smbolos formais realmente compreende chins. O subsistema do homem, que o
sistema de manipulao de smbolos formais para o chins no deve ser confundido
com o subsistema para ingls.
3) Intencionalidade por definio aquela caracterstica de determinados estados mentais pelos quais
eles so direcionados para, ou acerca de objetos e estados de coisas no mundo. Neste caso, crenas,
desejos e intenes so estados intencionais; formas no direcionadas de ansiedade e de depresso
no so. Para uma discusso adicional ver Searle (1979).
5
princpio, para distinguir a motivao para dizer que o subsistema chins compreende
de dizer que o estmago compreende. (No constitui uma resposta para este ponto dizer
que o sistema chins tem informao como input e ouput e que o estmago tem comida
e produtos alimentares como input e output, pois do ponto de vista do agente e do meu
ponto de vista, no h informao nem na comida e nem no chins; o chins s um
conjunto de rabiscos sem significado. A informao no caso do chins est somente nos
olhos dos programadores e dos intrpretes e no h nada que os impea de tratar o input
e o output de meus rgos digestivos como informao, se eles assim o quiserem).
Este ltimo ponto diz respeito a alguns problemas na IA no sentido forte e vale a
pena fazer aqui uma pequena digresso. Se a IA no sentido forte um ramo da
Psicologia ela deve ser capaz de distinguir sistemas que so genuinamente mentais
daqueles que no o so. Ela deve ser capaz de distinguir os princpios com os quais a
mente trabalha daqueles com os quais sistemas no-mentais trabalham; de outra maneira
ela no poderia oferecer explicaes acerca da natureza do que especificamente
mental. A distino mental e no-mental no pode estar apenas no olho do observador ela deve ser intrnseca aos sistemas, pois de outra maneira ficaria a critrio do
observador tratar pessoas como no-mentais e furaces como mentais. Mas com muita
freqncia, na literatura sobre IA, a distino esmaecida de tal maneira que torna-se
desastroso afirmar que a IA uma investigao cognitiva. McCarthy, por exemplo,
escreve: "Podemos dizer que mquinas to simples como os termostatos tm crenas, e
ter crenas parece ser uma caracterstica de muitas mquinas capazes de resolver
problemas" (McCarthy, 1979). Qualquer um que pense que a IA no sentido forte tem
alguma chance como uma teoria da mente deve ponderar as implicaes desta
observao. Pedem-nos para aceitar como sendo uma descoberta da IA no sentido forte
que o pedao de metal na parede que usamos para regular a temperatura tenha crenas
da mesma maneira que ns, nossas esposas e nossos filhos tm crenas, e alm do mais
que a "maioria" das outras mquinas da sala - telefone, gravador, mquina de somar,
interruptor eltrico, etc - tambm tenham crenas. No objetivo deste artigo
argumentar ou discutir com McCarthy, por isso foi afirmaremos o seguinte, sem
argumentar. O estudo da mente comea com o fato de que seres humanos tm crenas e
que termostatos, telefones e mquinas de somar no as tm. Se voc concebe uma teoria
que nega tal ponto, voc produziu um contra-exemplo e a teoria falsa. Tm-se a
impresso de que os pesquisadores da IA que escrevem esse tipo de coisa pensam que
podem escapar disto porque eles realmente no levam tais coisas a srio e no pensam
que algum o far. Proponho, pelo menos para o momento, levar estas coisas a srio.
Pense por um minuto o que seria necessrio para estabelecer que o pedao de metal na
parede tem, de fato, crenas - crenas com direcionalidade, contedo proposicional,
condies de satisfao; crenas que tm a possibilidade de ser fortes ou fracas, ansiosas
ou seguras, dogmticas, racionais ou supersticiosas, f cega ou especulaes hesitantes.
O termostato no um candidato plausvel a ter crenas, nem tampouco o so o
estmago, o fgado, a mquina de somar ou o telefone. Contudo, uma vez que estamos
levando esta idia a srio, note-se que se fosse verdadeira ela seria fatal para a proposta
da IA de ser uma cincia da mente, pois ento a mente estaria em todos os lugares. O
que queremos saber o que distingue a mente de termostatos, fgados, etc. Se McCarthy
estivesse certo a IA no sentido forte no teria a menor possibilidade de nos dizer em que
se baseia esta distino.
II - A objeo do robot - (Yale).
"Suponhamos que escrevssemos um programa diferente daquele de Schank.
Suponhamos que pusssemos um computador dentro de um robot e que esse
computador no fosse apenas receber smbolos formais como input e produzir esses
7
smbolos como output, mas que ele fosse operar o robot de tal maneira que este fizesse
coisas como perceber, andar, mover-se, pregar pregos, comer, beber ou qualquer outra
coisa. O robot teria uma cmara de televiso adaptada a ele- o que o capacitaria a ver teria braos e pernas que o capacitariam a agir e tudo isso seria controlado pelo seu
crebro-computador. Tal robot teria compreenso genuna e outros estados mentais - ele
seria diferente do computador de Schank".
A primeira coisa a notar acerca da objeo do robot que ela tacitamente
concede que a cognio no s uma questo de manipulao de smbolos, uma vez
que esta objeo acrescenta um conjunto de relaes causais com o mundo externo. Mas
a resposta a objeo do robot que o acrscimo de tais capacidades (perceptual e
motora) no acrescenta nada em termos de compreenso ou intencionalidade ao
programa original de Schank. Para perceber isso basta notar que o mesmo experimento
mental se aplica ao caso do robot. Suponha que em vez de um computador dentro de um
robot voc me ponha dentro do quarto e me d novamente smbolos em chins com
instrues em ingls para combinar estes smbolos com outros smbolos em chins.
Suponhamos que sem eu saber, alguns dos smbolos em chins que chegam a mim
venham de uma cmara de televiso adaptada ao robot,e que outros smbolos em chins
que estou produzindo sirvam para fazer com que o motor dentro do robot mova seus
braos e pernas. importante enfatizar que tudo que estou fazendo manipular
smbolos formais. Estou recebendo "informao" do "aparato perceptual" do robot e
estou fornecendo "instrues" para seu aparato motor sem saber o que estou fazendo. Eu
sou o homnculo do robot, mas de maneira diferente do homnculo tradicional, sem
saber o que est ocorrendo. No sei nada a no ser as regras para manipulao de
smbolos. Neste caso pode-se dizer que o robot no tem estados intencionais; ele se
move como resultado de seus circuitos eltricos e do seu programa. Alm do mais, a
instanciao de um programa no produz estados intencionais de nenhum tipo relevante.
Tudo que est sendo feito seguir instrues formais acerca da manipulao de
smbolos formais.
III - A objeo do Simulador Cerebral (Berkeley e M.I.T.).
"Suponhamos que ns projetssemos um programa que no represente a
informao que temos acerca do mundo como o caso da informao dos roteiros de
Schank. O programa simula a seqncia efetiva da atividade dos neurnios nas sinapses
do crebro de um falante nativo de chins, quando este entende histrias e d respostas a
elas. A mquina recebe histrias em chins e questes acerca delas como input; ela
simula a estrutura formal dos crebros dos chineses ao processar estas histrias e
fornece respostas em chins como outputs. Podemos at imaginar que a mquina no
opera com um nico programa serial, mas com um conjunto de programas operando em
paralelo, da mesma maneira que crebros humanos possivelmente operam quando
processam linguagem natural. Em tal caso teramos de dizer que a mquina entenderia
histrias, e se nos recusssemos a dizer isso no teramos tambm que negar que
falantes de chins entendem histrias? Ao nvel das sinapses, o que poder ser diferente
no programa do computador e no programa do crebro dos chineses?"
Antes de responder esta objeo quero fazer uma digresso para notar que esta
uma objeo estranha de ser feita por qualquer adepto da IA (funcionalismo, etc.).
Penso que a idia central da IA no sentido forte que no precisamos saber como o
crebro funciona para saber como a mente funciona. A hiptese bsica que existe um
nvel de operaes mentais que consiste em processos computacionais sobre elementos
formais que constitui a essncia do mental e pode ser realizado atravs de diferentes
processos cerebrais, da mesma maneira que um programa computacional pode ser
rodado em diferente hardwares. A pressuposio da IA no sentido forte que a mente
8
est para o crebro assim como o programa est para o hardware, e podemos entender a
mente sem fazer neurofisiologia. Se tivssemos que saber como o crebro trabalha para
fazer IA esta no constituiria um problema. Contudo, mesmo que cheguemos a um
conhecimento muito grande das operaes do crebro, isto no seria suficiente para
produzir a compreenso. Seno vejamos: imagine que ao invs de um ser monolingual
num quarto combinando smbolos tenhamos um homem operando um conjunto
complexo de canos de gua com vlvulas que os conectam. Quando o homem recebe
smbolos em chins, ele consulta no programa escrito em ingls quais vlvulas ele deve
abrir e quais ele deve fechar. Cada conexo na tubulao corresponde a uma sinapse no
crebro do chins e o sistema equipado de tal maneira que aps ativar as conexes
adequadas - ou seja, aps abrir as torneiras adequadas - as respostas em chins
aparecem no final da tubulao.
Onde est a compreenso neste sistema? Ele recebe chins como input, simula a
estrutura formal das sinapses do crebro do chins e produz textos em chins como
output. Mas o homem certamente no entende chins, e nem tampouco a tubulao, e se
estivermos tentados a adotar o que penso ser a idia absurda de que de alguma maneira
a conjuno homem e tubulao compreende, preciso lembrar que em princpio o
homem pode internalizar a estrutura formal da tubulao de gua e realizar toda a
atividade neuronal em sua imaginao. O problema com o simulador cerebral que ele
est simulando coisas erradas acerca do crebro. Na medida em que ele simula
unicamente a estrutura formal das seqncias de atividades neuronais nas sinapses, ele
no est simulando o aspecto mais importante do crebro, ou seja, suas propriedades
causais e sua habilidade para produzir estados intencionais. Que as propriedades formais
no so suficientes para produzir propriedades causais mostrado pelo exemplo da
tubulao de gua: podemos ter todas as propriedades formais sem que estas tenham
sido derivadas das propriedades causais neurobiolgicas relevantes.
IV - A objeo da combinao - (Berkeley e Stanford).
"As trs objees anteriores podem no ser convincentes como uma refutao do
contra-exemplo do quarto chins, mas se elas forem tomadas conjuntamente so
convincentes e decisivas. Imagine um robot com um computador em forma de crebro
alojado em sua cavidade craniana; imagine que o computador est programado com
todas as sinapses de um crebro humano; imagine que o comportamento do robot
indistinguvel do comportamento humano e agora pense nisto tudo como um sistema
unificado e no apenas como um computador com inputs e outputs. Certamente em tal
caso teramos que atribuir intencionalidade ao sistema."
Concordo inteiramente que em tal caso acharamos racional e mesmo irresistvel
aceitar a hiptese de que o robot teria intencionalidade, na medida em que no
soubssemos mais nada sobre ele. Alm da aparncia e comportamento, os outros
elementos da combinao so irrelevantes. Se pudssemos construir um robot cujo
comportamento no se distinguisse de uma grande parcela do comportamento humano,
ns lhe atribuiramos intencionalidade, apesar de termos algumas razes para no fazlo. No precisaramos saber de antemo que seu crebro-computador um anlogo
formal do crebro humano.
Mas realmente no vejo como isto poderia ajudar nas pretenses da IA no
sentido forte e eis porqu: de acordo com a IA no sentido forte, instanciar um programa
formal com o input e o output adequados condio suficiente e constitutiva da
intencionalidade. Como Newell (1980) coloca, a essncia do mental a operao de um
sistema de smbolos fsicos. Mas as atribuies de intencionalidade que fazemos ao
robot neste exemplo no tm nada a ver com programas formais. Elas so simplesmente
baseadas na pressuposio de que se o robot se parece e se comporta como ns,
9
teramos de supor - at prova em contrrio - que ele deve ter estados mentais como os
nossos que causam e se expressam no seu comportamento, bem como um mecanismo
interno capaz de produzir tais estados mentais. Se soubssemos como explicar seu
comportamento independentemente, sem tais pressuposies, no atribuiramos
intencionalidade a ele, especialmente se soubssemos que ele tem um programa formal.
Este o ponto de minha resposta objeo II.
Suponhamos que ns soubssemos que o comportamento do robot
inteiramente explicado pelo fato de um homem dentro dele estar recebendo smbolos
formais sem interpretao dos receptores sensoriais do robot e enviando esses smbolos
para os mecanismos motores desse robot e que o homem est fazendo essa manipulao
simblica de acordo com um conjunto de regras. Alm do mais, suponha que o homem
nada sabe desses fatos acerca do robot; tudo que ele sabe qual operao realizar sobre
esses smbolos sem significado. Em tal caso, consideraramos o robot como um
engenhoso fantoche mecnico. A hiptese de que o fantoche tenha uma mente seria
ento injustificada e desnecessria, pois no haveria mais razo para atribuir
intencionalidade ao robot ou para o sistema do qual ele uma parte (com exceo da
intencionalidade do homem que est manipulando os smbolos). A manipulao de
smbolos formais continua, o input e o output so combinados corretamente, mas o
nico locus de intencionalidade o homem, e ele no sabe nada dos estados
intencionais relevantes; por exemplo ele no v o que chega aos olhos do robot, ele no
tem a inteno de mover o brao do robot ele no compreende as observaes que so
feitas pelo robot ou que lhe so feitas. Nem tampouco, pelas razes colocadas acima, o
sistema do qual o homem e o robot so parte, compreendem alguma coisa.
Para esclarecer este ponto faamos um contraste com os casos onde achamos
completamente natural atribuir intencionalidade a membros de algumas outras espcies,
como gorilas e macacos e a animais domsticos como os ces. As razes pelas quais
achamos isto natural, so, grosso modo, duas. Sem atribuir intencionalidade aos
animais, seu comportamento no faz sentido, e podemos ver que os animais so feitos
de material semelhante ao nosso: olhos, nariz, pele, etc. Dada a coerncia do
comportamento animal e a pressuposio de um mesmo material causal subjacente a
ele, pressupomos que o animal deve ter estados mentais subjacentes a seu
comportamento e que esses estados mentais devem ser produzidos por mecanismos
feitos de um material semelhante ao nosso. Certamente poderamos fazer
pressuposies semelhantes acerca do robot, mas na medida em que soubssemos que
seu comportamento resulta de um programa formal e que as propriedades causais
efetivas de sua substncia fsica fossem irrelevantes, abandonaramos a pressuposio
de intencionalidade.
Existem outras duas respostas ao meu exemplo que aparecem freqentemente (e
ento valeria a pena discuti-las) mas elas realmente fogem ao ponto.
V - A objeo das outras mentes (Yale).
"Como saber que outras pessoas compreendem chins ou qualquer outra coisa?
Unicamente por seus comportamentos. Ora, o computador pode passar por testes de
comportamento to bem quanto elas (em princpio), assim se atribumos cognio a
outras pessoas, devemos em princpio atribu-la tambm a computadores".
A objeo merece apenas uma resposta curta. O problema em questo no
como eu sei que outras pessoas tm estados cognitivos, mas o que estou lhes atribuindo
ao dizer que elas tm estados cognitivos. O ponto central do argumento que no
poderiam ser apenas processos computacionais e seus outputs porque estes podem
existir sem o estado cognitivo. No resposta para este argumento fingir que estados
cognitivos no existem. Em "cincias cognitivas" pressupe-se a realidade e a
10
11
essncia do mental. Mas o problema com este argumento que ele repousa sobre uma
ambigidade na noo de "informao". O sentido pelo qual as pessoas "processam
informao" quando elas refletem sobre problemas aritmticos , ou quando elas lem e
respondem questes sobre histrias no o sentido no qual o computador programado
"processa informao". Em vez disso o que ele faz manipular smbolos formais. O fato
de que o programador e o intrprete dos outputs do computador usem smbolos para
representar objetos do mundo est totalmente alm do escopo do computador.
Repetindo, o computador tem sintaxe mas no tem semntica. Dessa forma, se voc
digita: 2+2 igual?, ele vai apresentar "4". Mas ele no tem idia que "4" significa 4, ou
que isto signifique alguma coisa. O ponto no que ele no tenha alguma informao de
segunda ordem acerca da interpretao de seus smbolos de primeira ordem, mas o fato
que estes smbolos de primeira ordem no tm nenhuma interpretao no que diz
respeito ao computador. Tudo que ele tem so mais smbolos. Assim sendo a introduo
da noo de "processamento de informao" produz um dilema: ou bem construmos a
noo de "processamento de informao" de tal maneira que ela implique a
intencionalidade como parte do processo, ou bem ns no o fazemos. No primeiro caso,
ento, o computador programado no processa informao, ele somente manipula
smbolos formais. No segundo caso, ento, apesar do computador processar informao,
somente no sentido em que mquinas de somar, mquinas de escrever, estmagos,
termostatos, tempestades e furaces o fazem - a saber, eles tm um nvel de descrio
no qual podemos descrev-los como recebendo informao, transformando-a e
produzindo informao como output. Mas nesse caso, depende de observadores
externos interpretar o input e o output como informao no sentido comum. E nenhuma
semelhana estabelecida entre o computador e o crebro em termos de uma
similaridade de processamento de informao nos dois casos.
Em segundo lugar, em grande parte da IA h um behaviorismo residual ou
operacionalismo. Uma vez que computadores adequadamente programados podem ter
padres de input/output semelhantes ao de seres humanos, somos tentados a postular
estados mentais no computador similares a estados mentais humanos. Mas uma vez que
percebemos que conceitual e empiricamente possvel para um sistema ter capacidades
humanas em algum domnio sem ter nenhuma intencionalidade, devemos ser capazes de
superar este impulso. Minha mquina de somar tem capacidade de calcular mas no
intencionalidade, e neste artigo tentei mostrar que um sistema pode ter capacidades de
input e output que duplicam aquelas de um falante nativo de chins e ainda assim no
compreender chins, a despeito de como ele programado. O Teste de Turing tpico
na tradio de ser abertamente behaviorista e operacionalista, e acredito que se os
pesquisadores da IA repudiassem totalmente o behaviorismo e o operacionalismo muito
da confuso entre simulao e duplicao seria eliminada.
Em terceiro lugar, este operacionalismo residual junta-se a uma forma residual
de dualismo; de fato a IA no sentido forte s faz sentido com uma pressuposio
dualista onde aquilo que diz respeito a mente nada tem a ver com o crebro. Na IA no
sentido forte (bem como no funcionalismo) o que importa so programas, e programas
so independentes de sua realizao em mquinas; de fato, no que diz respeito a IA um
mesmo programa pode ser realizado por uma mquina eletrnica, uma substncia
mental cartesiana ou o esprito do mundo hegeliano. A descoberta mais surpreendente
que eu fiz ao discutir estes problemas que muitos pesquisadores da IA esto chocados
com a minha idia de que fenmenos mentais humanos podem ser dependentes das
efetivas propriedades fsico-qumicas dos crebros humanos. Mas eu no deveria estar
surpreso, pois a no ser que se aceite alguma forma de dualismo, o projeto da IA no
sentido forte no tem nenhuma chance. O projeto consiste em reproduzir e explicar o
14
mental projetando programas, mas a no ser que a mente no seja apenas conceitual,
mas empiricamente independente do crebro, este projeto no poder ser executado,
pois o programa completamente independente de qualquer realizao. A no ser que
se acredite que a mente separvel do crebro, conceitual e empiricamente - um
dualismo em uma verso forte - no se pode esperar reproduzir o mental escrevendo e
rodando programas, uma vez que estes devem ser independentes dos crebros ou de
qualquer outra forma especfica de sua instanciao. Se operaes mentais consistem
em operaes computacionais sobre smbolos formais, segue-se que eles no tm
nenhuma conexo importante com o crebro, e a nica conexo seria que o crebro
poderia ser um dentre os mltiplos tipos de mquinas capazes de instanciar o programa.
Esta forma de dualismo no a verso cartesiana tradicional, a qual sustenta que
existem dois tipos de substncias, mas cartesiana no sentido de que ela insiste que
aquilo que especificamente mental no tem nenhuma conexo intrnseca com as
propriedades efetivas do crebro. Este dualismo subjacente mascarado pelo fato de
que a literatura sobre IA contm freqentes ataques contra o "dualismo", mas o que
estes autores no percebem que sua posio pressupe uma verso forte do dualismo.
"Pode uma mquina pensar?" Meu ponto de vista que somente uma mquina
pode pensar, e de fato apenas mquinas de um tipo muito especial, a saber, crebros e
mquinas que tm os mesmos poderes causais do crebro. E esta a principal razo pela
qual a IA no sentido forte tem to pouco a dizer acerca do pensamento: ela no tem
nada a dizer acerca de mquinas. Por definio, ela trata de programas, e programas no
so mquinas. O que quer que seja a intencionalidade, um fenmeno biolgico o qual
deve ser to causalmente dependente da bioqumica especfica de suas origens como o
a lactao, a fotossntese ou quaisquer outros fenmenos biolgicos. Ningum suporia
que poderamos produzir leite e acar rodando uma simulao computacional das
seqncias formais da lactao e da fotossntese; mas no que diz respeito a mente
muitas pessoas querem acreditar em tal milagre por causa de sua fidelidade profunda ao
dualismo: concebem a mente como processos formais e como algo independente de
causas materiais especficas, algo que no ocorre com o acar e o leite.
Na defesa desse dualismo, expressam essa esperana na forma de que o crebro
um computador digital (computadores antigos eram freqentemente chamados de
"crebros eletrnicos"). Mas isto no adianta nada. claro que o crebro um
computador digital, uma vez que tudo um computador digital, os crebros tambm o
so. O ponto que a capacidade causal do crebro para produzir intencionalidade no
pode consistir na instanciao de um programa de computador, pois para qualquer
programa, sempre possvel que haja algo que o instancie e contudo no tenha estados
mentais. Seja l o que o crebro faa para produzir intencionalidade, esta no pode
consistir na instanciao de um programa, pois nenhum programa pr si s suficiente
para produzir a intencionalidade.
AGRADECIMENTOS - Estou em dbito com um grande nmero de pessoas
que discutiram este assunto e por seu paciente esforo em superar minha ignorncia em
IA. Gostaria de agradecer especialmente a Ned Block, Hubert Dreyfus, John Haugeland,
Roger Schank, Robert Wilensky e Terry Winograd.
REFERNCIAS
McCarthy, J. (1979) , Ascribing mental qualities to machines. Stanford AI Lab Memo
326. Stanford.
Newell, A. (1980), Physical Symbol Systems, Cognitive Science.
15
16