filosofia e ciencia cognitiva
DESCRIPTION
Ensaios publicados pela Editora Vozes em 2004 e agora disponíveis na internet. Abordam temas da filosofia da mente, da ciência cognitiva, e outros temas afins.TRANSCRIPT
FILOSOFIA E CIÊNCIA COGNITIVA
João de Fernandes Teixeira
Editora Vozes
Para Malu, o amor da minha vida.
2
ÍNDICE
O que é Ciência Cognitiva................................................................................6
A Ciência Cognitiva para além da representação............................................22
O futuro da Ciência Cognitiva.........................................................................36
Algoritimicidade e Intuição.............................................................................53
A ilusão da neurociência..................................................................................68
Bergsonismo, filosofia da mente e cognitivismo.............................................77(com Paulo de Tarso Gomes)
3
PREFÁCIO E AGRADECIMENTOS
Os ensaios aqui reunidos refletem um percurso de dez anos de pesquisas na área de
filosofia da mente e ciência cognitiva. A idéia central desta coletânea foi reuni-los num
único volume, diminuindo assim sua dispersão, uma vez que todos eles se encontram
publicados em revistas especializadas de difícil acesso até mesmo para os leitores
acadêmicos. Há, dentre eles, apenas uma exceção: o ensaio sobre bergsonismo e filosofia
da mente que escrevi com meu ex-orientando Paulo de Tarso Gomes e que se manteve
inédito até agora.
Quanto aos ensaios já publicados sou grato a seus editores por terem gentilmente
permitido sua reprodução. O primeiro deles tinha o título original de “Psicologia, Ciência
Cognitiva e Simulação”, publicado na revista Olhar (número 4) do Centro de Educação e
Ciências Humanas da Universidade Federal de São Carlos onde ainda hoje leciono. Não
resisti à tentação de modificar seu título para algo mais próximo de seu conteúdo e por isso,
chamei-o de “O que é Ciência Cognitiva”. O segundo, “A Ciência Cognitiva para além da
representação” foi publicado na série Documentos (número 17) do Instituto de Estudos
Avançados da Universidade de São Paulo, em 1996, época na qual era colaborador pleno
do Grupo de Ciência Cognitiva desse instituto. O terceiro ensaio, “O Futuro da Ciência
Cognitiva” originou-se de uma palestra que fiz no Departamento de Psicologia da
Universidade Federal de Minas Gerais, em Belo Horizonte, no ano de 1998 e que adquiriu,
posteriormente, a forma de um artigo para a revista Cadernos de Psicologia (volume 8,
número 1) publicada por esse mesmo departamento.
Os outros três ensaios possuem histórias diferentes. O ensaio “Algoritmicidade e
Intuição” foi publicado pela revista Reflexão (número 72, setembro/dezembro de 1998) do
Departamento de Filosofia da PUC-Campinas. Algumas passagens desse texto já foram
publicadas no meu livro Mentes e Máquinas que veio a lume no mesmo ano, em 1998. A
“Ilusão da Neurociência” escrevi originalmente em inglês (seu título original é “The Allure
of Brain Science”) para um número especial da revista Ciência e Cultura (volume 50, 2/3)
da Sociedade Brasileira para o Progresso da Ciência. Não encontrei quem se dispusesse a
4
traduzi-lo, tendo de enfrentar eu mesmo essa tarefa. Tradutore traditore. Espero, ao realizá-
la, não ter me tornado detrator de minhas próprias idéias.
Não é necessário ler estes ensaios na ordem em que eles se apresentam, com
exceção do quarto e do quinto, que, se lidos em seqüência facilitarão a compreensão do
leitor. Tampouco pensei em organiza-los segundo a ordem cronológica de sua aparição.
Como diria meu mestre Daniel Dennett, publica-se um livro para, logo em seguida, poder
renegar as idéias que estão nele, pois só assim podemos enxergar nossas pesquisas futuras.
São Carlos, maio de 2003.
5
O QUE É CIENCIA COGNITIVA
Desenvolver simulações de atividades mentais humanas é a tarefa primordial da ciência cognitiva. Neste sentido ela é, basicamente, uma ciência do artificial, ou seja, do comportamento das simulações entendidas como grandes experimentos mentais.
Nada atrapalhou mais o desenvolvimento das ciências do homem do que a hesitação
em tratar o ser humano como objeto de investigação. Aqueles que quiseram preservar o ser
humano de uma abordagem científica - os humanistas - tornaram as ciências humanas
estéreis. E o preço desta esterilidade já se faz sentir neste século quando se torna cada vez
mais visível que, a despeito do avanço tecnológico, as chamadas “questões sociais”
permanecem intratáveis. Por que ocorre isto? Quais as raízes desta disparidade entre ciência
da natureza e ciências humanas?
O pensador que oficialmente inicia a modernidade filosófica, René Descartes, tinha
como projeto prioritário fundar uma ciência do ser humano. Esta é a parte freqüentemente
esquecida de sua obra: o desafio de fundar uma medicina científica, uma psicologia (que
ele chamava de ciência das paixões) e uma moral, mesmo que provisória. Mas para fundar
a ciência da natureza - passo preliminar em direção a uma ciência do homem - Descartes
operou uma separação conceitual entre o físico e o mental. Uma separação metodológica
que muitos historiadores até hoje julgam ser uma separação entre substâncias diferentes
que comporiam o mundo. Com esta separação, Descartes pretendia fundamentar e construir
uma nova ciência da natureza, sobretudo uma nova física que fosse totalmente diferente da
física medieval. Separar o físico do mental permitiu a Descartes matematizar o mundo,
torná-lo descritível através de entidades abstratas e modelos matemáticos. Ficava para trás a
física medieval, a física que postulava propriedades intrínsecas dos corpos para explicar
porque eles se movimentam. Alguns, naquela época, lamentaram num tom saudosista a
matematização do mundo, o fim da física do impetus, e chamaram isto de
“desencantamento”.
6
Mas a separação cartesiana entre o físico e o mental não deu apenas frutos. Ao
segregar a mente do mundo - como muitos a entenderam - fez com que qualquer projeto de
criar uma ciência da mente se atrasasse por pelo menos duzentos anos. Não poderia haver
uma ciência da mente, nem uma ciência do comportamento humano, pois a mente seria
algo inescrutável. Restaria apenas a literatura, a folk psychology1 ou quando muito o “esprit
de finesse”. A grande frustração da “folk psychology” é que ela não explica nada, quando
muito repete chavões da sabedoria popular.
Desde a tentativa de criar oficialmente uma ciência da mente - uma psicologia - feita
por Wundt há cerca de dois séculos atrás, até os dias de hoje, pouco andamos. Sucederam-
se as diversas escolas psicológicas, umas as outras, mas até hoje a psicologia sofre de uma
crônica desorganização paradigmática, a ponto de filósofos como Ludwig Wittgenstein
celebrizarem sentenças bombásticas como “Na psicologia há métodos experimentais e
confusão conceitual” (Wittgenstein, 1951).
A sentença de Wittgenstein foi proferida numa época em que duas grandes escolas
disputavam, hegemonicamente, a primazia no cenário da psicologia. De um lado estava a
sicanálise, que rapidamente esqueceu sua motivação médica e biológica para tentar impor-
se como teoria da cultura. Do outro lado havia o behaviorismo que, numa versão caricata
defendida pelo seu baixo clero, colocava-se como opositor de qualquer tipo de mentalismo,
ou seja, recusava-se a postular a existência de qualquer estado interno, mesmo que este
fosse escrutável. É claro que estas escolas acabavam sendo como água e óleo, isto é,
sustentando princípios claramente incompatíveis.
A psicanálise parece ter sucumbido à sua própria escolástica; quanto ao
behaviorismo, pairavam dúvidas se a multiplicidade dos comportamentos humanos seria
inteiramente explicável através de variáveis ambientais. Nas décadas de 50 e 60 a
psicologia atravessou sua mais forte crise paradigmática - uma crise cujos reflexos se fazem
sentir até hoje, com a proliferação de seitas herméticas como é o caso, por exemplo, da
“psicologia transpessoal”. Uma reação a esta tendência foi à ênfase nos estudos sobre o
cérebro, numa tentativa de trazer de volta para a esfera da ciência o estudo da mente
humana. Os anos 90 firmaram-se como a “década do cérebro”, num esforço cada vez maior
1 Por folk psychology entendemos o conjunto de teorias habituais e cotidianas a partir das quais explicamos o comportamento e a vida mental de outras pessoas.
7
de encontrar correlatos neurais de todos os fenômenos mentais, inclusive (e sobretudo) da
consciência. Mas ao adotar esta perspectiva estritamente reducionista da natureza da mente
a neurociência corre, hoje em dia, o risco de dissolver a psicologia, ou seja, de jogar fora o
bebê junto com a água do banho.
É neste cenário extremamente conturbado de disputa paradigmática que surge a
ciência cognitiva. Inicialmente ela surge como alternativa intermediária entre tendências
introspeccionistas e o behaviorismo. Se existe vida psicológica entre inputs e outputs
recebidos por um organismo, esta vida psicológica pode ser modelada na forma de um
programa de computador. Esta foi a motivação inicial da ciência cognitiva, que logo
percebeu que teria de se firmar como uma ciência interdisciplinar, lançando mão dos
recursos da psicologia, da lingüística, da ciência da computação e das neurociências -
enfim, tudo que pudesse contribuir para o estudo da mente. Os primórdios desta nova
ciência foram marcados pelo discurso mistificador acerca dos “cérebros eletrônicos” e
debates filosóficos pueris acerca do que computadores podem ou não fazer. A própria
ciência cognitiva teve suas disputas paradigmáticas internas ou diferentes “escolas” que se
propunham a modelar a vida mental seja através da simulação da mente (inteligência
artificial simbólica), seja através da simulação do cérebro (inteligência artificial
conexionista, baseada em redes neurais artificiais). Nos últimos anos, a ciência cognitiva
recupera, cada vez mais, a robótica, à medida que cresce a percepção de que a simulação do
comportamento inteligente exige a replicação de mentes encarnadas , isto é, inteligências
dotadas de um corpo que atue em um ambiente real.
No meio de todas estas disputas e disparidades paradigmáticas da ciência cognitiva
há, entretanto, uma proposta metodológica unificadora: a idéia de que simular é explicar.
Pouco importa se a simulação é realista ou não, ou seja, se ela é replicação do modo como
os seres humanos executam tarefas inteligentes ou não. Ou seja, pouco importa se a
simulação do comportamento inteligente se faz através de programas computacionais que
simulem a mente, o cérebro ou se se faz através de robôs agindo em tempo real num meio
ambiente qualquer. Simulações são modelos psicológicos, cujo desempenho pode
efetivamente ser testado. Aviões voam, mas, hoje em dia, eles pouco têm a ver com o
modelo pelo qual os passarinhos voam. Isto não quer dizer que não possamos ainda
aprender muito acerca de aerodinâmica estudando o vôo dos pássaros - desde seus
8
primórdios a aviação teve de lançar mão do estudo dos pássaros para construir suas
primeiras máquinas voadoras. Da mesma maneira, é preciso estudar o cérebro e o
comportamento dos seres humanos para explicar a atividade mental através da construção
de simulações cognitivas.
Apostar neste princípio metodológico, ou seja, na lógica da simulação significa
abandonar a linguagem antropomórfica através da qual queremos explicar nossa própria
vida mental. Mas, se o mundo que a física contemporânea descreve está tão distante de
nossa percepção cotidiana, por que o mesmo não poderia ocorrer com a psicologia?
Certamente muitos filósofos e epistemólogos de plantão argumentarão que simular não
significa explicar. Argumentarão que uma máquina que simula a linguagem humana não é
uma “máquina que fala” pois nada indica que ela compreenda o que está falando, embora
possa dialogar perfeitamente com um ser humano. Argumentarão que esta máquina não tem
“estados intencionais” ou seja, pensamentos subjacentes a sua atividade lingüística e que a
construção de uma réplica perfeita de um ser humano não significa que tenhamos
reproduzido a consciência ou a subjetividade inerente a nossos estados mentais. Mas será
que alguma ciência tem como compromisso uma descrição completa de seu objeto?
Quando a física estuda as cores e conclui, por exemplo, que o vermelho é resultante de um
determinado comprimento de onda que incide sobre a retina, estará ela querendo explicar
também o aspecto subjetivo da sensação de experienciar o vermelho?
Os críticos da ciência cognitiva parecem ter caído nas armadilhas que a filosofia
armou para a psicologia - armadilhas que possivelmente são a fonte de todas as confusões
conceituais que uma ciência da mente teria de enfrentar. Afinal, aqueles que argumentam
contra a lógica da simulação em nome de “estados intencionais” ou de “consciência”
(entendida como a consciência reflexiva dos filósofos) não parecem mutatis mutandis estar
muito distantes da física medieval, que explicaria o movimento pelas propriedades
intrínsecas dos corpos. A intencionalidade, a consciência e os estados subjetivos
irredutíveis seriam as propriedades intrínsecas da mente que nunca poderiam ser simuladas,
partindo-se do pressuposto de que elas jamais poderiam ser objeto de ciência.
Curiosamente, intentio (de onde se deriva a palavra intencionalidade) e impetus referem-se
a algum tipo de movimentação (uma movimentação para ou em direção a algo) seja da
mente, seja dos corpos físicos.
9
II
A construção de simulações visando a explicação da natureza da percepção humana,
do aprendizado, da memória e de outros fenômenos psicológicos visa superar as
dificuldades metodológicas envolvidas no desenvolvimento de uma verdadeira psicologia
científica. A ciência cognitiva entendida como ciência da simulação tem como ponto de
partida a construção de sistemas computacionais que instanciem as condições de
possibilidade de algum tipo de vida mental que se assemelhe àquela dos seres humanos.
Neste sentido, a ciência cognitiva é uma investigação a priori , mas é, ao mesmo tempo
uma enorme tarefa de engenharia que pressupõe e exige a testabilidade de seus modelos,
aproximando-se assim das disciplinas empírico-formais. Com isto diminui-se a
generalidade das questões epistemológicas tratadas pelos filósofos, ao mesmo tempo em
que se busca explicitar e testar os dados e pressupostos de teorias psicológicas. Trata-se,
como diz Dennett (1978) de disciplinar a própria imaginação científica, impedindo que
teoria e especulação se mesclem de forma indistinguível.
Testes podem assumir proporções gigantescas, como é o caso do robô humanóide
COG, em desenvolvimento no MIT e que, sem dúvida, constitui o maior experimento
psicológico do século XX. COG está sendo projetado por Rodney Brooks e por Lynn
Andrea Stein e pretende ser um robô humanóide completo, ou seja, COG deverá simular
não apenas os pensamentos, mas os sentimentos humanos. Apesar de ter a forma de um
homem, COG consiste de um conjunto de sensores e de atuadores que simulam a dinâmica
sensório-motora do corpo humano. Até o momento foram projetadas e construídas apenas
algumas partes do COG – um projeto cuja complexidade e custos requerem vários anos de
atividades.
O grande desafio que se coloca – e a grande interrogação – será saber se, uma vez
pronto, COG poderá desenvolver uma vida mental e uma inteligência igual à nossa. Ou
pelo menos algum tipo de vida mental e inteligência similar às nossas. Pois COG não está
sendo projetado para ser uma replicação de um ser humano, e sim para ser uma simulação
da inteligência e vida mental humanas. É neste sentido que o COG constitui um imenso
experimento psicológico: a medida de seu sucesso não será a replicação da vida mental
10
humana, e sim o aprendizado acerca de nosso funcionamento mental que será
proporcionado por este experimento.
O que distingue uma simulação de uma replicação? Certamente há uma diferença
entre estes dois conceitos. Quando construímos uma simulação computacional dos
processos digestivos, não há ingestão nem tampouco digestão de nenhum tipo de comida. A
simulação computacional de uma tempestade não é a reprodução de uma tempestade real,
ou seja, presenciar sua simulação não nos deixa de pés molhados. Por que o mesmo não
poderia se aplicar à simulação da mente humana? Por que esperar que a simulação da
mente tenha como resultado uma replicação de todos os aspectos envolvidos na produção
da vida mental?
Chalmers (1996) chama a atenção para a necessidade de distinguir entre replicações
e simulações embora em alguns casos estes dois conceitos tendam a se confundir. Simular
consiste em reproduzir um invariante organizacional de um sistema, ou seja, uma
propriedade determinante de sua organização funcional, o que certamente exclui uma série
de detalhes que podem ser abstraídos ou simplesmente esquecidos. Uma simulação
computacional de um sistema físico terá como ponto de partida sua organização causal
abstrata e fará com que esta seja replicada nas suas possíveis implementações. Obtemos
assim uma replicação dos invariantes organizacionais do sistema original, embora várias de
suas propriedades sejam excluídas.
Mas serão invariantes organizacionais e componentes causais a mesma coisa? Até
que ponto podem estes coincidir? Muitos aspectos físicos de vários tipos de processos
deixarão de ser relevantes na produção de simulações muito embora não possamos negar
sua participação na própria produção destes processos. Por exemplo, podemos identificar
vários aspectos físicos e causais envolvidos na produção de um furacão, como, por
exemplo, sua velocidade, sua forma, etc. Estes aspectos serão irrelevantes para uma
simulação se, por exemplo, recriarmos um sistema com esta mesma estrutura causal e com
estes mesmos aspectos físicos, mas fizermos com que tal sistema seja implementado num
conjunto de bolas de bilhar espalhadas sobre uma mesa, movendo-se lentamente. Jamais
aceitaríamos estar diante da simulação de um furacão. Da mesma maneira, reações
químicas têm um papel relevante na digestão. Contudo, se tais reações (do tipo ácido/base)
forem produzidas em laboratório, a partir de peças de metal, será que podemos dizer que
11
estamos diante de uma simulação da digestão? Sustentar este ponto de vista seria contra-
intuitivo; aliás, tão contra-intuitivo como supor que um computador pensa, pelo simples
fato de um de seus programas poder calcular reajustes salariais de uma longa folha de
pagamento em segundos.
Identificar componentes causais e invariantes organizacionais podem levar-nos a
uma visão redutiva do que seja uma simulação. Uma visão popular que se baseia, em
última análise, numa equiparação indesejada entre reprodução de alguns componentes
causais (quiçá constitutivos do que entendemos por pensamento e inteligência) e
simulações. Invariantes organizacionais podem coincidir com componentes causais, mas, à
diferença destes últimos, são os critérios determinantes que permitem a identificação de um
sistema como sendo a simulação de um outro qualquer. A grande dificuldade enfrentada
pela ciência cognitiva consiste em identificar os invariantes organizacionais daquilo que
chamamos “mente”.
Esta é uma dificuldade particularmente embaraçosa, não apenas para a ciência
cognitiva, como para a psicologia em geral. Invariantes organizacionais que permitam uma
identificação do que chamamos “mente” ou “fenômenos mentais” colocam um problema
conceitual particularmente agudo para a psicologia. Talvez nenhuma disciplina científica
tenha conseguido determinar o verdadeiro invariante organizacional que caracterize seu
objeto de forma plena e definitiva. Mas este problema é parcialmente contornado pela
adoção consensual de teorias unificadoras que contribuem para uma unidade paradigmática
que encontramos nas diversas disciplinas científicas. O mesmo não ocorre em psicologia. A
psicologia não dispõe de uma teoria da mente, algo que a permita situar-se no âmbito das
ciências paradigmaticamente estabelecidas. Em outras palavras, em psicologia não há um
princípio teórico unificador, como ocorre, por exemplo, na física, na geologia ou na
biologia. A física desenvolveu uma teoria atômica da natureza da matéria, a geologia uma
teoria tectônica das camadas da terra, a biologia, uma teoria evolucionária baseada na
seleção natural.
A não ser que queiramos manter a mente na qualidade de um fenômeno misterioso e
inexplicável (como ainda querem muitos filósofos e psicólogos do hemisfério sul),
princípios teóricos unificadores para a psicologia terão de ser encontrados em outras
disciplinas científicas. A candidata natural para este tipo de tarefa é a neurociência. Muitos
12
esforços têm sido feitos nesta direção, sobretudo nesta década. Há que se reconhecer,
entretanto, que esta é uma tarefa hercúlea. Acumulamos muitos conhecimentos acerca do
que se passa no cérebro, mas ainda não atingimos um nível de conhecimento
neurobiológico que nos possibilite determinar os fatores cerebrais subjacentes à produção
de nossa vida mental. Não sabemos sequer se o neurônio é, de fato, a unidade funcional
fundamental responsável pela produção dos fenômenos mentais.
A busca pela explicação da vida mental ao nível das unidades fundamentais do
cérebro (sejam estas os neurônios ou reações bioquímicas) corre o risco de ser tão
inadequada quanto tentar entender o princípio de funcionamento de um motor a combustão
estudando as moléculas que compõem seus cilindros e pistões.2 Um risco que é agravado
pela possibilidade de que a explicação da natureza da vida mental não esteja confinada
unicamente ao cérebro, mas inclua a interação do organismo como um todo no seu meio
ambiente; uma interação que não exclui a participação de outros organismos semelhantes.
Da mesma maneira que a inteligência artificial simbólica dos anos 70 foi vítima do mito do
“cérebro na proveta” o mesmo deve ser evitado no que diz respeito à neurociência cognitiva
contemporânea.
A ciência cognitiva entendida como ciência da simulação concebe a psicologia
como sendo um ramo da engenharia dedicado à construção de robôs simuladores da vida
mental humana; robôs que, embora ainda não reproduzam invariantes organizacionais da
mente, são essencialmente modelos possíveis do funcionamento mental. Robôs que atuam
num meio ambiente real e em tempo real, evitando assim os riscos derivados do mito do
“cérebro na proveta”. Esta ciência da simulação não deve, entretanto, rejeitar os esforços da
neurociência. A neurociência deve ser o ponto de partida, a inspiração para a identificação
dos invariantes organizacionais que servem de princípio para a construção das simulações –
da mesma maneira que o estudo das asas dos pássaros foi, para os irmãos Wright, o ponto
de partida para a construção dos futuros aviões.
A tarefa de construção destes modelos possíveis de funcionamento mental pode ser
dividida em duas etapas, ilustrando como a psicologia concebida como engenharia e como
neurociência compõem a ciência cognitiva. A primeira, que pode ser qualificada de
“engenharia reversa” consiste em estudar a organização material subjacente à vida mental
2 Uma mesma analogia usada, porém, com finalidade diferente encontra-se em Searle (1997).
13
da mesma maneira que procuramos entender o funcionamento de um aparelho eletro-
eletrônico desmontando-o para ver o que cada uma de suas partes faz. Para fazer isto com a
mente humana, ou melhor, com o cérebro humano, a engenharia reversa baseia-se na
neurociência. A segunda etapa consiste em reproduzir o funcionamento deste “gadget da
natureza” que é a mente humana, para então poder testar a validade das hipóteses derivadas
da neurociência. Um teste que pode ser realizado sem que para isto seja necessário replicar
exatamente a composição biológica e físico-química do cérebro, mas apenas suas
características funcionais. Da mesma maneira que isolamos os componentes ativos de uma
planta para utilizá-los com fins medicinais (numa síntese química artificialmente
produzida) poderemos isolar os componentes ativos da inteligência e do pensamento,
reproduzindo-os numa simulação que terá o mesmo papel da síntese artificial que se faz em
química.
III
Esta concepção de ciência cognitiva como ciência da simulação e da psicologia
como ramo da engenharia têm recebido vários tipos de objeções por parte dos psicólogos e
dos filósofos. Analisaremos pelo menos duas delas, que julgamos serem as mais
importantes e mostraremos em que sentido elas podem ser descartadas.
A primeira objeção consiste em alegar que os modelos computacionais da cognição
humana são incapazes de replicar características específicas da vida mental humana como é
o caso, por exemplo, da experiência subjetiva ou dos qualia. De modo geral, a filosofia da
mente define os qualia como sensações ou estados mentais conscientes estritamente
subjetivos (por exemplo, dores, ou percepções de uma cor com uma determinada
intensidade, o que diferiria no caso de diferentes sujeitos submetidos a um mesmo estímulo
visual). Nos últimos anos a filosofia da mente tem produzido uma imensa quantidade de
literatura sobre os qualia – quase sempre ressaltando o fato de que computadores e robôs
seriam incapazes de ter estados subjetivos ou fenomenais.
A questão dos qualia aparece num contexto histórico específico da filosofia da
mente dos anos 70 quando se discutiu em maior detalhe a validade do funcionalismo. Por
funcionalismo devemos entender aqui uma doutrina específica que define os estados
14
mentais pelo seu papel funcional na determinação do comportamento de um sistema,
independentemente da natureza de seu substrato físico. Nesta perspectiva, um marciano
pode ter um sistema nervoso completamente diferente do humano, mas se o sistema
nervoso desse marciano puder executar as mesmas funções do sistema nervoso de um ser
humano ele terá uma vida mental igual à nossa. A descrição das funções realiza-se a um
nível abstrato, da mesma maneira que um fluxograma de computador ou um software que
estipula quais as instruções que uma máquina deve seguir para realizar uma determinada
tarefa.
Ora, o funcionalismo teve como mérito solapar a crença ingênua num puro e
simples isomorfismo entre computadores e cérebros como se supôs existir na década de 40,
o que o tornou uma das teorias mais úteis derivadas da inteligência artificial. Com esta
teoria abriu-se o caminho para a construção das simulações cognitivas, além da
possibilidade de romper com o materialismo reducionista. Esta ruptura foi particularmente
importante no desenvolvimento histórico da ciência cognitiva, uma vez que a partir dela
preservou-se a peculiaridade dos fenômenos mentais que não precisariam ser, antes de mais
nada, reduzidos a uma base neurofisiológica para então se poder iniciar uma ciência da
mente. Em outras palavras, não era mais necessário aguardar nem tampouco aceitar como
exeqüível o esforço reducionista da neurociência (que até hoje busca um mapeamento entre
eventos mentais e eventos cerebrais) para estudar fenômenos mentais.
As objeções contra o funcionalismo baseadas na existência dos qualia começaram a
aparecer em meados da década de 70, principalmente a partir dos trabalhos de Block (1978)
e Shoemaker (1975). Block formulou o chamado argumento dos “absent qualia”: dois
organismos podem estar exatamente no mesmo estado funcional, embora, para um deles,
estar nesse estado funcional venha acompanhado de uma determinada experiência
subjetiva, enquanto que para o outro isto não ocorra. O argumento de Shoemaker, o
“inverted qualia” vai na mesma direção: podemos perfeitamente imaginar uma criatura
funcionalmente equivalente a nós que, em vez de experienciar as cores como nós o fazemos
tem experiências completamente diferentes, apesar da equivalência funcional ser mantida.
Quando enxergamos verde, ao perceber uma árvore, essa criatura experienciará o vermelho.
Mas seu comportamento e seus estados internos seriam indistinguíveis do nosso. Ambos os
argumentos, de Block e de Shoemaker estariam apontando para o fato de que o
15
funcionalismo seria uma teoria psicológica inadequada, ou talvez excessivamente genérica,
na medida em que seria incapaz de detectar diferenças subjetivas ou qualia.
Há pelo menos duas maneiras de responder a este tipo de objeção. A primeira
consiste em afirmar que os qualia podem não constituir um invariante organizacional da
vida mental humana. Neste caso, eles não precisariam, obrigatoriamente ser reproduzidos
para se obter uma simulação da mente. A segunda resposta consiste em negar, pura e
simplesmente, que a experiência subjetiva e os qualia possam ter qualquer papel causal seja
na produção da vida mental, seja na determinação do comportamento de um organismo -
eles seriam, na verdade, um sub-produto (epifenômeno) dos processos cognitivos humanos.
Examinemos estas duas linhas de contra-argumentação. Tomemos como ponto de
partida o programa computacional para jogar xadrez mais avançado de que dispomos no
momento, o “Deep Blue”. Certamente o Deep Blue não joga xadrez da mesma maneira que
um ser humano o faz. Ele não representa visualmente um tabuleiro de xadrez da mesma
maneira que nós o fazemos, a partir de sensações das cores do quadriculado branco e preto.
Deep Blue não tem as sensações de branco e preto, seja do tabuleiro, seja das peças, mas
pode jogar xadrez tão bem, ou melhor, que um ser humano. Ter sensações ou experiências
de branco e de preto não faz a menor diferença. Deep Blue continuará sendo uma simulação
computacional de um jogador de xadrez e, se jogar xadrez for o invariante organizacional
determinante da vida mental e da inteligência humanas, Deep Blue estará simulando tanto a
inteligência quanto a vida mental dos seres humanos. Adicionar estas sensações ao sistema
significaria requerer que ele processasse mais informação do que o necessário: esta seria
uma desvantagem, que teria como resultado apenas tornar o sistema mais lento.
Contudo, alguém poderia objetar que as sensações de branco e de preto podem
afetar o desempenho de um jogador de xadrez, seja ele humano ou mecânico. A detecção
de uma diferença entre branco e preto não seria o invariante organizacional do sistema, mas
um componente causal importante para o seu desempenho. (Lembremo-nos de que
invariantes organizacionais e componentes causais podem não coincidir). O que se afirma
neste caso, é que distinguir entre branco e preto é necessário para jogar xadrez. Entretanto,
isto não implica que esta distinção tenha de ser processada ou mediada por sensações de
branco e de preto. Em outras palavras, se o Deep Blue tiver como detectar a diferença entre
os quadriculados do tabuleiro, mesmo que não o faça através de uma replicação das
16
sensações de branco e preto como nós o fazemos, ainda assim é possível que ele jogue
xadrez tão bem como um ser humano. Possivelmente ele poderia representar essas
diferenças em termos de mudanças de freqüência de ondas eletromagnéticas ou algo
parecido. Neste caso, os qualia não seriam imprescindíveis para a modelagem da cognição
humana. Eles nada mais seriam do que epifenômenos e sua replicação seria dispensável
tanto para simular invariantes organizacionais como para simular componentes causais da
cognição humana.
O que está por trás desta objeção ao funcionalismo baseada nos qualia é o
pressuposto de que simulação e replicação são a mesma coisa e que a cognição e
inteligência humanas são as únicas formas possíveis e concebíveis de vida mental e de
inteligência. Ou seja, segundo uma concepção popular, replicar a inteligência e a vida
mental implica em, necessariamente, replicar a inteligência e a vida mental humana. E que
para isto teríamos de replicar as nossas sensações e estados subjetivos – o que certamente é
uma impossibilidade em termos de simulações computacionais. Esta perspectiva descarta,
sem discussão, a possibilidade de que existam organismos que apresentem comportamentos
complexos e inteligentes sem, entretanto possuir uma mente capaz de produzir fenômenos
subjetivos. A identificação entre estados subjetivos e cognição e, posteriormente, entre
estados subjetivos e mentes é, assim, um ranço antropomórfico herdado pela psicologia, um
ranço que pressupõe, sem crítica, que a explicação psicológica deve ser concebida como
um discurso que em algum momento deve envolver algum tipo de componente subjetivo
que sejamos capazes de identificar. Isto nos coloca diante de um dilema: ou aceitamos os
qualia e abrimos mão de qualquer projeto científico para a psicologia (que não poderia
ultrapassar esses componentes subjetivos) ou simplesmente negamos pura e simplesmente a
existência dos qualia. O erro comum a estas duas estratégias parece estar na atribuição de
uma importância excessiva à experiência subjetiva na explicação da natureza dos
fenômenos mentais, um erro que tem como base o preconceito popular pelo qual tendemos
a identificar mente com estados subjetivos, como se ambos fossem coextensivos. A questão
não é saber se os qualia existem ou não, mas que estatuto deve ser atribuído a eles nas
explicações psicológicas. E, se neste domínio, eles forem prescindíveis, nada melhor do que
aplicar a navalha de Ockham.
17
Tomar como ponto de partida para uma ciência da mente a especificidade da
experiência subjetiva, ou seja, tentar construir uma ciência do particular pode se tornar,
muito provavelmente, não apenas uma tarefa inglória, mas uma tarefa inútil. Nem mesmo a
Psicanálise, que já foi considerada por alguns como ciência do particular, parece ter querido
bancar este risco.
IV
Analisemos agora uma outra objeção freqüente que se faz à construção de
simulações computacionais da atividade mental humana: a questão da consciência. Os
objetores desta visão da ciência cognitiva costumam dizer que é perfeitamente possível
construir uma simulação completa das atividades mentais humanas sem que esta seja
consciente. Ela seria algo como um zumbi, que faz tudo o que um ser humano faria sem,
entretanto ter consciência do que está fazendo.
Esta objeção, contudo, parece ter suas raízes em algum tipo de ranço cartesiano.
Com efeito, é no cartesianismo que encontramos formulada pela primeira vez a tese de que
um autômato, mesmo que replicando todas as características físicas de um ser humano não
poderia produzir algo parecido com uma vida mental autêntica. Isto porque replicar as
características físicas do ser humano seria condição necessária, mas não suficiente para
replicar a vida mental. Em outras palavras, faltaria algo como um ingrediente suplementar,
para além da replicação das características físicas para que se pudesse dizer que uma
replicação integral da vida mental humana teria sido obtida. Um autômato poderia até
mesmo replicar a mente humana, mas não a alma humana. Este ingrediente suplementar (a
alma) seria, certamente, a consciência e, sem ele, um autômato seria, no máximo, um zumbi
bem sucedido.
Ora, a não ser que concordemos com Descartes e tomemos suas principais teses
metafísicas como pressuposto de nossa discussão, ou seja, seu dualismo substancial, esta
objeção não parece fazer sentido. Uma resposta adequada seria a seguinte: por que
haveríamos de supor que, se replicarmos todas as características físicas e funcionais da
mente humana não estaríamos também replicando a consciência? Terá sentido, afinal de
contas, afirmar que a consciência constitui um ingrediente suplementar que supervém à
organização mental e funcional de um organismo ou sistema?
18
Tomemos os predicados ser consciente e ter saúde. Em ambos os casos, a atribuição
destes predicados não dependeria da possibilidade de explicar o funcionamento de uma
estrutura física específica de um organismo, isto é, em ambos os casos, a atribuição destes
predicados fundamenta-se na observação de uma característica global do organismo.
Contudo, aqui corremos o risco de deslizar da idéia de característica global para a idéia de
característica adicional. Não teria cabimento supor que - mesmo por um ato de imaginação
filosófica - poderíamos remover a saúde de um organismo ao mesmo tempo em que
mantemos a totalidade de seus órgãos e suas interações em perfeito estado, ou,
inversamente, que poderíamos remover alguns desses órgãos e, mesmo assim, achar que
preservamos a saúde do organismo, isto é, que ela poderia permanecer intacta. Ora, por que
não poderíamos afirmar o mesmo em relação à consciência?3 Ou seja, por que teríamos de
supor que a consciência é uma característica adicional da organização funcional da mente
humana?
A manobra metafísica a partir da qual instaura-se uma idéia de consciência como
ingrediente suplementar ou substância imaterial subjacente ao conjunto das atividades
mentais de um organismo tem como conseqüência a impossibilidade de se desenvolver uma
ciência da mente, ou seja, que se trate os fenômenos mentais como objeto de ciência. Pois
haveria sempre algo intangível e inescrutável que teria de, forçosamente, fazer parte das
explicações psicológicas.
V
Alan Turing afirmou uma vez (Turing, 1950) em tom bastante jocoso, que os
intelectuais e os filósofos seriam sempre os grandes objetores da possibilidade de replicar
mecanicamente as operações mentais humanas. Os intelectuais e filósofos sempre tiveram
muito orgulho de suas habilidades mentais e prefeririam que a mente continuasse sendo um
fenômeno inexplicável. Em nome disto a mente humana manteve-se por muito tempo como
uma espécie de mito – um mito metafísico que deveria ser segregado da esfera da explicação
científica da mesma maneira que Aristóteles segregou o mundo celeste do alcance de
qualquer teoria física. 3 A mesma objeção em relação à existência de zumbis e a necessidade de um ingrediente suplementar para a consciência é desenvolvida por Dennett (1995).
19
A psicologia, a partir deste século e, mais tarde a ciência cognitiva tentaram
bravamente solapar este mito. O grande desafio que se coloca agora é como reconstruir o
conceito de mente a partir destas novas propostas. Esta é uma preocupação que começa a
inquietar a comunidade científica neste final de década. Até que ponto o conceito de mente
sobreviverá às investidas bem sucedidas da neurociência cognitiva que tem procurado,
progressivamente, desfazer a própria noção de fenômeno mental reduzindo-o a um substrato
cerebral?
Ecos deste tipo de mudança já se fazem sentir, como, por exemplo, um livro
recentemente publicado por um dos fundadores da neurociência cognitiva, Michael
Gazzaniga (Gazzaniga, 1998). O título de seu livro não poderia ser mais sugestivo: The
Mind’s Past . Nele o autor vaticina o fim do próprio conceito de mente e de self bem como a
progressiva substituição da psicologia pela neurociência.
Será que o conceito de mente – e com ele grande parte da psicologia – vai
desaparecer no próximo século? Será que a idéia de mente vai se tornar um conceito
científico obsoleto como aconteceu, por exemplo, com o flogisto após a descoberta do
oxigênio?
Um dos aspectos mais interessantes – mas também mais freqüentemente esquecido –
neste tipo de discussão é a imensa complexidade apresentada pelo cérebro humano quando
se tenta descrevê-lo na qualidade de sistema físico. Dificilmente conseguiremos uma
descrição completa do cérebro e um mapeamento integral entre fenômenos mentais e
fenômenos cerebrais. Ademais, foi diante desta complexidade astronômica que dificulta
imensamente predições do comportamento de nossos semelhantes e que tende, no limite, a
tornar a explicação desses comportamentos quase ininteligível que desenvolvemos esta
estratégia fabulosa que chamamos de “folk psychology”. E com o advento da “folk
psychology” (em algum ponto do processo evolucionário humano) geramos também o
conceito de mente.
Neste sentido, o conceito de mente é uma das ficções mais úteis que a humanidade já
gerou. Uma ficção que, quando tomada excessivamente a sério e transformada em ficção
científica pode dar origem a tudo aquilo que conhecemos como sendo “psicologia”. Mais do
que isto: o conceito de mente revela-se igualmente uma ficção útil quando consideramos
suas contrapartidas éticas e jurídicas, ou seja, as noções de pessoa e de agente responsável e
20
imputável. Uma ficção que, pela sua utilidade, persistirá apesar do sucesso de qualquer
projeto reducionista que mostre, ainda que cabalmente, que mente e cérebro são a mesma
coisa.
Bibliografia e Referências
Block, N. (1978) – “Troubles with functionalism” . In C.W. Savage (ed), Minnesota Studies
in the Philosophy of Science, vol IX, Minneapolis: University of Minnesota Press, 261-325.
Chalmers, D. (1996) – The Conscious Mind: In Search of a Fundamental Theory, Oxford:
Oxford University Press.
Dennett, D. (1978) - Brainstorms, Cambridge, MA : The MIT Press.
Dennett, D. (1995) – “The Unimagined Preposterousness of Zombies: Commentary on
Moody, Flanagan and Polger” . Journal of Consciousness Studies, 2 (4) : 322-326.
Descartes, R. (1641/1953) - Discours de la Méthode in Oeuvres et Lettres - Paris:
Gallimard: Bibliothèque de la Pléiade.
Gazzaniga, M. (1998) – The Mind’s Past , Berkeley: University of California Press.
Searle, J. R. (1997) – The Mystery of Consciousness – New York, NY: NYREV.Inc
Shoemaker,S. (1975) – “Functionalism and qualia” , Philosophical Studies, 27: 271-315.
Teixeira, J.de F. (1998) – Mentes e Máquinas: uma introdução à Ciência Cognitiva, Porto
Alegre: Editora Artes Médicas.
Turing, A. (1950) – “Computing Machinery and Intelligence”, Mind, 59 (236) pp.433-460.
Wittgenstein,L. (1951) – Philosophical Investigations , Oxford: Basil Blackwell. Trad. de
G.E.M. Anscombe
21
A CIÊNCIA COGNITIVA PARA ALÉM DA REPRESENTAÇÃO
O fim da inteligência artificial ou do chamado paradigma simbólico exige que a ciência cognitiva faça novas alianças teóricas, abandonando, em parte, sua estreita relação com a filosofia analítica. Novos horizontes, vindos da fenomenologia, especialmente de Merleau-Ponty são agora bem-vindos para realizar esta tarefa de fundamentação que já teve início com os teóricos do paradigma enativo.
1 - A Ciência Cognitiva e o problema da representação - Se compararmos o
desenvolvimento da ciência cognitiva nas últimas décadas com a história da filosofia neste
século possivelmente chegaremos a um estranho cenário: se de um lado a ciência cognitiva
tentou se consolidar fundamentando-se na noção de representação, a história da filosofia
parece ter realizado um percurso inverso. Esta tentou, de seu lado, desmantelar a noção de
representação e evitar o mentalismo nas suas concepções sobre o conhecimento. Trata-se
sem dúvida de um estranho fenômeno, que mereceria a análise dos sociólogos e
historiadores da ciência. Talvez o aspecto mais paradoxal desta comparação surja quando,
levamos em conta o fato de que para os filósofos esta noção sempre constituiu um dos
aspectos mais problemáticos a serem enfrentados pelas teorias da cognição - um verdadeiro
esqueleto guardado no armário do epistemólogo. Pensar que o fundamento de uma ciência
poderia ser encontrado numa noção tão problemática e já em desuso no nosso século só
poderia ser comparado a tentar construir um prédio sobre um terreno que nunca pôde ser
terraplenado.
Que estranho fenômeno! Enquanto a filosofia continental européia procurava se
livrar desta noção problemática, a ciência cognitiva, então nascente, corria em direção
contrária - esta nova disciplina que queria ser a vanguarda das ciências. Foi numa aliança
com a filosofia analítica que a ciência cognitiva procurou encontrar seus fundamentos e
ferramentas conceituais - definições de conhecimento, representação, inferência etc. Esta
foi uma aliança jamais questionada, uma vez que dela derivariam os cânones de
racionalidade e clareza que devem servir para a construção de uma disciplina legitimamente
científica. Contudo, a própria filosofia analítica, nos últimos anos, tem colocado em questão
suas noções tradicionais de representação e conhecimento, numa espécie de tentativa tardia
de convivência com a única corrente filosófica da qual ela concebia aproximar-se: a
fenomenologia. A fenomenologia já colocava em questão a noção de representação muito
antes da ciência cognitiva se consolidar institucionalmente como disciplina. Vale a pena
recordar que o artigo de J.P-Sartre, "Une Idée fondamentale de la phénomenologie de
22
Husserl: Intentionalité", onde as noções de representação e intencionalidade são
praticamente desmanteladas, data de 1947. E que outros trabalhos, com a mesma
inspiração datam da década de 60: veja-se, por exemplo, a primeira parte do Visível e
Invisível de M-Ponty.
Mas no reconhecimento deste estranho fenômeno sociológico e histórico não
precisamos sequer lançar mão de comparações entre filosofia analítica e a tradição
continental. A própria filosofia analítica tentou implodir a noção de representação muito
antes de se pensar nestas aproximações. A derrocada de empreendimentos filosóficos como
o Tractatus de Wittgenstein implicava na falência de uma visão da linguagem como
representação e, certamente, na necessidade de revisão do próprio estatuto deste conceito.
Mais do que isto, a ciência cognitiva, ao ignorar a evolução da própria filosofia que lhe
serviria de fundamento, parece ter incorrido na ilusão ingênua de que a consolidação de
uma disciplina como científica implica numa recusa positivista em discutir seus
fundamentos filosóficos.
O preço desta surdez deliberada e da recusa de se dissociar de pressupostos
assumidos até hoje de maneira não-crítica pode ser tão alto a ponto da ciência cognitiva
comprometer seu futuro como programa de pesquisa. No caso específico da IA esta atitude
começa a se refletir como estagnação teórica e até mesmo tecnológica. O insucesso das
tentativas de construção das máquinas de tradução na década de 60 - impiedosamente
avaliado e criticado pelas agências financeiras americanas - nada mais vieram do que
apontar para a impossibilidade de se assumir o pressuposto cognitivista da linguagem
entendida como representação; um insucesso filosoficamente previsível se a própria noção
de representação tivesse sido questionada e se a ciência cognitiva não tivesse virado as
costas para a filosofia contemporânea. Mas as dificuldades encontradas na construção da
máquina de tradução - por exemplo, o problema da contextualização e da construção de
uma semântica a partir da sintaxe - não foram reconhecidas como dificuldades filosóficas e
sim tecnológicas. Para que esta fosse reconhecidas como filosóficas seria preciso rever o
próprio conceito de linguagem e com este o conceito de representação - o que a
comunidade científica da IA não queria fazer. A mesma parceria filosófica infeliz parece ter
sido a causa do insucesso dos sistemas especialistas no final dos anos 70. A idéia de
conhecimento como representação parece estar na raiz das dificuldades tecnológicas
aparentes envolvidas na construção destes sistemas: explosão combinatorial, rigidez de
estrutura e assim por diante.
Mais recentemente os teóricos da IA têm desenvolvido tentativas de reverter este
quadro desanimador oriundo desta má parceria filosófica. O reaparecimento do
conexionismo e o aprofundamento dos estudos sobre o funcionamento das redes neurais a
23
partir da década de 80 deveriam naturalmente forçar uma revisão da noção de
representação.
Infelizmente não é isto o que vem ocorrendo. A construção de sistemas
conexionistas levou os teóricos da ciência cognitiva, num primeiro momento, a supor que
esta poderia pura e simplesmente prescindir da idéia de representação. Esta perspectiva,
entretanto, logo se revelou errônea: o conexionismo não prescinde das representações, mas
introduz um aspecto convencionalista na maneira de concebê-las, ao propor trocar o
modelo de inspiração discursiva, baseado numa metáfora visual (ou semanticamente
transparente, para usar a terminologia de Clark, 1989) por um modelo de inspiração
matemática onde se constroem representações de representações na forma de equações
diferenciais que expressam relações entre neurônios artificiais. Rompem-se possíveis
semelhanças entre representação e objeto representado, é inútil procurar equivalentes
cerebrais dos folk-solids, mas a idéia tradicional de representação é reinstaurada na medida
em que se mantém inquestionada a dicotomia entre cognição e mundo.
Acredito que a retomada do conexionismo e das pesquisas sobre redes neurais nas
últimas duas décadas constitua um momento crucial para a ciência cognitiva reavaliar suas
parcerias filosóficas. Penso que representacionalismo e conexionismo sejam paradigmas
irreconciliáveis na medida em que se baseiam em concepções radicalmente diferentes do
funcionamento mental, caracterizando uma disputa que poderia ser particularmente fértil
para a ciência cognitiva. Infelizmente esta oportunidade não parece estar sendo
devidamente aproveitada: os teóricos da cognição têm insistido em classificar e interpretar
o conexionismo como um tipo de funcionalismo que só diferiria do tradicional por causa de
sua inspiração neurofisiológica. O resultado tem sido o crescente aprofundamento de um
abismo entre teoria e prática ou uma incapacidade sistemática de se conceber as
implicações teóricas do próprio desenvolvimento dos sistemas conexionistas, o que o tem
tornado uma espécie de tecnologia filosoficamente órfã onde não se sabe o que se está
fazendo.
Mas haverá possibilidade de se fundamentar uma ciência da cognição prescindindo
da noção tradicional de representação? A ciência cognitiva não pode prescindir de uma (ou
alguma) noção de representação, mas, para incorporar os resultados da reflexão filosófica
contemporânea, teria de situar-se para além da noção tradicional de representação. A
representação - entendida no sentido da representação tradicional - não pode mais ser a
arché ou o fundamento da ciência cognitiva (mesmo porquê nunca pôde sê-lo). Esta
afirmação, entretanto, deve levar-nos ao desenvolvimento de uma nova visão da natureza
da representação que possibilite o desenvolvimento de uma autêntica teoria científica da
cognição, evitando que esta se desmorone sob o peso do relativismo e do culturalismo que
24
alguns filósofos tomam como sendo uma conseqüência legítima e inevitável a ser derivada
da crítica filosófica contemporânea da noção tradicional de representação.
Repensar o estatuto da representação na ciência cognitiva significa não apenas
buscar novas parcerias filosóficas para esta disciplina, mas também repensar seu objeto e
seu projeto científico a partir destas novas alianças. Uma reversão de nossa perspectiva
atual sobre a ciência cognitiva pode ser obtida se deixarmos de conceber a representação
como fundamento da cognição e passarmos a concebê-la como um fenômeno que ocorre no
mundo, constituindo parte integrante deste. Nossa representação do mundo é parte do
mundo e não sua condição de possibilidade - isto parece ser a grande reversão operada pela
filosofia contemporânea na sua crítica às teorias que partem de uma noção tradicional de
representação.
Do ponto de vista da constituição de uma ciência da cognição esta nova perspectiva
coloca-nos numa posição vantajosa: a representação passa a poder ser tratada como um
fenômeno cognitivo entre outros - um objeto e não o fundamento da ciência que se quer
fazer. A objeção natural que pode surgir aqui consiste em afirmar que estaríamos
condenando a ciência cognitiva a uma inaceitável circularidade do tipo daquela que pesa
sobre todas as teorias que propõem a naturalização do conhecimento. Mas esta objeção
pode ser rapidamente desfeita se abraçarmos uma noção contemporânea de ciência, onde se
abra mão da possibilidade de uma arché fundamental e sua metáfora do edifício sólido
construído sobre bases sólidas - uma metáfora que seria substituída pelo edifício que
dificilmente se equilibra sobre o alicerce pantanoso, como uma vez foi sugerido por
Popper.
O que significa afirmar que a representação pode ser estudada na qualidade de um
fenômeno cognitivo? Nesta nova perspectiva - que recusa a oposição representação/mundo
- isto significa elaborar uma teoria cognitiva que possa explicar como e porquê geramos
uma aparência de exterioridade do mundo no qual vivemos apesar de suas representações
serem parte dele - uma situação que tem como corolário inevitável nossa própria exclusão
desse mundo. Re-apresentar o mundo como algo exterior a nós tem significado excluir dele
o sujeito cognoscente, o sujeito das representações - uma posição insustentável para
qualquer filosofia que se recuse a tomar como ponto de partida a oposição tradicional
representação/mundo. Uma teoria cognitiva da gênese destas falsas oposições e da
aparência de exterioridade do mundo, para se constituir na qualidade de uma teoria
científica e contornar as saídas fáceis propostas pelo relativismo e pelo culturalismo, partirá
de uma fenomenologia do senso comum. O senso comum será o objeto privilegiado da
ciência cognitiva na medida em que nele reside a chave para explicar ou traçar uma
25
genealogia da aparência de exterioridade do mundo e da própria formação da noção
tradicional de representação.
Nossa proposta - que desenvolveremos a seguir - é que a gênese da aparência de
exterioridade do mundo baseia-se na possibilidade de alguns organismos exercerem a
autolocomoção. É a autolocomoção que está na raiz de toda fenomenologia do senso
comum e que nos coloca na posição singular de "proximidade absoluta que também se
transforma, inexplicavelmente, em distância irremediável que mantemos com o mundo" a
que se refere M-Ponty no seu Visível e Invisível. (1984, p.20). A autolocomoção está na
gênese da fé perceptiva da qual resulta nosso recuo em relação ao mundo e o aparecimento
do "mundo como algo exterior", do qual não fariam parte nossas próprias representações
dele. Mas a autolocomoção é também um fenômeno biológico, o que levanta a
possibilidade de que o estudo da fenomenologia do senso comum se apóie na Biologia que
passaria a ser ponto de partida para o estudo da formação da própria noção tradicional de
representação entendida como fenômeno cognitivo. Podemos assim desenvolver uma visão
naturalista da cognição, que não prescindiria da idéia de representação, mas a modificaria
radicalmente e onde a própria noção tradicional de representação passaria a ser vista como
objeto de estudo - um objeto de estudo que figuraria como parte de uma pré-teoria que
ainda não pôde construir seu objeto como algo totalmente biológico, na medida em que a
fenomenologia do senso comum ainda resiste a qualquer redução pura e simples. Mas é
exatamente esta ante-sala para o biológico que inscreve e caracteriza esta pré-teoria como
pertencente ao âmbito da ciência da cognição: o fenômeno cognitivo é emergente em
relação ao biológico e é neste sentido que ele que ainda resiste a uma descrição completa
através de categorias oriundas da Biologia.
2 -Os limites da representação clássica - Como desenvolver o estudo da fenomenologia do
senso comum? E como poderemos mostrar a formação de uma aparência de exterioridade
do mundo a partir da autolocomoção? Para responder a estas questões será necessário
retomar, por um momento, o exame da noção clássica de representação - uma tarefa que na
verdade ainda não iniciamos e demos por pressuposta.
A teoria clássica da representação começa no século XVII e parte da pressuposição
da estranheza do mundo em relação à mente que o concebe - uma estranheza que resulta de
uma caracterização da mente como algo distinto e separado do mundo. Neste sentido, a
representação tem de recuperar esse mundo do qual a mente não faz parte; é preciso
instaurar uma garantia de correspondência com aquilo que se tornou exterior ou externo,
seja ela através de um Deus não-enganador ou das formas a priori da intuição e do
entendimento. A teoria clássica da representação confundiu-se com uma teoria da verdade
26
entendida como correspondência que se desdobrou, posteriormente, na análise lingüística e
em outras ramificações da filosofia analítica.
Mas além de uma garantia de correspondência, a visão clássica exigia que as
representações fossem diáfanas, pois só assim poderiam desempenhar o papel de espelho
do mundo. A representação tinha de ter propriedades especiais que as distinguissem dos
objetos representados, ela não poderia ser um objeto entre outros; ela tinha de ser algo a
mais do que uma relação física ou uma relação entre coisas no mundo. Idéias, intenções,
sonhos, etc não poderiam ser eventos no mundo: a relação intencional nunca poderia ser
concebida como uma relação entre objetos situados no espaço. Paradoxalmente, as
representações e o sujeito cognoscente que os retém teriam de ser excluídos do mundo para
que se mantivesse este caráter distintivo das representações. Sustentar a imaterialidade da
mente era a melhor estratégia para garantir este caráter diáfano das representações, ao
mesmo tempo em que se reforçava o pressuposto básico da interioridade do mental e sua
separação em relação ao mundo. A imaterialidade da mente com suas representações
voláteis só poderia ser sustentada de maneira plena se se tornasse o mental inescrutável; ou
seja, era necessário rebatê-lo para aquém de qualquer manifestação: tratava-se de postular a
existência de um fantasma na máquina, um substrato invisível e intangível que seria o
verdadeiro e único responsável pela consciência e pelo significado (ou mesmo a
intencionalidade) que as representações poderiam adquirir.
A ciência cognitiva contemporânea - o representacionalismo e a IA desenvolvida
pelo MIT nos anos 70 - herdou estes pressupostos da teoria clássica da representação. Este
tipo de ciência cognitiva que em grande parte prevalece até hoje desenvolveu uma visão da
cognição e do chamado "modelo computacional da mente" onde ambos são definidos como
computações de representações simbólicas. A idéia de representação mental identificada
com símbolo não está tão distante da noção de idéia cartesiana, definida por imagem
intelectual ou da semiótica lockeana que concebia as "idéias" com signos. Mas não é
apenas a idéia da representação mental identificada com símbolos (ou "imagens
intelectuais") que é herdada pela IA dos anos 70. Ela herda também - talvez sem perceber
ou a contragosto - a pressuposição do ghost in the machine, a mesma pressuposição que
fazia com que Descartes reconhecesse as limitações dos autômatos, limitações principiais
que os impediriam de vir a ter uma vida mental semelhante a nossa por mais que a
tecnologia pudesse avançar. O problema do ghost in the machine reaparece nas críticas a IA
esboçadas no início dos anos 80, sob a forma do argumento intencional ou o argumento do
quarto do chinês desenvolvido por J. Searle (1980). O problema da intencionalidade ou do
significado como algo indissociável de uma consciência (seja esta resultado de um
fantasma oculto ou da atividade biológica dos organismos como queria Searle) não
27
constitui uma efetiva crítica da IA no sentido forte: ele é menos uma ruptura do que a
constatação natural dos limites da computação simbólica; um desdobramento natural da
tradição cartesiana herdada pela IA dos anos 70.
Ora, o problema da intencionalidade é um problema intransponível para a
computação simbólica. Mais do que isto, ele marca os limites da teoria clássica da
representação adotada pela ciência cognitiva ou pelo cognitivismo nos seus anos
florescentes. A manipulação simbólica, por mais sofisticada que seja, não pode fazer com
que os símbolos se refiram ou passem a ser "acerca de algo no mundo".
A teoria clássica da representação falha em resolver o problema da intencionalidade
na medida em que a estocagem de informação na forma de símbolos e sua manipulação não
podem conter o elemento extra-mental ou extra-representacional que permite estabelecer a
relação entre representação e seu referente no mundo - precisamente porque este elemento
não pode ser uma representação. Da mesma maneira, um mapa de uma cidade constitui um
conjunto de símbolos acerca de algo na medida em que estes puderem ser associados com
ruas, praças e monumentos que eles representam. Mas isto, por sua vez, só se torna possível
na medida em que a localização do nosso corpo permite uma associação entre um símbolo e
seu referente (uma praça ou um monumento). Neste caso, o corpo constitui este elemento
extra-representacional: ele não pode ser uma representação, ou seja, ele não pode ser um
símbolo, caso contrário ele não permitiria esta associação. O corpo faz com que a
representação ocorra no mundo, como parte dele e não como condição de possibilidade do
mundo - unicamente este abandono da concepção clássica de representação permite superar
o problema da intencionalidade. Ou, em outras palavras, reverter a teoria clássica da
representação consiste em reconhecer a incompletude (no sentido matemático) de qualquer
sistema simbólico e conceber as representações como algo ocorrendo no mundo;
incorporando as limitações e os pontos de vista decorrentes do contexto no qual o seu
portador se encontra.
Uma maneira de ilustrar o alcance destas afirmações no âmbito da IA consiste em
imaginar que algum dia alguém tenha de construir um robô que deva atravessar um terreno
extremamente acidentado e cheio de poças de água - uma charneca. Teríamos de fornecer a
esta máquina instruções acerca de sua própria localização espacial, mas isto certamente
seria problemático, uma vez que essas instruções nunca poderiam ser completamente
codificadas no programa da CPU que orienta o robô. Como colocar no programa uma
representação que englobe não apenas os lugares por onde deve passar a máquina, mas
referir esses lugares à própria localização do robô enquanto corpo físico - ou seja, fazer
com que os símbolos que estão contidos no programa adquiram um componente externo,
extra-símbólico que os relacione ao seu meio ambiente? E mesmo que a localização física
28
da máquina pudesse ser representada no programa, quem garantiria que essa representação
coincidiria com os lugares nos quais a máquina efetivamente se encontra?
A dificuldade reside no fato de que o robô não pode estabelecer uma relação entre
os símbolos de seu programa e os objetos aos quais estes se referem; não há como
transformar elementos extra-representacionais em representações que poderiam ser
codificadas num programa computacional. Certamente nosso robô pode até ser bem
sucedido na tarefa de atravessar a charneca se considerarmos apenas o aspecto externo de
seu "comportamento" , mas, por outro lado, não poderíamos afirmar que ele em algum
momento representa o seu meio ambiente. Ele não produz suas representações nem as
utiliza de modo autônomo para orientar seu próprio comportamento. Se seu programador
lhe fornece um mapa para que ele seja bem sucedido na sua travessia, os símbolos deste
mapa serão cegos, sem intencionalidade. A mesma dificuldade encontraríamos se
quiséssemos programar uma máquina para distinguir seu lado direito de seu lado esquerdo,
numa situação em que sua posição fosse arbitrária e constantemente modificada: não há
como conceitualizar as noções de "à direita" e "à esquerda", de modo a poder codificá-las
num programa computacional.
3 - Autolocomoção e aparência de exterioridade - A ruptura com a concepção clássica de
representação, que apontamos acima, como sendo uma condição necessária para a IA
superar o problema da intencionalidade ainda não nos permite estipular novas perspectivas
para a ciência da cognição se não formularmos uma teoria que explique como e porquê
apesar das representações ocorrerem no mundo e num sujeito encarnado este gerou uma
aparência de exterioridade ou um distanciamento do mundo que o faz concebê-lo como
algo exterior. Trata-se de explicar como surgiu aquilo que M-Ponty chamou de um "recuo",
ou da "proximidade absoluta, que também se transforma, inexplicavelmente, em distância
irremediável" que nos afasta da condição de encenadores de nossas próprias percepções e
representações. Trata-se de encontrarmos uma explicação para este distanciamento, na
qualidade de fenômeno cognitivo, ou, em outras palavras, de explicar como e porquê a
teoria clássica da representação encontra-se profundamente entremeada e constitui
elemento constitutivo de nosso senso comum. Só assim a ciência cognitiva poderá avançar
para além da teoria clássica da representação sem, entretanto escorregar em direção às
explicações culturalistas que inevitavelmente desembocam num relativismo indesejável.
A fenomenologia do senso comum pode começar pela análise de nossa fé perceptiva
ou pela percepção em estado bruto. Estas sem dúvida constituem o material que compõe o
senso comum, mas a genealogia da própria noção de objeto exterior bem como a separação
entre o externo e o interno que compõem os pressupostos da teoria clássica da
29
representação forçam-nos a formular uma questão que antecede as teorias da percepção:
como pode o senso comum distinguir dentre suas próprias mudanças perceptivas aquelas
que não decorrem ou que variam independentemente de seus estados internos? Não será o
reconhecimento destas variações independentes que permite ao senso comum identificar a
existência de itens logicamente independentes de seus estados internos, ou, em outras
palavras, o reconhecimento de uma realidade extra-mental possivelmente composta de
objetos materiais que seriam responsáveis por estas variações independentes? A
formulação destas questões - que ocorrem nas discussões visando superar o solipsismo -
levam-nos de volta, por um momento, para o paradigma das teorias clássicas da
representação, mas é nesta volta que encontraremos a explicação para o fato de como este
se instalou no senso comum e na nossa percepção habitual e gerou a aparência de
exterioridade do mundo no qual habitamos.
A proposta que esboçaremos daqui por diante é que a autolocomoção constitui o
fator que permite aos organismos esboçar uma idéia preliminar de objeto. Mas se a
autolocomoção é o fator extra-mental que liga nossas representações aos seus referentes no
mundo, ela é, igualmente, o fator que gera o distanciamento do mundo que faz com que o
senso comum separe representação de objeto, inserindo-nos no universo das teorias
clássicas da representação. É através da autolocomoção - de mover-se em volta de objetos -
que o organismo pode formar uma distinção entre o interno e o externo e permite o
reconhecimento dos conteúdos mentais que captam uma realidade extra-mental. A
autolocomoção é responsável pela própria formação da noção de um mundo exterior - ou de
um mundo que parece exterior, na medida em que tendemos a dele excluir nossas próprias
representações dos objetos.
Como a autolocomoção pode levar a formação de uma noção primitiva de objeto a
partir da variação dos estados internos que compõem a fé perceptiva do senso comum? A
fé perceptiva fornece-nos uma variedade de episódios de pensamento, e o papel da
autolocomoção é permitir que, em alguns casos, o organismo possa reconhecer nesta
diversidade um mesmo objeto sob diferentes modos de apresentação. Podemos imaginar
uma situação hipotética na qual um organismo se move em torno de um objeto, e, através
de seu aparato perceptual registra seus diferentes modos de apresentação. Como
poderíamos esperar que esses diferentes modos de apresentação formem uma unidade e
dêem lugar a uma primeira representação de um objeto?
A unificação dos modos de apresentação e a formação da noção primitiva de um
objeto requerem a inspeção prévia, por parte do organismo, das diversas perspectivas que
compõem o registro perceptual do objeto. É só através da inspeção que se pode estabelecer
uma compatibilidade entre os modos de apresentação cuja união forma um objeto. Esta
30
compatibilização ou conjunção de diferentes modos de apresentação não poderia ser
efetuada através de um processo de inferência: que a um determinado modo de
apresentação deva se suceder outro não é algo que possa ser estabelecido analiticamente a
partir das propriedades e características de um primeiro modo de apresentação que satura o
episódio visual.
Esta tentativa sumária de estabelecer uma fenomenologia do senso comum com
base na autolocomoção e na fé perceptiva permite-nos estabelecer, ainda que de maneira
precária, uma explicação para a aparência de exterioridade do mundo no qual vivemos ou
uma razão de ser para o corte habitual que operamos entre mundo e representação do
mundo como se esta fosse alheio a este. Nesta perspectiva, aquilo que M.-Ponty chama de
"distância irremediável" quase deixa de ser uma metáfora: a autolocomoção estabelece esta
distância não só na medida em que o corpo que a efetua situa a representação no mundo,
mas também na medida em que a autolocomoção, ao permitir que o organismo se mova em
torno de um objeto, possibilita o registro de seus diferentes modos de apresentação e a
distinção entre a representação de uma mudança da mudança das representações, o que o
remete a uma ordem extra-mental, supostamente material. A formação da idéia de um
mundo aparentemente exterior pode assim ser explicado como fenômeno cognitivo, na
medida em que esta fenomenologia do senso comum puder ser desenvolvida e
aperfeiçoada, o que virá permitir que a própria noção de representação seja tratada como
um objeto da ciência cognitiva, seja ela no sentido clássico - que se ancoraria nas
características de nosso senso comum - seja num sentido contemporâneo, como
representação que ocorre no mundo.
4 - A Ciência Cognitiva para além da representação. - Se a autolocomoção explica como
nosso corpo pode gerar, ao nível de uma fenomenologia do senso comum, uma idéia de
mundo exterior ou com aparência de exterioridade e se apresenta como condição necessária
para a formação de uma idéia preliminar de objeto, ela não pode, por si só, explicar como e
porquê mesmo que passemos a falar de representações no mundo estas se apresentam como
radicalmente distantes e distintas dos objetos. Mesmo que a representação ocorra no
mundo, esta não pode ser um objeto - e isto nos força a esboçar uma explicação da natureza
das representações que não nos obrigue a tornar a considerá-las as entidades diáfanas e
voláteis que serviram de base para a teoria clássica. Em outras palavras, é preciso encontrar
uma explicação não apenas para a formação da idéia de objeto por parte do organismo, mas
como este pôde desenvolver uma idéia de objeto para-si. Se quisermos uma explicação
para este fenômeno qua fenômeno cognitivo, temos de introduzir componentes adicionais
na noção de autolocomoção. Temos de considerar a autolocomoção como fenômeno
31
biológico, como estratégia desenvolvida por alguns organismos para satisfazer suas
necessidades biológicas básicas. Um mundo objetivo mas representado como um mundo
para o organismo surge na medida em que a autolocomoção se desenvolve visando à
satisfação de necessidades biológicas básicas. Estas operam um recorte seletivo no mundo
que é percebido ou representado dando origem a um mundo para-si ou o início daquilo que
normalmente chamamos de subjetividade.
Um exemplo paradigmático que ilustra como a ciência cognitiva pode estudar as
representações na qualidade de objeto sem, entretanto abandonar sua condição de constituir
um mundo para si ou para o organismo é o estudo da estrutura ótica das rãs. Os estudos de
Lettvin e Maturana, realizados no MIT no final da década de 50, mostraram que o aparelho
ótico destes pequenos animais funciona como uma espécie de filtro dos dados que eles
recebem de seu meio ambiente: as rãs só podem perceber pequenos objetos em movimento
ou grandes vultos. Estes dois tipos de conteúdos perceptuais correspondem,
respectivamente, a alimento (pequenos insetos voadores) e as ameaças ambientais
(predadores) que são discriminados pela rã. Quando a rã percebe um pequeno objeto em
movimento ela lança sua língua para fora e salta em sua direção. Estes estudos mostraram,
ademais, que a própria morfologia do aparelho ótico da rã opera a seleção dos dados que
chegam - uma seleção que formará um mundo para esses animais em função da satisfação
de suas necessidades básicas (alimentares) e que será responsável pela formação de um
padrão de comportamento dirigido para a sobrevivência. O aparecimento do significado
está assim ligado a formação do mundo para si ou de um mundo nocional (Umwelt) que
opera uma ligação originária entre organismo e meio ambiente.
O significado ou a representação estão no mundo e são parte da natureza e é neste
sentido que eles podem ser objeto de uma ciência cognitiva que abandone os pressupostos
da teoria clássica da representação. A representação enquanto significado surge do contato
do organismo com seu meio ambiente - um meio ambiente que é modificado e se
transforma no Umwelt dos diferentes organismos. Neste sentido uma ciência cognitiva que
queira romper com a visão clássica da representação terá de estudar não apenas o sistema
representacional dos diferentes organismos como também o meio ambiente onde as
representações se desenvolvem e que as condiciona. A intencionalidade, a representação e a
vida mental não podem ser estudadas como fenômenos regionais, restrito aos cérebros ou as
mentes dos organismos. A vida mental abrange contextos onde estão não apenas cérebros
inteligentes, mas corpos que se tornam inteligentes devido a sua atuação num meio
ambiente. O desenvolvimento deste estudo leva-nos em direção não apenas de uma teoria
biológica mas ecológica do significado, da representação e da vida mental.
32
5 - Vida artificial e a nova robótica - Este novo projeto científico para a ciência cognitiva
não implica, entretanto, que esta deva se limitar a ser um ramo da Biologia. A possibilidade
de simulação de necessidades biológicas, iniciada através do estudo de dispositivos
cibernéticos abre um leque de possibilidades de intercâmbio entre a Biologia e a ciência da
computação. Os primeiros dispositivos cibernéticos que produzem equivalentes mecânicos
de necessidades biológicas surgiram na década de 50 com a famosa "tartaruga de Grey
Walter". Mais recentemente, o projeto da chamada vida artificial liderado por
pesquisadores como Christopher Langton, Doyne Farmer e Thomas Ray, levou ao
desenvolvimento de programas de computador com a finalidade de simular processos vitais
e o modo como "organismos artificiais" podem dar conta de suas necessidades biológicas
básicas em ambientes computacionais que se modificam. Alguns destes programas como o
"Game of Life" e o "Microants" já se tornaram populares o suficiente para serem rodados
em computadores domésticos do tipo IBM-PC.
Progressos mais recentes ocorreram com o desenvolvimento dos robôs móveis ou
Criatures desenvolvidos por Rodney Brooks no MIT. A chamada "arquitetura de
subsunção" dos robôs móveis de Brooks constitui uma ruptura com a IA simbólica e
pressupõe uma concepção de inteligência descentralizada em relação ao "cérebro" da
máquina, onde o movimento (autolocomoção) desempenha um papel fundamental na
geração de comportamentos complexos e emergentes. A noção tradicional de representação
interna entendida como um mapa completo do ambiente no qual o robô se move é
substituída pela interação direta da Criature ou agente autônomo com o mundo. O meio
ambiente é tomado como o próprio modelo a partir do qual o comportamento inteligente do
robô móvel pode ser gerado - um comportamento inteligente que é determinado pela
própria dinâmica interativa dos Criatures com os objetos físicos que os rodeiam. Estes
robôs estão situados ou imersos diretamente no meio ambiente através de sua corporeidade
que os permite experienciar o mundo diretamente. Suas ações têm um feedback imediato
sobre seus registros que determinam, por sua vez, novas ações, sem que estas tenham sido
pré-programadas.
As pesquisas desenvolvidas pela equipe de Brooks no MIT e sua possível conjunção
com o projeto de vida artificial permitirão conceber robôs cuja autolocomoção será
orientada embora não seja pré-programada. Certamente novas perspectivas surgirão para a
ciência cognitiva e para as concepções de comportamento inteligente e representação -
novas perspectivas cujo significado e alcance filosófico precisarão ser explorados.
33
Bibliografia e Referências
Brooks, R. (1991a) - “Intelligence without Representation” - Artificial Intelligence
47: 139-159.
Brooks, R. (1991b) - “New Approaches to Robotics” - Science 253: 1227-1232.
Brooks, R. (1991c) - “Intelligence without Reason” - MIT Memo n. 1293.
Clark, A. (1989) - Microcognition: Philosophy, Cognitive Science and Parallel
Distributed Processing , MA:MIT Press/Bradford Books.
Lettvin J. & Maturana,A. (1959) - “What the Frog´s Eye Tells the Frog´s Brain”
Proceedings of the Institute of Radio Engineers 1940-1951.
Levy, S. (1992) - Artificial Life - New York: Random House.
M-Ponty, M.(1964)- Le Visible et l´Invisible - Paris: Gallimard
Tradução Brasileira: J.A. Giannotti e A. M. M. D´Oliveira
1984: Editora Perspectiva.
Sartre, J-P (1947) - “Une Idée Fondamentale de la Phénomenologie de Husserl:
L ´Intentionalité” - Situations I Paris: Gallimard - 31-35.
Searle, J. (1980) - “Minds, Brains and Programs” - Behavioural and Brain
Sciences 3: 417-424.
Wittgenstein, L. (1963) - Tractatus Logico-Philosophicus (1a. edição alemã em
Annalen der Naturphilosophie, 1921). tradução D.F. Pears
e B.F. McGuiness, London: Routledge & Kegan Paul.
34
O FUTURO DA CIÊNCIA COGNITIVA
O que restou da ciência cognitiva após o fim dos anos de ouro da inteligência artificial? Será que com isso seu principal fundamento teórico, o funcionalismo, deve ser abandonado? Ainda há muito a ser feito e em vários campos, como a robótica de Brooks e a neurociência cognitiva, que abrem novos horizontes paradigmáticos para o estudo das relações entre mente e cérebro.
Quem olhar para o desenvolvimento da ciência cognitiva nas últimas décadas verá
um estranho cenário. Em pouco mais de 40 anos de existência oficial, a ciência cognitiva
apresenta uma enorme dispersão teórica. Embora sempre enfatizando seu projeto
interdisciplinar, esta nova ciência sempre foi marcada por uma oscilação entre o estudo do
cérebro por oposição ao estudo da mente. Uma oscilação que teve como o resultado o
predomínio de uma disciplina ou de uma perspectiva específica na maneira como concebeu
sua investigação e sua proposta de interdisciplinaridade.
Nas primeiras décadas de sua história, a ciência cognitiva apostou na analogia entre
mentes e computadores, entre pensamento e símbolos. A mente seria o software do cérebro
e a aposta na possibilidade de simulá-la através de programas computacionais fez com que
a ciência da computação ocupasse um lugar privilegiado neste cenário inicial. Para replicar
a inteligência e a cognição não seria necessário replicar o cérebro; bastaria que
replicássemos suas características funcionais, ou seja, o que este pode fazer. Nascia o
projeto de uma inteligência artificial (IA) a partir da idéia de que tarefas inteligentes
poderiam ser realizadas por dispositivos que não teriam a mesma arquitetura nem a mesma
composição biológica e físico-química do cérebro humano.
O funcionalismo foi a doutrina filosófica que forneceu o ideário da inteligência
artificial ou da chamada “IA simbólica”, que predominou nas décadas de 60 e 70. De
acordo com a visão funcionalista, estados mentais são definidos pelo seu papel funcional
em um sistema que pode simular a inteligência e a cognição independentemente do tipo de
substrato físico do qual eles poderiam resultar. Um mesmo papel funcional que caracteriza
um determinado estado mental poderia instanciar-se em criaturas com sistemas nervosos
35
completamente diferentes. Um marciano poderia ter um sistema nervoso completamente
diferente do meu, mas se seu sistema nervoso pudesse executar as mesmas funções que o
meu, este marciano teria uma vida mental igual à minha. Esta é a chamada tese da múltipla
realizabilidade1: no limite, um gato e uma ratoeira seriam basicamente (ou funcionalmente)
a mesma coisa….
A ênfase no caráter simbólico da cognição começa a ser questionada a partir de
meados dos anos 80. Esperava-se muito mais da IA simbólica do que ela poderia dar. O
fracasso de alguns de seus projetos mais importantes levou ao aparecimento do
conexionismo. O conexionismo surgiu a partir da proposta de modelar o cérebro – através
da construção de redes neurais artificiais – para simular a inteligência e a cognição. O
conexionismo teve uma rápida ascensão, embora esta não tenha levado a um abandono
completo da IA simbólica.
Embora o conexionismo tenha representado um retorno à busca de um substrato
biológico e cerebral da cognição, seu projeto rapidamente encontrou limitações teóricas.
Tentava-se construir imitações ou modelos do cérebro e apostava-se no pressuposto
materialista de que a imitação do cérebro seria a chave para reproduzir aspectos
fundamentais da inteligência e da cognição. Mas estas imitações nunca conseguiram
prescindir de alguma idéia de representação, o que fez com que os conexionistas não
tivessem a ousadia de romper com a proposta funcionalista – e talvez este seja o motivo
pelo qual seu movimento tenha ficado, até hoje, filosoficamente órfão.
A insatisfação com estas duas abordagens – a IA simbólica e o conexionismo –
parece ter sido a motivação para a proposta de uma terceira: a nova robótica ou “nouvelle
artificial intelligence”. Nascida no MIT, no final dos anos 80, este novo projeto parte da
idéia de que a tarefa da ciência cognitiva seria a construção de robôs móveis, que deveriam
agir num meio ambiente real. A tarefa do cientista cognitivo seria a modelagem do
comportamento inteligente e não da atividade mental; assim sendo, representações mentais
seriam prescindíveis. A nova robótica apostou na idéia de que a psicologia poderia ser um
ramo da engenharia, na medida em que esta proporcionaria os elementos para a construção
de robôs inteligentes. Seu principal projeto atual, o COG, consiste na construção de um
robô humanóide completo que deverá simular não apenas os pensamentos, mas os
1 Este termo é a tradução precária de “multiple realizability”.
36
sentimentos humanos. Contudo, a grande dificuldade da nova robótica continua sendo a
possibilidade de simular atividades cognitivas humanas que não poderiam prescindir de
algum tipo de representação simbólica, como é o caso, por exemplo, da linguagem.
A nova robótica convive com um outro grande movimento surgido no final dos anos
80 e recentemente institucionalizado: a neurociência cognitiva. Esta resultou do
investimento massivo de recursos na pesquisa neurocientífica durante a chamada “década
do cérebro”. Tais recursos levaram ao desenvolvimento de técnicas sofisticadas de
mapeamento cerebral através de neuroimagem, como é o caso, por exemplo, do PET, do
MRI e do fMRI.2 Os pioneiros da neurociência cognitiva, como M. Gazzaniga (1995,1998,
Gazzaniga et alia 1998) e S. Kosslyn (1995) rejeitam a inteligência artificial simbólica e o
funcionalismo, enfatizando o papel do cérebro no estudo da cognição. A mente não seria
um “software” de computador, mas um “wetware”3 biológico. A “filosofia espontânea” dos
neurocientistas cognitivos é o materialismo eliminativo, ou a idéia de que a psicologia
desaparecerá a medida em que o mapeamento cerebral avançar, ou seja, que num futuro
breve, todos os fenômenos mentais poderão ser considerados apenas manifestações da
atividade cerebral. A psicologia desaparecerá, da mesma maneira que a alquimia
desapareceu após a consolidação da química.
Tanto a nova robótica como a neurociência cognitiva tem trazido grande inquietação
ao cenário já conturbado da ciência cognitiva. Um dos maiores motivos para tal inquietação
tem sido o temor de que a própria idéia de mente se dissolveria ou seria pura e
simplesmente reduzida à atividade cerebral, ou à produção de comportamento inteligente a
partir de algum tipo de mecanismo.
Uma expressão típica deste tipo de inquietação é o livro de M. Gazzaniga, The
Mind’s Past, publicado em 1998. Neste livro o autor vaticina o fim do próprio conceito de
mente e de self bem como a progressiva substituição da psicologia pela neurociência.
Gazzaniga enfatiza que é o cérebro que controla a mente e não vice-versa, e se temos a idéia
contrária, esta é apenas uma ilusão produzida pelos nossos próprios mecanismos cerebrais.
O estudo da mente (que se tornará o estudo do cérebro) ficará a cargo da neurociência, e à
psicologia restará apenas algo parecido com algum tipo de assistência social.
2 Para uma exposição didática da natureza destas técnicas ver, por exemplo, Greenfield (1997).3 “Wetware” é um neologismo que designa a matéria biológica (“molhada”) de que é composto o cérebro.
37
Gazzaniga não é o único neurocientista contemporâneo que acredita na substituição
ou eliminação progressiva de termos e conceitos psicológicos pelo avanço progressivo do
estudo do cérebro. A mesma tendência encontramos nos trabalhos de outros pesquisadores
contemporâneos não menos influentes, como, por exemplo, S. Grossberg (1988) e W.
Freeman (1995, Freeman et alia, 1999), para citar apenas alguns. Em todos estes trabalhos
encontramos uma oscilação ora em direção ao materialismo eliminativo ora em direção a
algum tipo de psicoparalelismo cuja natureza ainda não foi inteiramente esclarecida.
II
Poderá algum dia a ciência cognitiva superar este estágio de dispersão pré-
paradigmática? Nossas tentativas de compreender o funcionamento do cérebro e de
relacioná-lo com a produção de nossa vida mental são ainda incipientes e a inteligência
artificial, a ciência cognitiva e a neurociência cognitiva ainda estão em sua infância.
Estamos a anos-luz de distância de replicar a inteligência, seja em computadores, seja em
robôs. Os problemas a serem enfrentados ainda são gigantescos e, em sua grande maioria,
mais conceituais do que propriamente técnicos. Por outro lado, o aparecimento da
neurociência cognitiva sinaliza a possibilidade de se conseguir uma integração progressiva
entre abordagens aparentemente tão diferentes como as da neurociência, do
comportamentalismo e do cognitivismo.
A neurociência cognitiva começa a estabelecer ligações entre várias peças deste
quebra-cabeça, relacionando, por exemplo, comportamento com atividade cerebral, ou seja,
espera-se, daqui para frente, poder encontrar os correlatos neurais de vários tipos de
comportamentos. O estudo do cérebro e o reconhecimento cada vez maior da importância
de suas funções a nível bioquímico e molecular (nível microscópico) bem como a relação
destas com sua arquitetura específica (nível macroscópico) abrirá, cada vez mais, novos
horizontes para compreendermos a natureza da cognição. Esta tarefa, porém, não pode ser
executada sem a construção de simulações computacionais das diversas atividades
cerebrais. A tarefa de construção destes modelos possíveis de funcionamento mental pode
ser dividida em duas etapas, ilustrando como a neurociência pode se integrar com a ciência
cognitiva.
38
A primeira etapa - que pode ser qualificada de “engenharia reversa” - consiste em
identificar os correlatos neurais dos comportamentos e das atividades cognitivas e formular
algumas hipóteses possíveis acerca de seu funcionamento da mesma maneira que
procuramos entender o funcionamento de um aparelho eletro-eletrônico desmontando-o
para ver como cada uma de suas partes se integra. A segunda etapa consiste em testar estas
hipóteses, construindo simulações computacionais destas funções o que nos permitiria
verificar a validade de tais hipóteses. Para isto, o neurocientista precisa contar com o
cientista cognitivo, pois a maioria destas simulações se baseará na construção de algum tipo
de rede neural. A construção de uma rede neural deve se basear nas propriedades
bioquímicas e moleculares que identificamos na atividade cerebral (nível microscópico)
que seriam incorporadas ao “design” dos neurônios artificiais que integram essa rede. Os
neurônios artificiais simularão os resultados da atividade eletroquímica do cérebro sem que
para isto seja necessário replicar exatamente a composição biológica e físico-química dos
elementos que estão no cérebro. Este é o primeiro passo para relacionar o nível
microscópico com o nível macroscópico. O segundo passo consiste em construir a rede
propriamente dita, ou seja, estipular quantidades de neurônios e os padrões de
conectividade entre estes.
Este segundo passo é particularmente importante na medida em que o
comportamento da rede permitir-nos-á verificar que tipo de papel e que tipo de importância
deve ser atribuída à interação entre seus componentes. A conectividade estabelecida entre
estes neurônios artificiais será um simulacro simplificado da neurofisiologia inerente à
região do cérebro que estamos estudando. Se o funcionamento da rede depender, além
disto, de interação com outras redes situadas em outros lugares do cérebro, ou seja, de
algum tipo de propriedade topológica (isto é, dependente de localização espacial e das
relações que se estabelecem em função desta) que se estabeleceria entre neurônios de redes
diferentes, teremos dado um passo também em direção a simular e esclarecer, a partir do
funcionamento destas redes, que tipo de importância deve ser atribuída às propriedades
neuroanatômicas do cérebro.
Deve-se assinalar que a construção destas redes exige sua implementação em
computadores digitais, ou seja, é preciso que seu comportamento seja descrito na forma de
algum tipo de algoritmo que assumirá a forma de um programa computacional. Este seria o
39
terceiro passo que precisamos dar – o passo que permite o teste das hipóteses iniciais do
neurocientista empenhado em relacionar cérebro e cognição a partir de sua estratégia de
“engenharia reversa”. Com isto chegamos a uma abordagem da cognição que integra
diferentes tipos de perspectivas e paradigmas: o cerebral, o neurocomputacional (redes
neurais) e o simbólico. Relacionar cérebros com computadores – a idéia inicial de onde se
originou a ciência cognitiva nos anos 40 – continua sendo uma tarefa necessária e
importante na medida em que precisamos de modelos matemáticos para descrever o
funcionamento cerebral.
Contudo, há ainda um quarto passo que precisa ser dado. A cognição não pode ser
descrita como um fenômeno intrínseco ao cérebro, embora ela ocorra nele. A cognição
pressupõe uma relação do cérebro com o meio ambiente, uma relação que ocorre na medida
em que o organismo atua num meio ambiente. Este quarto passo exige então que o teste de
nossas hipóteses seja ampliado, ou seja, que se verifique que tipo de desempenho nossos
modelos poderiam ter no mundo real e não apenas numa tela de computador. Precisamos,
então, da contribuição de mais uma disciplina: a robótica. Conforme assinalamos, a nova
robótica visa a construção de agentes autônomos ou robôs móveis que realizem um
conjunto de tarefas num ambiente real (um ambiente que não tenha sido previamente
adaptado para isto). A construção destes robôs obedece a um princípio de pré-programação
mínima e supõe-se que sua interação com o meio ambiente, através de mecanismos de
percepção e locomoção vá, progressivamente, gerando uma gama mais ampla de
comportamentos inteligentes. A aposta da nova robótica é que comportamentos inteligentes
e formas mais sofisticadas de cognição possam vir a surgir desta interação com o meio
ambiente. Esta ênfase na possibilidade de aprendizado em detrimento de uma pré-
programação faz com que a construção destes agentes autônomos possa ser vista como um
autêntico teste do peso que se deve atribuir a fatores ambientais na determinação da
cognição.
A nova robótica é uma engenharia reversa que adota uma metodologia do tipo
bottom-up (de baixo para cima). Em vez de desmontar um aparelho eletrônico para tentar
saber como ele foi construído e como ele funciona, aposta-se na possibilidade de que,
juntando várias peças algum dia possamos ter algo parecido com esse aparelho eletrônico.
Ou que algumas peças fundamentais possam, por si próprias, se auto-reproduzir e formar
40
peças mais complexas à medida que esta interação com o meio ambiente desempenhasse o
papel de algum tipo de pressão evolucionária.
A neurociência sem a ciência cognitiva e seus modelos computacionais equivaleria
a tentar entender o princípio de funcionamento de um motor a combustão estudando as
moléculas que compõem seus cilindros e pistões. A nova robótica, sem a neurociência,
equivaleria a apostar na possibilidade de que se um bando de macacos começassem a
digitar letras num teclado de computador algum deles poderia, algum dia, por um acaso
feliz, re-escrever o Hamlet de W. Shakespeare. Estas abordagens, se não forem vistas como
complementares, tendem a se tornar inócuas.
Para se chegar a esta complementaridade seria, entretanto, necessário superar várias
dificuldades. Abordagens como a inteligência artificial simbólica e a nova robótica são
vistas como mutuamente excludentes na medida em que a primeira baseia-se nos aspectos
simbólicos e representacionais envolvidos na cognição e a segunda, ao rejeitar a pré-
programação estaria caminhando na direção inversa. Esta certamente deve ser uma
dificuldade de ordem conceitual, derivada da multiplicidade de sentidos que podemos
atribuir ao conceito de representação – um assunto particularmente longo que não
poderemos abordar aqui.
Uma outra dificuldade, freqüentemente levantada pelos neurocientistas, consiste em
afirmar que haveria diferenças fundamentais entre o “hardware” de um computador e o
“wetware” do cérebro, enfatizando que este seria, em última análise, uma máquina
eletroquímica que não poderia ser adequadamente simulada por um computador. O cérebro
teria propriedades biológicas específicas, como, por exemplo, a plasticidade, proporcionada
pela comunicação química de seus elementos. Esta propriedade não poderia ser simulada
por um computador, na medida em que ainda não dispomos de hardwares dotados de
plasticidade. A ênfase em propriedades específicas tem servido de plataforma para alguns
neurocientistas criticarem e tentarem descartar a proposta funcionalista.4 Este tipo de
objeção, contudo, desaparecerá se interpretarmos o funcionalismo de uma forma mais
ampla, ou seja, se nele acomodarmos não apenas simulações computacionais, mas
simulações de qualquer tipo. Uma máquina de diálise reproduz a função dos rins, embora
não reproduza propriedades específicas deste órgão.
4 Veja-se, por exemplo, Greenfield, 1997.
41
Na verdade não encontramos aqui um conflito real, a não ser que queiramos
sustentar o caráter único e irreprodutível do “wetware”. Não haveria razão para isto, mesmo
que no momento não disponhamos ainda de uma tecnologia de construção de hardwares de
computador que nos permita a reprodução de qualquer tipo de propriedade biológica. A
múltipla realizabilidade continua, em princípio, possível. O cientista cognitivo, porém,
pode obter um ganho a partir desta objeção: ele pode restringir a classe de hardwares que
seriam compatíveis com a produção (ou reprodução) da vida mental. Ou seja, restringe-se a
excessiva generalidade de hardwares possíveis que constitui uma objeção poderosa e
freqüente que se faz ao funcionalismo.
Esta é uma das conseqüências mais frutíferas que pode surgir da junção entre
neurociência cognitiva e ciência cognitiva. A engenharia reversa, partindo da observação de
comportamentos e fenômenos cognitivos, pode desenvolver hipóteses acerca das
características necessárias que o “wetware” deve ter para que certas atividades mentais
possam ocorrer. O “design” de “hardwares” que simulem estas atividades mentais terá de
incorporar estas características que se tornarão características funcionais na medida em que
este hardware seja construído com um material diferente do que compõe o “wetware”
cerebral. Ao envolver-se neste tipo de inferência, a neurociência cognitiva reencontra uma
disciplina que parece ter ficado no limbo nos últimos anos: a neuropsicologia.
Como poderia ocorrer este tipo de inferência, da observação de um fenômeno
cognitivo em direção a características do “wetware”? Tomemos um exemplo. Em 1956 o
psicólogo G. Miller constatou que nossa capacidade de lembrar itens arbitrariamente
selecionados obedece a uma constante em torno de sete elementos. Tudo se passaria como
se tivéssemos na nossa cabeça algum tipo de “mecanismo psicológico” que nos impediria
de relembrar mais de sete itens arbitrariamente selecionados, sejam estes números ou
sílabas que não formem nenhum tipo de seqüência específica.
Este exemplo, derivado do célebre artigo de Miller ilustra o tipo de inferência a que
nos referimos. O autor foi suficientemente cuidadoso ao afirmar que este tipo de limitação
de nossa memória seria uma limitação funcional e não necessariamente uma característica
física de nosso wetware. Ou seja, ele nos afasta da perspectiva ingênua que nos levaria a
tentar encontrar no cérebro algo parecido com um “mecanismo que tem sete casas”
deixando aberta a possibilidade de sua simulação através de dispositivos que não
42
precisariam ser construídos utilizando-se exatamente dos mesmos materiais que estão no
nosso wetware.
A interpretação do funcionalismo como implicando a tese da múltipla
realizabilidade irrestrita (como defendem os defensores do modelo simbólico da mente)
parece estar na origem de uma falsa divisão de águas entre neurociência e ciência cognitiva
que ocorre neste fim de década. De um lado a neurociência estaria fazendo uma aliança
com concepções biológicas do funcionamento mental como se o wetware cerebral - um
acidente evolucionário único e glorioso – não pudesse ser simulado nem tampouco
replicado. Por outro lado, a ciência cognitiva, por sua aliança com a ciência da computação
parece ter caminhado numa direção oposta, buscando a construção de modelos da cognição
dotados da maior generalidade possível – uma generalidade derivada da origem matemática
da própria ciência da computação.
A ambição de utilizar modelos computacionais de forma irrestrita para modelar a
cognição, quase sempre ignorando qualquer discussão acerca da possibilidade de sua
implementação em dispositivos que pudessem efetivamente ser construídos levou a uma
falsa convergência entre ciência cognitiva e ciência da computação. Os projetos e os
interesses destas duas disciplinas são separáveis, a despeito da ciência cognitiva ter se
apropriado de vários conceitos oriundos da ciência da computação. A metáfora
computacional deixou de ser uma metáfora e sujeitos cognitivos passaram a ser tratados
como máquinas idealizadas. Grandes e estéreis debates foram travados entre os filósofos da
mente na década de 70 e 80 por conta desta falsa convergência; controvérsias quase sempre
pueris onde se discutia se máquinas podem ou não pensar, sem se ter sequer uma concepção
consensual acerca do que seria o pensamento. Alguns filósofos tentaram traçar linhas
divisórias entre mentes e máquinas pressupondo que qualquer ser humano seria em
princípio um lógico profissional, capaz de demonstrar teoremas complexos como, por
exemplo, o teorema de Gödel.
Estes debates foram também, em grande parte, alimentados por confusões
lingüísticas resultantes do abuso da metáfora computacional, que levou a uma transposição
não só de termos como também de conceitos que passaram a ser empregados
indistintamente para designar funções realizadas por mentes e por computadores digitais.
43
“Pensar” é uma delas, “memória” é outra; computadores digitais não têm uma memória e
sim um registro embora a memória humana seja também algum tipo de registro.
O conexionismo foi uma tentativa de reação à ausência de qualquer similaridade
biológica entre modelos computacionais e cérebros. Contudo, por não prescindir da idéia de
algoritmo, a descrição das atividades mentais como sendo atividades de um cérebro
descrito matematicamente fez com que a proposta conexionista não significasse uma
ruptura forte com a falsa convergência que se pressupôs existir entre ciência cognitiva e
ciência da computação. A múltipla realizabilidade irrestrita é pressuposta pelos
conexionistas, sobretudo quando estes implementam seus modelos usando computadores
digitais. Ou seja, o conexionismo ainda reconhece a existência de leis lógicas que
governam a cognição que seriam totalmente independentes do mecanismo físico que as
implementa. Estas leis lógicas são usadas para descrever o funcionamento de um cérebro
simplificado e não de uma mente como faz a inteligência artificial simbólica. Neste sentido,
o conexionismo é apenas uma ruptura parcial com a falsa convergência entre ciência
cognitiva e ciência da computação.
Esta falsa convergência deixou uma herança de dispersão entre as várias abordagens
da mente e da cognição, levando a um afastamento progressivo entre neurociência e ciência
cognitiva. Superar esta dispersão é uma das tarefas necessárias para o desenvolvimento de
uma ciência da mente no século XXI. Esta tarefa, porém, só será realizada se este
reencontro ocorrer da mesma maneira que um grupo de pessoas que repentinamente se
encontra numa praça, no mesmo dia e na mesma hora, sem ter combinado previamente
nenhum compromisso nem atendido a qualquer tipo de anúncio.
III
Mas significará este encontro – se um dia ele porventura ocorrer - que a ciência da
mente do século XXI poderá resolver todas as questões que nós queremos que ela resolva,
superando, assim a infância perpétua que viveu até agora?
É bem provável que a integração entre neurociência e ciência cognitiva torne mais
tênue o hiato que hoje existe entre mente e cérebro. Será então que mente e cérebro se
44
tornarão a mesma coisa e que o conceito de mente desaparecerá, à medida que formos
encontrando todos os correlatos neuronais de nossos fenômenos mentais?
É perfeitamente possível que venhamos a encontrar, cada vez mais, correlatos
neuronais de fenômenos mentais. E que aquilo que chamamos de pensamento possa vir a
ser identificado com um conjunto de reações eletroquímicas que ocorrem no nosso cérebro.
O problema que continuaremos enfrentando, entretanto, não é o da impossibilidade de
relacionar mente e cérebro, mas o tipo de conhecimento que emergirá desta correlação.
Paradoxalmente, o tipo de impossibilidade enfrentado pela neurociência, na sua tentativa de
relacionar mente com cérebro não é uma impossibilidade teórica e sim prática.
Ao tentar relacionar mente, cérebro e comportamento, defrontamo-nos com uma
extraordinária complexidade envolvida neste tipo de descrição. Uma complexidade que se
inicia ao nível molecular no cérebro, expandindo-se para vários outros níveis até chegarmos
ao que chamamos de “estados mentais” e, dando mais um passo, àquilo que chamamos de
comportamento. A passagem entre estes vários níveis envolve várias dificuldades teóricas e
empíricas. É questionável se algum dia poderemos chegar a algum tipo de descrição
completa de todos estes fenômenos que nos permita sustentar que mente e cérebro são um
único e mesmo sistema físico. A dificuldade que se enfrenta é ainda de ordem quantitativa.
O número de neurônios e o número de combinações possíveis entre eles é literalmente
astronômico, ou seja, equivale ao número de partículas físicas existentes no universo desde
o “big-bang”. Isto nos confinaria a algum tipo de descrição parcial do que ocorre no cérebro
em algum dado momento. A partir destas descrições parciais teríamos de construir
hipóteses explicativas, ou seja, expandí-las indutivamente.
É bem verdade que este tem sido o procedimento de toda atividade científica. Em
momento algum poderíamos obter uma descrição completa de um único objeto da natureza
mas, mesmo assim, podemos explicar vários aspectos do mundo físico selecionando aquilo
que seria relevante para as explicações desejadas. Não precisamos explicar o que ocorre ao
nível molecular de um objeto físico para explicar sua trajetória em termos das leis do
movimento. A única coisa de que precisamos é que estas leis gerais do movimento sejam
compatíveis com aquilo que ocorre ao nível molecular. Obviamente gostaríamos de poder
transpor este mesmo tipo de estratégia para elaborar uma ciência da mente. Ou seja, uma
45
ciência que se resumiria a um conjunto de leis gerais a partir das quais poderíamos
relacionar cérebro, mente e comportamento.
Ocorre que isto pode ser uma ilusão, uma falsa imagem da natureza que herdamos
da física clássica. Embora sejamos educados de acordo com esta imagem clássica e esta
persista como aquilo que consideramos como sendo o horizonte da “boa ciência” é possível
que esta esteja equivocada ou que seja apenas uma descrição parcial do mundo físico. A
física contemporânea nos sugere, contudo, que várias regiões da natureza estão povoadas
por instabilidades e incertezas, ou por aquilo que ela passou a descrever como “sistemas
dinâmicos”. Estas regiões podem ter um comportamento errático ou caótico, como é o caso,
por exemplo, do sistema atmosférico. O sistema atmosférico é um exemplo típico: têm
comportamentos estáveis, mas, em última análise imprevisíveis. Daí a meteorologia poder
fazer previsões razoavelmente confiáveis, mas nunca inteiramente certeiras. A
imprevisibilidade inerente ao sistema atmosférico não torna, porém, a meteorologia menos
científica. O que a meteorologia faz transparecer é que nem toda ciência nos descortina um
mundo determinístico e bem comportado como gostaríamos de ter à nossa volta, para o
nosso próprio conforto.
Ora, se a imprevisibilidade é sintoma da presença de um sistema caótico e se há
imprevisibilidade do comportamento humano (embora este tenha também alguns padrões
estáveis que podem ser detectados) não teríamos então boas razões para supor que cérebro e
mente seriam sistemas caóticos? E que as dificuldades a serem enfrentadas por uma ciência
da mente se assemelhariam àquelas enfrentadas pela meteorologia? Seria perfeitamente
plausível imaginar que a relação entre cérebro e meio ambiente poderia dar lugar ao
aparecimento de um sistema físico deste tipo. Neste caso, os meteorologistas e aqueles que
se propõem a fazer uma ciência da mente esbarrariam nos mesmos tipos de dificuldades,
oriundas da complexidade dos fenômenos que desejam explicar.
Ora, seria isto suficiente para afirmarmos que a ciência da mente poderia, então, vir
a ser um capítulo da física, mais especificamente, da teoria dos sistemas dinâmicos? E que
com isto poderíamos, então, nutrir esperanças de que o desenvolvimento da teoria dos
sistemas dinâmicos levaria, em última análise, à superação do problema da complexidade
envolvida na descrição do cérebro, da mente e do comportamento? Certamente a teoria de
sistemas dinâmicos poderá progredir e com isto obteremos aproximações melhores para
46
predições metereológicas e outras. Mas a imprevisibilidade inerente a esses sistemas não
parece ser superável pelo avanço do conhecimento. Talvez a grande lição que pode ser
extraída da teoria dos sistemas dinâmicos é que não existe um “demônio de Laplace”. O
demônio de Laplace é uma figura mística da física clássica, um ser que, por ter o
conhecimento de tudo o que ocorre no universo num determinado instante poderia saber
exatamente o que ocorreria no instante seguinte. O demônio de Laplace é a melhor
expressão figurativa dos anseios deterministas de que dispomos até hoje. A teoria dos
sistemas dinâmicos caminharia na direção inversa deste tipo de imagem produzida pela
física clássica.
A impossibilidade de superar a imprevisibilidade inerente ao cérebro como sistema
físico parece estar na origem da idéia daquilo que chamamos de “mente”. “Mente” é um
conceito que expressa imprevisibilidade e complexidade. Não atribuiríamos “mentes” a
seres cujos comportamentos fosse rígidos e inteiramente previsíveis – porque neste caso
não precisaríamos sequer do conceito de mente. Tendemos a não atribuir mentes a seres
que não fossem capazes de exibir algum tipo de comportamento surpreendente diante de
uma situação inesperada. O mais interessante é que sempre utilizamos o conceito de mente
muito antes de nos darmos conta da imprevisibilidade inerente ao cérebro e muito antes de
sabermos qualquer coisa acerca da teoria dos sistemas dinâmicos. O conceito de mente é
algo extremamente primitivo na história evolucionária do ser humano.
Mesmo que um dia o sonho de um conhecimento completo do cérebro e dos
correlatos neuronais de todos os fenômenos mentais se realize, ainda assim o conceito de
mente não desapareceria. Substituir a folk psychology ou o “senso comum da psicologia”5
pelo neurologuês equivaleria a usar mecânica quântica para nos referirmos a mesas e
cadeiras que estão a nossa volta. O aparecimento da mecânica quântica e a revisão de
nossos conceitos de matéria, espaço e tempo não produziu uma substituição de nossa
percepção comum do mundo. A imagem de mundo fornecida pela física clássica – que em
boa parte coincide com nossa percepção comum do mundo – não desapareceu e sim passou
simplesmente a conviver com o conhecimento fornecido pela física contemporânea. Este
não foi capaz de fornecer qualquer tipo de imagem de mundo que permitisse orientar nossas
5 A expressão “folk psychology” designa uma teoria espontânea das pessoas para entender, explicar e predizer seus comportamentos e estados mentais, bem como aqueles de outras pessoas. Para uma definição mais precisa, ver Guttenplan (1994).
47
ações cotidianas. Esta é, talvez, uma das principais razões pelas quais a imagem clássica de
mundo persiste, apesar dos avanços da ciência e das contradições que esta persistência tem
produzido.
A razão desta persistência, no caso da imagem clássica do mundo e, mutatis
mutandis, no caso da folk psychology, deve-se à extraordinária utilidade de ambas.
Intenções, crenças, desejos e outras entidades que compõem a folk psychology são
verdadeiros atalhos para superarmos a complexidade do cérebro e a imprevisibilidade do
comportamento de outras criaturas que povoam nosso meio ambiente. Estas entidades
funcionam como verdadeiros “algoritmos de compressão” · permitindo que estipulemos
alguns tipos de padrões para acomodar a alternância entre comportamentos estáveis e
imprevisibilidade que caracteriza as ações humanas.
Não parece ser possível prescindir destas entidades, nem tampouco do conceito de
mente que surge a partir de seu agrupamento. O mais provável é que essas entidades
tenham se consolidado ao longo do processo evolucionário, como parte de nossa estratégia
de sobrevivência num ambiente onde situações e outros organismos apresentam
comportamentos instáveis. Neste sentido, a folk psychology é muito mais robusta do que
poderíamos imaginar. Tentar superá-la ou eliminá-la - em vez de estudá-lo na qualidade de
fenômeno cognitivo - talvez tenha sido o grande equívoco das tentativas de se fazer uma
ciência da mente.
O estudo da folk psychology não deve significar que esta deva ser entendida como
sendo uma teoria completa e coerente – algo que se assemelharia, estruturalmente, a algum
tipo de teoria científica. O mais provável é que aquilo que chamamos de folk psychology e
que agrupamos sob o nome de “mente” abrigue várias contradições e desencontros, a
despeito de sua extraordinária robustez. É bem pouco provável que possamos um dia
organizar a folk psychology a ponto de tratá-la como formando algo parecido com uma
ciência. Encontrar os seus correlatos neurais é tarefa possível, embora hercúlea. A não ser
que se prove existir uma absoluta incompatibilidade entre descrição neuronal e folk
psychology esta continuará a conviver com a neurociência, a despeito de uma possível
redução à sua base neuronal através de algum tipo de mapeamento cerebral. Se a folk
psychology é a infância da ciência da mente, podemos então afirmar que uma parte desta
ciência viverá uma infância perpétua, até que algo mais poderoso possa ser encontrado.
48
Esta infância perpétua não quer dizer que a folk psychology não possa se modificar
ao longo do tempo, incorporando a seu vocabulário, elementos oriundos da neurociência.
Esta é, porém, uma evolução tão lenta quanto a própria evolução da nossa linguagem. Nada
parece evoluir mais lentamente do que nossa linguagem, que tem persistido ao longo das
gerações, com poucas modificações. A folk psychology e linguagem mantêm uma relação
quase inextricável, possivelmente pelo fato de esta última também funcionar como um
imenso algoritmo de compressão. A inclusão de termos psicanalíticos no nosso vocabulário
psicológico cotidiano é um bom exemplo deste tipo de evolução. A inclusão do
neurologuês, contudo, ainda parece ser um horizonte muito distante, senão praticamente
impossível.
O reconhecimento da infância perpétua de uma boa parte da ciência da mente e da
insuperabilidade do conceito de mente como conceito operacional não significa que a
pesquisa neurocientífica deva ser paralisada ou abandonada. Se mentes e cérebros são
sistemas dinâmicos, seu equilíbrio precário deve ser a chave para a explicação de vários
fenômenos que classificamos como “distúrbios mentais”. Nada desafia mais a integridade
da folk psychology e do conceito de mente do que a doença cerebral. Esta nos força a
reconhecer a dependência da folk psychology em relação a algum tipo de base física, mas,
ao mesmo tempo, força-nos a conceber a existência de algum tipo de passagem entre mente
e cérebro.
Ao tentar encontrar correlatos físicos dos significados a investigação do
neurocientista se assemelha àquela da família de um conto de Júlio Cortazar – a família que
desmonta, incessantemente, apartamentos e mais apartamentos a procura daquele fio de
cabelo com um nó. Se, de um lado, o aparecimento da folk psychology ao longo do
processo evolucionário foi uma vantagem adaptativa para nós, por outro lado ela parece nos
confinar a seus próprios horizontes. O aparecimento do conceito de mente, a partir da folk
psychology parece ter sido tão irreversível quanto o aparecimento da linguagem. Não
podemos nos referir a nada fora da nossa própria linguagem – isto seria uma contradição ou
uma impossibilidade.
Se a doença cerebral nos lembra da base física anterior a instauração da mente, os
qualia e a consciência nos puxam para uma direção inversa. A instauração da mente em
algum ponto do processo evolucionário vem acompanhada da idéia de que somos os
49
fabricantes de significados e não apenas seus portadores. Que os significados se
manifestam nas nossas mentes, mas talvez não sejam produzidos por elas. Tendemos a
extrapolar esta manobra, e, de um conceito operacional de mente saltamos quase que
inevitavelmente para as idéias de “sujeito” e de self. Sujeitos e self que gerariam
significados em vez de serem, simplesmente, atravessados por estes. O que chamamos de
significados são, possivelmente, astúcias da natureza, atratores que servem para inclinar
nossos comportamentos. A astúcia seria tão grande que suporíamos sempre ser os
manipuladores e não os manipulados. A idéia de consciência teria surgido para nos
convencer de que somos os manipuladores. A filosofia da mente contemporânea parece ter
se perdido neste emaranhado, atribuindo uma importância excessiva à idéia de consciência,
esquecendo-se de que esta é apenas uma pequena parte de nossa vida mental.
REFERÊNCIAS BIBLIOGRÁFICAS
Dennett, D. (1991/1998) Real Patterns – Journal of Philosophy, 88, (1), pp. 27-51,
republicado em Brainchildren, Cambridge, MA, The MIT Press, pp. 95-120.
Freeman, W.(1995) Societies of Brains: a Study in the Neuroscience of Love and Hate, San
Francisco, Lawrence Erlbaum Assoc.
Freeman, W. & Libet, B. & Sutherland, K.(1999) The Volitional Brain: towards a
Neuroscience of Free Will, Journal of Consciousness Studies, Supplementary Issue.
Gazzaniga, M. (1995) The Cognitive Neurosciences, Cambridge, MA.
Gazzaniga, M (1998) The Mind’s Past , Berkeley and Los Angeles, University of
California Press.
Gazzaniga, M. & Ivry, R. & Mangun, G. (1998)Cognitive Neuroscience: the Biology of the
Mind , New York, W.W. Norton & Company.
Greenfield, S.(1997) The Human Brain: a Guided Tour, New York, Basic Books.
Grossberg, S.(1988) The Adaptive Brain, New York, Elsevier Science.
Guttenplan, S.(1994) A Companion to the Philosophy of Mind, Oxford, Blackwell.
50
Kosslyn, S.M. & Koenig, O.(1995) Wet Mind: The New Cognitive Neuroscience, New
York, Free Press.
Miller, G.(1956) The Magical Number Seven, Plus or Minus Two, Psychological Review,
63, pp. 81-96.
51
ALGORITMICIDADE E INTUIÇÃO
O argumento de Lucas e Penrose, que esteve em voga no início dos anos 90 aterrorizava os pesquisadores da inteligência artificial. Afinal, haveria uma tarefa que não poderia ser mecanizada, qual seja, a de saber se ela poderia ou não ser executada por um computador.
Nos últimos anos a filosofia da mente e a inteligência artificial parecem ter chegado
a uma encruzilhada decisiva: haverá atividades mentais humanas que não possam ser
simuladas por sistemas artificiais? Até que ponto é sustentável uma analogia entre mente e
computador? São estas as questões que têm preocupado os estudiosos da filosofia da mente,
sobretudo aqueles que estão envolvidos com pesquisas na área de inteligência artificial.
Não se trata de procurar uma comparação entre mentes e máquinas simplesmente em
termos práticos. Sabemos que a inteligência artificial não frustrou aqueles que apostaram na
possibilidade de suas realizações e que estas se expandiram de maneira vertiginosa, dando
origem a programas computacionais sofisticados para realizar diagnósticos médicos,
executar cálculos matemáticos e de engenharia extraordinariamente complexos e até
mesmo para jogar xadrez.
Mas não é com aplicações e com resultados práticos que os filósofos da mente estão
preocupados. Suas preocupações são muito mais radicais e se expandem para além das
dificuldades tecnológicas que a inteligência artificial enfrenta ou poderá vir a enfrentar no
futuro. É preciso saber se há alguma diferenciação em princípio, intransponível, entre
mentes e máquinas. Se houver esse critério de diferenciação, se pudermos formulá-lo com
precisão, então estaríamos de volta a nossa confortável posição antropocêntrica que torna
nossa inteligência única e inigualável - pelo menos no nosso planeta. Mais do que isto: se
computadores são um tipo especial de arranjo material, uma combinação de elementos
materiais de silício ou de qualquer outro elemento da natureza, e se eles puderem realizar
tudo o que uma mente humana realiza, não haveria nenhuma razão para supor que mente e
matéria são diferentes. Poderíamos igualar mentes e máquinas, cérebros e mentes.
52
Estas últimas afirmações levam-nos de volta a questões clássicas da filosofia,
questões que têm atormentado os filósofos ao longo dos séculos e que têm tornado a
história do pensamento uma oscilação pendular entre materialismo e dualismo. Questões
que reaparecem a medida em que a filosofia da mente e a ciência cognitiva passam a
revivê-las e rediscutí-las, agora sob o pano de fundo das realizações da inteligência
artificial. Haveria alguma coisa que nossa mente pode fazer e que uma máquina não
poderia executar?
Para apreender o significado desta questão e o modo como ela é colocada na
filosofia da mente contemporânea é preciso saber o que os pesquisadores da inteligência
artificial entendem por computador e por máquina. É preciso se afastar das noções
cotidianas de máquina e aproximar-nos de algumas idéias matemáticas fundamentais,
como, por exemplo, a noção de algoritmo. A palavra algoritmo foi criada pelo matemático
árabe al-Khowarizmi, no século IX. Um algoritmo é um procedimento mecânico para a
solução de um problema matemático, um procedimento que envolve uma representação
bem definida do problema em questão e um conjunto de regras que levem a sua solução.
Computadores são basicamente executores de algoritmos - algoritmos que lhes são
fornecidos na forma de programas.
Na década de 30 o matemático inglês Alan Turing (1912-1954) formalizou a noção
de algoritmo através da noção de Máquina de Turing. A máquina de Turing é o principio
formal subjacente à construção dos modernos computadores digitais, por mais sofisticados
que estes possam vir a ser. Entender o que é uma maquina de Turing requer a compreensão
de alguns conceitos matemáticos complexos, como por exemplo, a idéia de recursão. Mas é
possível obtermos uma caracterização da noção de Máquina de Turing de uma maneira
mais simples, sem perder muito em precisão.
53
O que é uma máquina de Turing?
Imaginemos uma longa fita de papel com símbolos e marcas a intervalos regulares,
formando pequenos quadrados. Imaginemos também que podemos estipular uma espécie de
marcador ou ponto fixo em relação ao qual possamos mover a fita de papel para a esquerda
ou para a direita. A situação de que falamos pode ser representada assim:
marcador
E4s1 As2 D2s3 Rs4 s5
Suponhamos que o nosso marcador tenha também um dispositivo que permita reconhecer
se num determinado quadrado há um símbolo ou não, imprimir e apagar símbolos que
aparecem na fita e movê-la para a esquerda ou para a direita, dependendo do símbolo que
aparece impresso. Na fita acima há dois tipos de símbolos: letras minúsculas e letras
maiúsculas. Mover a fita para a esquerda ou para a direita (e num número determinado de
quadrados) dependerá do símbolo em maiúsculas que é identificado pelo marcador. Além
de mover a fita em determinadas direções, o símbolo em maiúsculas pode significar que o
marcador deve imprimir ou apagar um símbolo num certo quadrado. Assim, por exemplo,
E4 significa mover a fita 4 casas para a esquerda, D2 duas para a direita, As2 apague s2,
Rs4 imprima s4 e assim por diante. As letras maiúsculas representam as instruções ou o
programa da máquina e cada um dos passos assim executado constitui uma computação.
Com este tipo de máquina é possível executar qualquer tipo de tarefa que possa ser
representada simbolicamente e para a qual haja um número finito e não-ambígüo de
instruções - uma receita ou um algoritmo. Por ser uma máquina extremamente geral, a
máquina de Turing pode imitar a ação de qualquer computador digital.
54
A Maquina de Turing permite representar com precisão o que significa realizar uma
computação - um processo que é realizado passo a passo e de acordo com um conjunto de
instruções pré-estabelecidas. Realizar este conjunto de instruções (que constituem o
programa da maquina) significa realizar um procedimento algorítmico ou um procedimento
efetivo. Neste sentido, um procedimento efetivo é uma espécie de receita que diz
exatamente o que deve ser feito para se passar de um estado para outro num processo, ou
seja, um conjunto finito de instruções não-ambígüas que nos dizem o que fazer, passo a
passo, e que nos garantem a obtenção de um resultado final. Assim, a descoberta de Turing
consiste no fato de ele ter demonstrado, através da invenção de sua máquina, que toda e
qualquer tarefa que possa ser representada na forma de um procedimento efetivo pode ser
mecanizada, ou seja, realizada por um computador.
Máquinas de Turing são virtuais e determinísticas, ou seja, são máquinas abstratas
que podem ser construídas com qualquer tipo de material, até com pedacinhos de papel e
latas de cerveja vazias. O que importa é a realização de uma função seja por que meio for.
E a realização dessa função exige a representação de um procedimento finito e
determinístico.
O mais curioso é que Turing não inventou sua máquina pensando na construção de
computadores digitais. A utilização de suas idéias para esta finalidade ocorreu algum tempo
depois, quando o engenheiro austríaco John von Neumann implementou, isto é, deu forma
física aos primeiros computadores usando o princípio de Turing. Surgiram então os
primeiros computadores que até hoje são conhecidos como "máquinas dotadas de
arquitetura de Von Neumann". Posteriormente estas máquinas foram sendo aperfeiçoadas e
foram diminuindo de tamanho, até chegarmos aos nossos computadores domésticos.
Em 1948 ocorre um evento decisivo: o simpósio de Hixon, que reuniu pela primeira
vez, um grupo de cientistas nos Estados Unidos com um o propósito de fundar uma ciência
da mente humana tomando como ponto de partida o computador e a analogia entre
atividades mentais humanas e programas computacionais. Nascia a inteligência artificial. A
idéia central dos pesquisadores reunidos em Hixon consistia em conceber as atividades
mentais humanas como a realização ou execução de um algoritmo - um algoritmo cuja
forma geral seria a Máquina de Turing. A idéia era profundamente tentadora: máquinas de
55
Turing são virtuais, isto é, elas correspondem à execução de um conjunto de funções
independentemente do material que está sendo utilizado para construí-las; isto permitia
conceber a atividade mental humana como a implementação biológica e cerebral de uma
Máquina de Turing. A mente é uma máquina de Turing implementada através do cérebro;
esta era a idéia central dos pesquisadores da inteligência artificial nas décadas de 50 e 60.
A independência em relação ao substrato material onde poderia ser implementada
uma Máquina de Turing para realizar funções diversas era também muito conveniente, na
medida em que ela deixava espaço para a implementação de atividades mentais
(inteligentes) em substratos que não fossem idênticos ao material cerebral, como era o caso
dos computadores digitais. Inteligências paralelas poderiam coexistir com a nossa, a
humana, desde que para isso se conseguisse descobrir o algoritmo correto correspondente
às atividades mentais que se queria simular e realizá-las através de uma Máquina de Turing.
Pensar é realizar um algoritmo, pensar é calcular, de repente estávamos revivendo a
concepção de pensamento expressa pelo filósofo inglês Thomas Hobbes há séculos!
A inteligência artificial teve um sucesso tremendo nas décadas de 50 e 60. Suas
realizações foram notáveis e chegou-se mesmo a acreditar que este era o caminho certo
para se conseguir uma replicação mecânica das atividades mentais humanas. Afinal, tinham
aparecido programas para jogar xadrez, programas para realizar cálculos de engenharia e -
talvez a realização mais notável - programas para demonstrar teoremas da lógica. Havia a
certeza implícita de que logo se chegaria à replicação mecânica total das atividades mentais
humanas bastando para isso que se estudasse e se desenvolvesse cada vez mais algoritmos
(programas) mais poderosos. O início da década de 60 foi marcado por uma grande euforia
e vultosos investimentos na construção de máquinas de tradução - uma área que ainda atrai
grande quantidade de pesquisadores da inteligência artificial. A filosofia da mente
desenvolvida nessa época também se inclinava cada vez mais fortemente em favor do
modelo computacional da mente - a idéia de que nada mais somos do que Máquinas de
Turing altamente poderosas cujo substrato material é nosso cérebro.
Ora, até que ponto seria possível sustentar esta analogia entre mentes, cérebros e
Máquinas de Turing? Na verdade, quando formulamos este tipo de questão estamos
perguntando se todas as formas de pensamento humano podem ser representadas na forma
de um algoritmo. Do ponto de vista dos filósofos, se houver uma e apenas uma que não
56
possa teremos uma razão para questionar a legitimidade do modelo computacional da
mente e esboçar um critério de diferenciação entre mente humana e máquina (máquina de
Turing). Mas o que é mais interessante é que o próprio Turing reconhecia a existência de
uma dissimilaridade entre atividades mentais humanas e algoritmos.
Conforme notamos acima, quando Turing formulou, pela primeira vez, sua
concepção de Máquina de Turing no início dos anos 30, sua preocupação não era a
construção de computadores digitais. Sua preocupação voltava-se para a tentativa de
resolução de um problema matemático que ocupara boa parcela da atenção dos
matemáticos nas três primeiras décadas deste século. Com efeito, no ano 1900, o
matemático David Hilbert tinha formulado um conjunto de 23 problemas fundamentais que
deveriam nortear a investigação matemática nas décadas seguintes. O Décimo Problema
formulado por Hilbert (chamado de Enstscheidungsproblem ou Problema da Decisão)
tornou-se o mais famoso e podia ser enunciado da seguinte forma: haverá um procedimento
algorítmico (mecânico) geral que possa em principio resolver todos os problemas da
matemática (pertencente a alguma classe adequadamente bem definida), um após outro?
Em outras palavras: haverá um algoritmo geral que permita demonstrar a priori se, dado
um enunciado matemático, ele pode ser provado? Ser provado significa ser logicamente
dedutível de um dado conjunto de axiomas: se um enunciado for dedutível do conjunto
inicial de axiomas ele é verdadeiro e neste caso é um teorema, se for falso, sua negação será
então verdadeira.
Parte da dificuldade para responder a esta pergunta estava em definir o que se deve
entender por "procedimento mecânico". Para superar a dificuldade, Turing tentou imaginar
como o conceito de uma "máquina" poderia ser formalizado - a máquina de Turing é a
representação geral (formal) de um procedimento mecânico (algorítmico). Seria este um
passo inicial para se tentar resolver o décimo problema de Hilbert. Posteriormente (1976)
Davis, Matijasevic e Robinson demonstraram que o décimo problema de Hilbert é
insolúvel. Mas muito antes deste resultado ser consolidado, Turing já tinha detectado a
impossibilidade de se encontrar um procedimento algorítmico que permitisse estabelecer,
de forma geral, se um problema matemático pode ou não ser resolvido por via algorítmica.
Turing raciocinava da seguinte maneira: se existe um procedimento algorítmico para
resolver um determinado problema, o mesmo pode ser representado na forma de uma
57
máquina de Turing, e assim sendo, esse procedimento será necessariamente finito, ou seja,
estaremos diante de uma máquina de Turing cujo processamento de dados a um certo
instante pára. Não parar significa estar diante de uma situação de não-algoritmicidade ou
de incomputabilidade. Ora, se pudermos saber se existe ou não uma outra máquina de
Turing que nos permita saber se uma máquina de Turing pára ou não, teremos encontrado o
procedimento mecânico (algorítmico) cuja possibilidade de existência Hilbert questionava.
Ora, Turing demonstrou que é matematicamente inconcebível a existência dessa segunda
máquina de Turing que nos permitiria saber, mecanicamente, se outras máquinas de Turing
param ou não, ou seja, se existem ou não procedimentos algorítmicos (mecânicos) para os
problemas que elas tentam resolver. Esta demonstração de Turing ficou sendo conhecida
como o Problema da Parada ou Halting Problem.
Por uma espécie de ironia, a máquina de Turing que foi concebida como o
dispositivo teórico fundamental para a ciência da computação acaba se tornando também o
instrumento através do qual pode ser mostrada sua limitação fundamental. Existe um
problema que a Máquina de Turing não pode resolver: saber se ela pára ou não, reconhecer
(mecanicamente) se estamos diante de um procedimento efetivo (com número finito de
passos) ou não. Isto só pode ser realizado intuitivamente, é algo que requer uma inteligência
que não pode ser expressa de forma algorítmica. Na realidade, as bases da própria ciência
da computação são muito mais movediças do que se imagina: é somente pela intuição que
podemos saber se um determinado programa vai parar ou não.
Mas não foram apenas os resultados de Turing que levaram, na década de 30, a
supor a existência de uma diferenciação entre mentes e máquinas. É também nessa década
que o matemático K. Gödel apresenta um de seus teoremas revolucionários: o Teorema da
Incompletude. Este resultado segue-se de uma demonstração muito longa e técnica que
certamente não podemos reproduzir aqui. Em linhas gerais, o Teorema da Incompletude
(1931) estabelece que em qualquer sistema formal existem proposições que não são
passíveis de prova ou refutação com base nos axiomas do sistema, e, como corolário, as
contradições que existem no interior do sistema não podem ser suprimidas pelo próprio
sistema. A verdade ou falsidade dos próprios axiomas que servem de ponto de partida para
um sistema formal não podem ser decididas no interior do sistema; elas tem de ser
decididas externamente a ele. Estabelece-se um abismo entre verdade e demonstração, um
58
abismo que só poderia ser coberto pela inteligência humana ou pela intuição matemática.
Isto significa dizer que o valor de verdade de algumas proposições (indecidíveis) não pode
ser obtido através de nenhum procedimento mecânico (algorítmico), uma conclusão que
converge em direção aos resultados que Turing tinha obtido ao formular o Halting
Problem. Posteriormente foi demonstrada a equivalência do Halting Problem com o
Décimo Problema de Hilbert bem como o fato de que a insolubilidade deste problema é
conseqüência direta do Teorema da Incompletude de Gödel.
O próprio Gödel estava convencido de que as conseqüências de seu Teorema da
Incompletude levavam a sérias limitações no que diz respeito à simulação mecânica das
atividades mentais humanas pretendida pelos pesquisadores da inteligência artificial. Ele
afirmou, num discurso proferido na Sociedade Americana de Matemática, em 1951, que
“1 - A mente humana é incapaz de formular (ou mecanizar) todas as intuições
matemáticas, i.e., se consegue formular algumas delas, este mesmo fato conduz a
um novo conhecimento intuitivo, e.g., a consistência do formalismo. Este fato poderia
ser denominado de””incompletabilidade da Matemática””. Por outro lado, tomando-
se como base o que foi até então provado, é possível que exista (e possa até ser
descoberta empiricamente) uma máquina de provar teoremas que de fato seja
equivalente à intuição matemática, mas impossível de provar que o seja e nem
provar que acarrete apenas teoremas corretos da teoria dos números.
2 - O segundo resultado é a seguinte disjunção: ou a mente humana consegue
ultrapassar qualquer máquina (para ser mais preciso: ela pode decidir mais questões
da teoria dos números do que qualquer máquina) ou então existem questões da
teoria dos números indecidíveis para a mente humana”
A intuição matemática, que seria a base de todos os sistemas formais e da própria
possibilidade de fundamentar a matemática, não poderia ser expressa algoritmicamente.
Teríamos encontrado um critério de diferenciação entre mentes e máquinas, aquele critério
que os filósofos da mente estariam buscando. Mas as afirmações de Gödel ficaram por
muito tempo obscurecidas pelo sucesso e pelo entusiasmo que recobriam as realizações da
inteligência artificial, esta nova disciplina que se consolidava cada vez mais por suas
realizações - principalmente aquelas que se originavam das pesquisas realizadas no MIT.
59
Os pesquisadores da inteligência artificial estavam convencidos de que haveria maneiras -
ou pelo menos técnicas - para se contornar os problemas colocados por Turing e por
Gödel. E, quem sabe, essa idéia de "intuição matemática" como algo exclusivamente
humano não poderia passar, afinal de contas, de uma balela...
Em 1961 o filósofo inglês J.R. Lucas publica um artigo no British Journal for the
Philosophy of Science chamando a atenção dos pesquisadores da inteligência artificial para
o fato de que as questões envolvendo indecidibilidade e incompletude não poderiam ser
contornadas tão facilmente. Como poderia uma máquina, construída com base em
procedimentos algorítmicos demonstrar a existência de proposições cujo valor de verdade
não poderia ser decidido algoritmicamente? Lucas (1961) argumentava que
“Os paradoxos da consciência surgem porque um ser consciente sabe o que ocorre
com ele e não pode ser dividido em partes. Isto significa que um ser consciente pode
lidar com questões gödelianas: ele pode conceber seu próprio desempenho e ao
mesmo tempo algo externo a esse desempenho, sem que para isso tenha de se
dividir em partes. Isto não poderia ocorrer no caso de uma máquina. Uma máquina pode ser
concebida de maneira a relatar o que ela faz, mas isto não seria possível sem que
precisássemos adicionar uma nova máquina à original. É inerente à nossa própria
idéia de consciência a capacidade de auto-reflexão, ou seja a capacidade de relatar e
criticar nossos próprios desempenhos sem que nenhuma parte suplementar seja
necessária; a consciência é, neste sentido, completa e não possui nenhum calcanhar
de Aquiles” (p.122).
O artigo de Lucas provocou um debate momentâneo; foi seguido de várias respostas
no próprio British Journal for the Philosophy of Science, respostas que, se não foram
conclusivas, serviram pelo menos para reativar um debate que merecia maior atenção. Os
filósofos da mente passaram então a se agrupar em torno dos problemas suscitados pelo
Teorema de Gödel, ora fazendo defesas da concepção mecânica da mente, ora descartando-
a como algo impreciso e até mesmo místico. Filósofos como D. Dennett, J. Webb, J.J.C.
Smart e D. Hofstadter rechaçaram as idéias de Lucas que então encontrava poucos
defensores.
60
Em 1989 o físico e matemático inglês R. Penrose publica o livro The Emperor's
New Mind (A Mente Nova do Rei). Desde então este livro tem causado uma grande
reviravolta na filosofia da mente, que passou a estreitar ainda mais suas relações com a
filosofia da matemática e com a filosofia da ciência. Penrose refez o argumento de Lucas
passando por uma cuidadosa reconstrução dos resultados de Turing e de Gödel. O
reconhecimento da existência da intuição matemática e de processos não-algorítmicos nas
atividades mentais humanas faz com que Penrose se coloque um segundo tipo de questão:
será que isto nos força a abandonar o modelo computacional de mente, isto é, a idéia de que
processos mentais são análogos a uma máquina de Turing instanciada através do cérebro?
Certamente podemos estabelecer semelhanças entre intuição matemática, processos
conscientes e processos não-algorítmicos, mas será que não haveria, na própria natureza
processos não-algorítmicos e assim sendo não poderíamos continuar sustentando uma
possível identidade entre processos mentais e processos cerebrais? É preciso então
investigar tudo aquilo que a física pode nos dizer sobre a natureza e se nesta poderíamos de
fato encontrar processos não-algorítmicos. O debate se amplia então: talvez a mecânica
quântica pudesse nos fornecer esse ingrediente suplementar que caracteriza os processos
não-algorítmicos típicos do cérebro humano. A idéia desenvolvida por alguns
pesquisadores seria que fenômenos quânticos possuem algumas propriedades especiais,
como o indeterminismo e a não-localidade - fenômenos que se supõe serem igualmente
característicos da mente humana. Penrose parece abraçar esta perspectiva no seu segundo
livro, Shadows of the Mind, publicado em 1994 e ainda não traduzido. Trata-se de uma
perspectiva um pouco diferente daquela que finaliza The Emperor´s New Mind que termina
com uma resposta negativa à possibilidade de simulação mecânica plena das atividades
mentais humanas e com uma defesa do platonismo e da existência da intuição matemática
como algo caracteristicamente humano, não replicável através de máquinas.
Um aspecto que não parece ter sido explorado neste debate é uma possível relação
entre limitações formais e limitações físicas para a capacidade de uma máquina replicar
atividades mentais humanas.1 Estipular este tipo de relação remete-nos diretamente para a
chamada teoria da complexidade computacional, uma teoria que lida com questões práticas
1 Exploramos esta perspectiva no livro Mentes e Máquinas: uma introdução à Ciência Cognitiva , Artes Médicas, 1998.
61
relativas à velocidade e eficiência da realização de procedimentos algorítmicos na solução
de problemas. A teoria da complexidade computacional parte da idéia de que podemos
dividir os problemas computacionais em duas classes, os chamados problemas tratáveis e
os problemas intratáveis. Esta classificação baseia-se no número de passos e,
conseqüentemente, no tempo requerido para se rodar um determinado algoritmo num
computador. Problemas intratáveis são aqueles que comportam uma solução algorítmica,
porém, o tempo envolvido para se executar este algoritmo torna-o ineficiente.
Certamente poderia ser argumentado que os problemas levantados pela teoria da
complexidade, ou seja, a velocidade de computação depende do tipo de máquina na qual o
algoritmo é rodado. Pode-se argumentar que avanços na arquitetura de hardware poderiam
levar a uma diminuição no tempo requerido para se rodar um algoritmo e, portanto que a
eficiência para se resolver problemas intratáveis poderia gradualmente ser atingida. Assim
concebido, este seria um problema prático ou tecnológico que não imporia nenhum tipo de
limitação física a priori sobre o que um computador poderia fazer.
Contudo, trabalhos pioneiros na área de teoria da complexidade desenvolvidos por
H.J. Bremermann (1977) mostram que há limites físicos na arquitetura de computadores de
qualquer tipo e que estes limites físicos condicionam o tempo para computar problemas
consumido por estas máquinas não importando o quanto seu hardware estiver aperfeiçoado.
De acordo com Bremermann há dois limites físicos a serem considerados: o tempo de
propagação e o tempo de comutação. Estes dois limites compõem o chamado limite
fundamental para a velocidade dos computadores que não pode ser ultrapassado. Tal limite
fundamental deriva-se da idéia de que a velocidade máxima de transmissão de sinal entre os
componentes internos de um computador é limitada pela velocidade da luz, ou seja, 3.108
m/segundo. O tempo de propagação ou intervalo de transmissão de sinal entre os
componentes internos do computador é determinado pela distância na qual se situam tais
componentes e por sua vez limitado por aquilo que se chama tempo de comutação. O tempo
de comutação é o intervalo para o processamento de informação através de dispositivos
discretos. Mesmo que suponhamos a possibilidade tecnológica de construir um computador
muito pequeno para minimizar e otimizar a trajetória de transmissão de sinal, tal limite
fundamental não pode ser ultrapassado - sob pena de estarmos ignorando tudo o que a física
contemporânea nos diz.
62
A possibilidade tecnológica de construir uma máquina ideal em tamanho, cuja
velocidade de transmissão de sinal se aproximasse da velocidade da luz não pode ser
descartada como algo a ser obtido no futuro. Contudo, mesmo com um hardware assim
poderoso, haveria problemas cuja complexidade pode ser dita transcomputável. Um
problema transcomputável é um problema intratável cujo procedimento algorítmico de
solução não pode ser obtido em tempo eficiente a despeito de qualquer aperfeiçoamento do
hardware do computador utilizado.
O intervalo de tempo requerido para rodar alguns algoritmos transcomputáveis pode
ser tão longo quanto a própria idade do universo. Este crescimento em complexidade
temporal requerido para a realização de algoritmos transcomputáveis aplica-se igualmente
ao cérebro humano se este for concebido como um sistema físico - e portanto submetido ao
conceito de limite fundamental desenvolvido por Bremermann. Processamento de sinal
neuronal não pode ocorrer a uma velocidade maior do que a da luz.
Ora, estes trabalhos pioneiros de Bremermann permitem-nos fazer uma especulação
interessante que relaciona limitações formais e limitações físicas exibidas pelos
computadores. Vimos que, do ponto de vista formal, não existe um procedimento
mecânico, isto é, um algoritmo que nos permita saber, a priori, se um determinado
problema matemático é decidível ou não. Não temos nenhum dispositivo formal que nos
permita saber se um determinado programa computacional pára ou não, somente nossa
intuição pode nos dizer isto. Mais ainda: é possível que muitos problemas que julgamos ser
indecidíveis sejam na verdade transcomputáveis. Teoricamente, uma máquina de Turing
pode ficar rodando por um tempo tão longo que supere qualquer expectativa concebível, e,
mesmo assim, não temos condições de dizer se essa máquina vai parar algum dia. O que
julgamos ser indecidível, pode na verdade ser transcomputável. Contudo, nossa intuição
matemática pode nos dizer (em muitos casos) instantaneamente, se um determinado
enunciado matemático é verdadeiro ou não, e isto pode ocorrer no caso de um problema
supostamente indecidível, mas na verdade transcomputável. Isto significa dizer que, se
nossa mente funciona algoritmicamente, ela é capaz de processar informação com uma
extraordinária rapidez - uma rapidez que superaria o limite fundamental proposto por
Bremermann. A superação deste limite fundamental, ou seja, processar informação a uma
velocidade maior que a da luz tem como conseqüência metafísica imediata a possibilidade
63
de sustentar que pelo menos parte das atividades mentais humanas não teria as
características atribuíveis a sistemas físicos. Mente e cérebro teriam de ser diferentes, caso
contrário a intuição matemática não poderia existir. Estaríamos aqui diante de um forte
argumento em favor da distinção entre mente e cérebro!
Os argumentos de Lucas e de Penrose ainda suscitam muita inquietação entre os
filósofos da mente. No livro de D. Dennett, Darwin's Dangerous Idea, publicado em 1995,
encontramos um capítulo inteiro dedicado à refutação dos pontos de vista de Penrose. O
legado deste debate em torno das possibilidades da computação simbólica e da abordagem
formal de processos cognitivos encaminha a filosofia da mente para mais uma questão
fundamental que passa a ocupar um papel central no seu cenário: o estudo da natureza da
consciência, esta última trincheira que ainda parece resistir à possibilidade de replicação
mecânica. Nos últimos dois anos tem havido uma verdadeira proliferação de teorias sobre a
natureza da consciência; os simpósios realizados em Tucson, no Arizona, em abril de 1994
e abril de 1996 constituem um marco decisivo desta nova tendência. O reconhecimento da
irredutibilidade de fenômenos conscientes a qualquer tipo de base, seja neurofisiológica ou
física, defendida por filósofos como D. Chalmers (1996) parece dominar esta nova etapa da
história da filosofia da mente.
Bibliografia e Referências
Bremermann, H.J. (1977) - “Transcomputability and Complexity” In Smith, M. & Duncan,
R.(eds) - The Encyclopaedia of Ignorance, London: Routledge and Keagan Paul pp.193-202
Charlmers, D. (1996) - The Conscious Mind - Oxford: Oxford University Press.
Davis, M. & Matijasevic, Y.& Robinson, J. (1976) - “Hilbert´s Tenth Problem, Diophantine
Equations: positive aspects of a negative solution” - Proceedings of Symposia in Pure
Mathematics, 28, 323-378.
64
Dennett, D. (1978) - “The abilities of men and machines” in Brainstorms:Philosophical
Essays on Mind and Psychology Sussex: The Harvester Press 256-266.
Dennett, D. (1991) - Consciousness Explained Boston: Little & Brown.
Dennett, D. (1995) - Darwin´s dangerous idea New York: Simon & Schuster.
Gödel, K. (1931/1962) - On formally undecidable propositions of Principia Mathematica
and related Systems - New York: Basic Books.
Hameroff S.R. (1996) - Toward a Science of Consciousness Cambridge, MA, The MIT
Press.
Hofstadter, D.R. (1979) - Gödel, Escher and Bach: an eternal golden braid Sussex:
Harvester Press.
Hopcroft,J. & Ullman, J. (1979) - Introduction to Automata Theory, Languages and
Computation New York: Addison Wesley Publishing Company.
Lucas, J.R. (1961) - “Minds, machines and Gödel” Philosophy 36, 120-124.
Nagel, E. & Newman, J.R. (1958) - Gödel´s Proof. London: Routledge and Keagan Paul.
Neumann, J.von (1951) - Cerebral Mechanisms in Behavior, (New York: Wiley).
Neumann, J. von (1966) - Theory of Self-Reproducing Automata - Edited and completed by
Arthur W. Burks, Urbana, Illinois: University of Illinois Press.
65
Penrose, R. (1987) - “Minds, machines and mathematics” in Blakemore & Greenfield, (eds)
- Mindwaves: thoughts on intelligence, identity and consciousness Oxford: Basil Blackwell,
259-276.
Penrose, R. (1989) - The Emperor's New Mind: concerning computers, minds and the laws
of Physics. (Oxford: Oxford University Press).
Penrose, R. (1994) - Shadows of the Mind Oxford: Oxford University Press.
Smart, J.J. (1961) - “Gödel´s Theorem, Church´s Theorem and Mechanism” Synthese, 13,
105-110.
Turing, A. M. (1936) - “On computable numbers, with an application to the
Entscheidungsproblem” - Proceedings of the London Mathematical Society, 42, 230-65.
Turing, A.M. (1939) - Systems of Logic Based on Ordinals. Proceedings of the London
Mathematical Society, 45, 161-228.
Wang, H. (1974) - From Mathematics to Philosophy . New York:Humanities Press.
Webb, J.C. (1980) - Mechanism, Mentalism and Metamathematics - London: D. Reidel
Publishing Company.
66
A ILUSÃO DA NEUROCIÊNCIA
Poderá a neurociência desvendar todos os mistérios acerca da mente? Poderá o cérebro conhecer-se a si mesmo? A neurociência vive um dilema: se o cérebro for muito complexo, seu conhecimento torna-se inatingível para nós; se for muito simples, seremos excessivamente estúpidos para poder conhecê-lo.
A filosofia da mente foi fortemente abalada pelo advento da ciência
cognitiva que estabeleceu a possibilidade de fundarmos uma ciência dos
fenômenos mentais, deixando para trás meras especulações ou a
chamada “psicologia de poltrona”. No século XX tornamo-nos quase
todos materialistas, enfrentando agora a difícil tarefa de relacionar as
propriedades da mente com as do cérebro ou com as de outros
dispositivos materiais. Esta é, sem dúvida, a tarefa primordial a ser
realizada pelo projeto teórico da ciência cognitiva. Contudo, é preciso
notar que, por concentrar-se excessivamente nas preocupações teóricas
colocadas pela natureza do mental, os cientistas cognitivos parecem ter
se esquecido quase completamente dos problemas epistemológicos que
emergem da neurociência. Até que ponto pode a neurociência esclarecer
os problemas colocados pela ciência cognitiva e pela filosofia da mente?
Poderá a neurociência explicar um fenômeno tão complexo como a
consciência?
O grande entusiasmo com a neurociência levou a cientistas como
Francis Crick e Christopher Koch a afirmar que a consciência visual está
correlacionada com oscilações de 40 MegaHertz nas camadas cinco e
seis do córtex visual primário. Paul Churchland vai além, e assevera que
esta é, sem dúvida, uma teoria plausível acerca da natureza da
consciência. Que alguma coisa deve estar faltando dá para perceber
quando pensamos que tal oscilação poderia ocorrer fora de um ser vivo,
como, por exemplo, num rádio ou na placa mãe de um computador. Será
67
que esse rádio ou esse computador deveriam, então, ser considerados
seres conscientes? Sustentar tal afirmação seria, no mínimo, ridículo.
A motivação principal da neurociência contemporânea parece ser a
possibilidade de reduzir fenômenos mentais a um substrato neurológico,
e, assim fazendo, assimilar a ciência cognitiva e a filosofia da mente a
uma ciência geral do cérebro. O neurocientista parece ter se tornado –
sabendo disso ou não – um partidário do chamado materialismo
eliminativo1 . Vamos supor então – pelo menos por ora – que podemos
assumir a veracidade plena do materialismo eliminativo. Uma eliminação
completa da folk psychology teria sido atingida: não precisaríamos mais
falar de intenções, crenças ou desejos, mas apenas de partes do nosso
cérebro. Não haveria mais a necessidade de mapear estados mentais em
estados cerebrais, uma vez que teríamos nos livrado definitivamente da
folk psychology que teria se tornado uma forma obsoleta de explicação
psicológica. Conhecer a mente seria conhecer o cérebro. Uma
abordagem plenamente científica da natureza dos fenômenos mentais
teria sido conseguida, afinal, e nosso vocabulário psicológico cotidiano
teria sido reduzido a apenas um modo de falar – une façon de parler.
Sempre houve muita resistência, por parte dos cientistas
cognitivos, em aceitar o programa teórico do materialismo eliminativo,
uma vez que estes sempre insistiram na necessidade de atribuir pelo
menos algum estatuto ontológico às representações e outras entidades
mentais. Contudo, o sucesso do materialismo eliminativo é uma hipótese
que não pode ser descartada prima facie, por, pelo menos duas razões.
Em primeiro lugar, se ele for bem sucedido isto significa que
conhecer o cérebro humano é possível isto é, que podemos ter uma
descrição completa e pormenorizada de nosso cérebro. Isto constitui o
horizonte do materialista eliminativo, pois se uma descrição completa e
detalhada do cérebro humano tornar-se disponível poderemos, com
1 O materialismo eliminativo é uma doutrina que sustenta a provisoriedade da psicologia e do vocabulário psicológico e sua redução a neurociência num futuro não muito distante.
68
certeza, descartar a folk psychology. Assim sendo, ao supormos que o
materialismo eliminativo possa um dia ser bem sucedido estaríamos
colocando, imediatamente, as seguintes questões: Até que ponto
poderemos conhecer nossos cérebros? Existirá algum tipo de restrição
epistemológica que possa impedir que a neurociência atinja sua idade de
ouro?
Em segundo lugar, o programa teórico do materialismo eliminativo
não seria significativo se a partir de seu sucesso não pudéssemos
esperar a construção uma teoria científica da natureza do mental. A
neurociência seria inútil se a partir dela não pudéssemos estabelecer
uma relação entre folk psychology e cérebro, isto é, se ela não
esclarecesse a própria natureza do mental a partir de suas sucessivas
eliminações. Eliminação envolve a atribuição de uma ontologia provisória
a folk psychology, mesmo que esta venha a desaparecer num futuro
próximo. Neste sentido, eliminação não é mera substituição: O objeto de
uma ciência da mente não é ipso facto o objeto da neurociência, embora
o materialista eliminativo queira atribuir à última o papel principal na
construção de uma ciência do mental. Em outras palavras: o
neurocientista constrói o objeto de sua ciência considerando o cérebro
humano como sendo um dispositivo biofísico cujas propriedades
especiais merecem uma análise cuidadosa, como no caso de qualquer
outro dispositivo biofísico. O materialista eliminativo estuda a mente a
partir da aposta de que os problemas filosóficos colocados pela natureza
dos fenômenos mentais e subjetivos podem, em última análise, ser
dissolvidos e tratados empiricamente baseando-se no que a neurociência
fornecerá no futuro. O resultado de ambos os empreendimentos pode
coincidir, mas certamente eles diferem quanto a seus propósitos. Não
estabelecer esta diferença é, provavelmente, a origem do sentimento de
repugnância nutrido contra o materialismo eliminativo por muitos
69
filósofos da mente e até mesmo por vários cientistas cognitivos mais
ortodoxos.
Uma vez assumida a hipótese do sucesso do materialismo
eliminativo podemos retornar a nossa primeira questão: Até que ponto
podemos conhecer o cérebro humano? Existirão limites epistemológicos
para o conhecimento do cérebro humano, ou seja, limites que não podem
ser ultrapassados pelo desenvolvimento da investigação empírica? Uma
vez reconhecida a diferença entre o tipo de investigação proposto pelo
neurocientista e o tipo de investigação que faz o materialista eliminativo,
esta questão seria mais bem colocada da seguinte forma: O que
podemos saber acerca de nosso próprio cérebro? Em outras palavras,
estamos perguntando se o cérebro pode fornecer uma descrição
completa de si mesmo e, se a partir de tal descrição, poderemos
desvendar – a partir de uma perspectiva subjetiva - a natureza da mente.
A diferença em questionar “O que podemos saber acerca do cérebro
humano” e colocar a pergunta “O que podemos saber acerca de nosso
próprio cérebro?” consiste no fato de que, se tal perspectiva subjetiva
não for assumida, não haveria possibilidade de estabelecer relações
significativas entre elementos da folk psychology e seus correspondentes
cerebrais, e, assim sendo, a neurociência em nada contribuiria para a
construção de uma ciência do mental. Contudo, qualquer tentativa de
estabelecer tais relações leva-nos rapidamente a uma dificuldade
epistemológica substancial enfrentada pela neurociência, qual seja, sua
natureza peculiar de uma disciplina cujo objeto é também seu autor e
seu inventor.
A aposta de neurocientistas e de materialistas eliminativos é que
fenômenos como a consciência e outras características da mente serão
explicadas pela neurociência no futuro como o resultado da
complexidade do cérebro, sobretudo de sua conectividade e de suas
características anatômicas ainda desconhecidas. Mas o que pode o
70
investigador do cérebro saber acerca de seu próprio cérebro? Poderemos
vir a dispor de uma descrição completa dos fenômenos cerebrais – uma
descrição que forneceria bases epistêmicas para a neurociência e
legitimidade para o programa teórico-cientifico do materialismo
eliminativo? Por uma descrição completa entendemos uma teoria que
explique as características anatômicas e fisiológicas do cérebro, bem
como suas propriedades funcionais, o que permitiria uma
correspondência entre o mental e seu substrato biofísico. Mas aqui
encontramos uma dificuldade epistemológica considerável. A
conectividade e a identificação de circuitarias específicas são
normalmente tidas como responsáveis pela produção da mente, mas
será que poderemos caminhar destas identificações de funções
específicas em direção a uma teoria geral do cérebro – como quer o
materialista eliminativo? Para responder a esta questão, é preciso, em
primeiro lugar, saber se podemos construir uma imagem de nosso
próprio cérebro. É isto que chamamos de problema descritivo.
Eis o problema descritivo: dado que qualquer noção de
complexidade surge a partir do cérebro, será tal noção capaz de
representar a complexidade do próprio cérebro? Se assumimos a
veracidade do materialismo eliminativo, a noção de complexidade
através da qual descrevemos nosso próprio cérebro deve ser vista como
o resultado da complexidade cerebral e não o ponto de partida para a
neurociência. Esta é uma primeira dificuldade que surge imediatamente
da dualidade objeto/inventor à qual nos referimos acima. Ecos do
problema descritivo podem ser encontrados em qualquer tentativa de
gerar modelos computacionais do cérebro. Se esses modelos são
construídos para retratar detalhes muito específicos do cérebro, como,
por exemplo, a enorme e diminuta rede de conexões que compõe os
microtúbulos do citoesqueleto dos neurônios, encontramos aqui um
problema não-recursivo que pode comprometer essa tarefa – ou seja, um
71
problema que não pode ser resolvido por um algoritmo. A não-
recursividade que encontramos é idêntica àquela que surge de qualquer
tentativa de recobrir com polígonos um plano euclidiano qualquer
quando temos um número finito de tais polígonos e temos de recobrir
esse plano completamente, sem deixar lacunas ou fazer sobreposições.
Este é o chamado problema do azulejo (tiling problem). Já foi
demonstrado que o problema do azulejo é não-recursivo, ou seja, não
existe nenhum procedimento de decisão ou algoritmo para decidir se um
conjunto finito de formas poligonais vai recobrir inteiramente um
determinado plano.
Ora, se a multiplicidade de conexões entre os neurônios
corresponde a formas poligonais e se o problema do azulejo é não-
recursivo, a possibilidade de construir um modelo do cérebro através de
uma simulação computacional torna-se inexeqüível. Isto sem mencionar
que, no caso do cérebro, o problema do azulejo torna-se mais complexo
na medida em que estamos lidando com mais do que simplesmente as
duas dimensões que caracterizam o plano euclidiano (na realidade, neste
caso temos um conjunto de polígonos aperiódicos em três dimensões). A
alternativa seria construir esse modelo manualmente, usando, talvez,
lápis e borracha - e certamente precisaríamos de uma enorme equipe de
materialistas eliminativos para dar conta dessa tarefa hercúlea. Mas
quanto tempo será que eles levariam para construir esse modelo, se eles
têm de representar o número n de neurônios que se estima ser da ordem
de 1012 ou 1013 e o número de sinapses por volta de 1014 ou 1015, isso
sem falar que o cálculo das conexões binárias eleva n a n2 ! Do ponto de
vista computacional estaríamos diante de um problema NP-complexo2
que não pode ser resolvido por nenhum tipo de computador! Pior ainda:
ao elevar n a n2 encontramos um problema ainda mais difícil. Estima-se
2 NP quer dizer “em tempo polinomial não-determinístico”, uma classe de problemas cuja solução algorítmica rapidamente torna-se inútil na medida em que o número de passos necessários para a execução do algoritmo é imenso e requer um tempo também imenso. A solução de alguns problemas NP ou NP-complexos requer centenas e as vezes milhares de anos para ser computada.
72
que o cérebro humano tenha dez bilhões de neurônios, o que significa
que o número de pensamentos que podemos ter é imenso. Suponhamos
que um ser humano tenha cem pensamentos por segundo. Em cem anos,
ele chegaria a 316 bilhões de pensamentos. Contudo, apenas 39
neurônios seriam necessários para ter esse número de pensamentos: os
316 bilhões de estados podem ser simulados por uma fileira de apenas
39 lâmpadas acendendo e apagando alternadamente. Será então que
todo esse número de neurônios de que dispomos é apenas um capricho
da evolução?
Certamente nenhuma disciplina científica pode fornecer uma
descrição completa de qualquer tipo de objeto que encontremos na
natureza. E certamente isso não afetaria o estatuto científico dessa
disciplina, seja ela qual for. Contudo, no caso da neurociência, isto pode
se tornar uma preocupação real, pois é precisamente na descrição,
estudo e representação da conectividade cerebral que buscamos uma
explicação para a natureza da mente. Uma vez que tomamos como
ponto de partida que a noção de complexidade é o resultado da atividade
cerebral e não um conceito transcendental, a única maneira de superar o
problema descritivo seria construir um computador cujo desempenho
superasse as suas próprias possibilidades, produzindo algo mais
complexo do que aquilo para o qual ele foi programado. É bem pouco
provável que algum dia possamos construir um computador desse tipo,
com um poder e uma arquitetura tão peculiares. Ou mesmo que
possamos tentar resolver este problema construindo uma rede de
computadores superpoderosos.
A alternativa que nos resta seria então abandonar o projeto de
construir uma descrição completa do cérebro e concentrar nossas
pesquisas na tentativa de elaborar uma teoria geral de suas propriedades
funcionais e de como estas dão origem à mente. Neste caso, a
neurociência estaria desistindo de buscar propriedades intrínsecas do
73
cérebro, ultrapassando um estágio que poderíamos chamar de pré-
galileano. Buscaríamos um novo paradigma científico para a
neurociência, um paradigma que permitiria encontrar correlações
sistemáticas entre cérebro e mente. Mas seria tal paradigma a solução
para os problemas de que vimos falando? Um outro tipo de questão
epistemológica iria surgir, uma questão que, aliás, constitui uma
extensão do problema descritivo e que batizamos com o nome de
problema epistêmico.
Eis o problema epistêmico: uma ciência do cérebro teria de
abranger todo e qualquer tipo de ciência que o cérebro fosse capaz de
produzir. Caso contrário, não poderíamos resolver os paradoxos da auto-
referência. Assim sendo, qualquer teoria geral que abranja/inclua a
neurociência teria de ser mais complexa do que o cérebro que a produz.
Em outras palavras, uma ciência geral do cérebro exigiria que esse
mesmo cérebro que a produz fosse capaz de produzir uma teoria mais
complexa do que ele mesmo. A dificuldade que o neurocientista
encontraria, neste caso, seria equivalente a qualquer tentativa de
grampear todos os telefones da cidade de São Paulo e controlar todas as
chamadas que fossem feitas. Seria preciso um sistema mais poderoso do
que toda a rede telefônica da cidade de São Paulo para realizar esta
tarefa. Monitorar todas as conversas telefônicas que ocorrem em São
Paulo requer uma rede n vezes mais complexa do que a rede telefônica
paulistana. Ora, pode o cérebro produzir algo mais complexo do que ele
mesmo? Se ele puder, isso significa que nossos cérebros são muito mais
poderosos e muito mais complexos do que supomos. Mas se eles não
puderem, isso significa que uma teoria geral do cérebro torna-se
quimérica. Em ambos casos chegamos a uma situação negativa para a
neurociência, que tem de se conformar seja com a incompletude seja
com sua própria impossibilidade. Mais ainda: como poderia o cérebro
compreender algo mais complexo do que ele mesmo?
74
Ao chegarmos a este ponto, aparece mais um problema: a
legitimidade epistemológica. O conhecimento do neurocientista acerca
do cérebro não pode ser confirmado nem refutado. Como poderia o
neurocientista falsear (no sentido popperiano) sua teoria acerca do
cérebro se essa mesma teoria tornou-se mais complexa do que seu
próprio intérprete? Chegamos a mais um paradoxo: quanto mais a
neurociência avança mais ela se torna vulnerável a este tipo de crítica
epistemológica.
Uma alternativa seria descartar esta visão de que uma teoria
acerca do cérebro teria de ser mais complexa do que ele mesmo. Mas
neste caso teríamos de enfrentar outro dilema. Para afirmar que uma
teoria do cérebro não precisa ser mais complexa do que ele deve existir
pelo menos um cérebro (o do epistemólogo) cuja capacidade descritiva
permite reconhecer quando uma teoria correta acerca do cérebro foi
obtida. Caso contrário não se poderia sequer discutir se uma teoria do
cérebro deve ou não ser mais complexa do que o próprio cérebro. Em
outras palavras, para negar a afirmação “Uma teoria acerca de meu
próprio cérebro deve ser mais complexa do que ele” implica que tal
teoria esteja disponível pelo menos para um cérebro, qual seja, o do
epistemólogo. A negação desta sentença não pode ser generalizada, pois
isto implica que pelo menos a teoria do cérebro feita pelo epistemólogo
permanece sendo uma exceção crucial. Neste sentido, a rejeição da
sentença “Uma teoria acerca de meu próprio cérebro deve ser mais
complexa do que ele” acaba se tornando auto-contraditória.
Há ainda duas alternativas para o neurocientista. A primeira seria
desistir de adotar o ponto de vista subjetivo e estudar o cérebro como
um objeto natural – algo que, em princípio nada teria a ver com mentes.
Esta parece ser uma decisão metodológica sensata. Mas, o que teria esse
cérebro – ou um cérebro – na proveta a ver com os meus estados
mentais ou os estados mentais de qualquer outro ser humano? Será que
75
esse tipo de neurociência – que prescinde da mente – seria de algum
interesse para a ciência cognitiva? Minha folk psychology por mais
provisória que seja, ainda é o ponto de partida para qualquer
mapeamento cerebral ou para qualquer eliminação progressiva a ser
realizada no meu ou em outro cérebro humano. Certamente o
neurocientista, ao estudar o cérebro como um objeto natural livra-se do
dilema de produzir uma teoria completa acerca de seu próprio cérebro.
Mas ao fazer isto, ele torna a neurociência algo parecido a um quebra-
cabeça cujo desafio é combinar indutivamente representações parciais
do seu objeto de investigação. Além dos riscos envolvidos nos raciocínios
indutivos, ao abandonar a possibilidade de uma teoria geral do cérebro,
este neurocientista coloca em dúvida a exeqüibilidade da eliminação da
folk psychology e de todo programa teórico do materialismo eliminativo.
A segunda alternativa consiste em basear-se na abordagem
evolucionária proposta por von Neumann´s para lidar com os problemas
colocados pela complexidade. Von Neumann desenvolveu sua proposta a
partir da idéia de construir pequenos robôs que poderiam se reproduzir,
e, a cada geração, produzir robôs mais complexos do que os anteriores.
A exeqüibilidade desta estratégia foi matematicamente demonstrada por
von Neumann. Neste sentido nada impediria que esses robôs (dotados de
um cérebro) ao se auto-replicarem, produzissem, após várias gerações,
um cérebro tão complexo quanto o nosso. Contudo, isto não significaria
superar nossas dificuldades epistemológicas. Esses robôs não poderiam
produzir uma teoria acerca de seus próprios cérebros. Tampouco
poderíamos estar certos de que, ao analisarmos seus cérebros,
chegaríamos a uma descrição completa de nossos cérebros, pois, por
falta de uma teoria completa, nunca poderíamos ter certeza de que os
cérebros de tais robôs tornaram-se, em algum momento, tão complexos
quanto os nossos. Certamente tais robôs poderão desenvolver um
repertório comportamental tão sofisticado quanto o nosso, o que os
76
permitiria de passar no teste de Turing. Mesmo assim, ainda não
poderíamos estabelecer uma relação entre tal repertório comportamental
e sua atividade cerebral. Uma neurociência do robô pode ajudar a
neurociência humana, fornecendo alguns modelos de atividade cerebral,
mas isto não significa esclarecer a natureza da cognição de tais robôs e
muito menos da humana.
A estranheza – mas também a força – desta crítica epistemológica
da neurociência está no fato de que, se o que apontamos pode levar ao
desânimo, isto se deve ao fato de assumirmos como ponto de partida a
plausibilidade do materialismo eliminativo – um programa teórico que
qualquer neurocientista ou cientista cognitivo tomaria seriamente como
princípio fundamental para iniciar sua investigação. Além disto, uma
conseqüência que se segue do que viemos falando até agora é o fato de
que, na verdade, nem a ciência cognitiva nem a inteligência artificial
podem esperar muito da neurociência como se supôs até agora.
Representações parciais do cérebro podem contribuir para a construção
de modelos cognitivos da atividade mental, mas, até que ponto
poderemos sustentar seu realismo? Modelos do cérebro podem ser
inspiradores para a ciência cognitiva, mas, de um ponto de vista
estritamente epistemológico, ou seja, quando levamos em consideração
a incompletude inerente a qualquer descrição do cérebro, tais modelos
não podem sequer ser vistos como metáforas adequadas.
O que dissemos significa, então, que devemos abandonar o projeto
de construir uma ciência do cérebro? Com certeza não. Desvendar os
mistérios da consciência constitui, talvez, o maior desafio já enfrentado
pela ciência; algo que nunca poderá ser feito sem o auxílio da
neurociência. O que deve ser abandonado, contudo, é a ingenuidade
filosófica dos neurocientistas – uma ingenuidade que freqüentemente se
expressa na sua postura espontaneamente reducionista ou eliminativista.
A ciência do cérebro deve ser uma ciência de como nós representamos
77
nosso próprio cérebro. Não se trata de uma circularidade fútil, mas a
recognição de que questões epistemológicas não podem ser ignoradas
por aqueles que praticam a neurociência seriamente.
Bibliografia e Referências
Churchland, P. (1995) The engine of reason, the seat of the soul.
Cambridge, MA, The MIT Press.
Crick, F, Koch, C. (1990) “Towards a neurobiological theory of
consciousness” in Seminars in the Neurosciences, 2: 263-275.
78
BERGSONISMO, FILOSOFIA DA MENTE E COGNITIVISMO
Teixeira, J. de F.
Gomes, P. de T.
Nada poderia ser mais instigante, ao reler Bergson no início do século XXI, do que
comparar sua filosofia da mente com aquelas dos filósofos do linguistic turn que iniciaram
a crítica da linguagem ordinária. Muito mais do que uma simples oposição entre tradições
supostamente irreconciliáveis – como nos quer fazer crer um modo apressado de fazer
história da filosofia - esta comparação pode nos levar a um inventário surpreendente não só
de diferenças como também de convergências.
Este inventário torna-se ainda mais inquietante na medida em que a partir dele
teremos alguns elementos para delinear, na reconstrução de alguns aspectos do pensamento
bergsoniano, sua possível inserção na crítica contemporânea do cognitivismo que se
intensifica na década de 90. Num momento em que a ciência cognitiva vive mais uma crise
paradigmática, encontramos no bergsonismo o projeto incipiente de uma teoria da cognição
que preconizava a crítica do representacionalismo e do modelo computacional da mente.
Juntamente com esta crítica está a proposta implícita de um modelo de cognição de
inspiração biológica que enfatiza a necessidade de uma aliança entre ação, percepção e
cognição - o modelo que inspira movimentos modernos na ciência cognitiva, tais como a
robótica de Rodney Brooks (Nouvelle Artificial Intelligence) e as teorias de F. Varela.
O traçado destas correlações é sugerido por F.C.T. Moore, que na sua obra Bergson:
Thinking Backwards (1996) enfatiza a necessidade do estudo do pensamento de Bergson
como precursor de concepções contemporâneas da mente e da cognição, mesmo que ao
risco de incorrer nas ilusões de uma historiografia retrospectiva. Moore ressalta em seu
texto que a tarefa de reconstruir o que seria o programa bergsoniano de investigação em
ciência cognitiva constitui um tópico ainda inexplorado, fornecendo apenas algumas
pinceladas e sugestões para se iniciar esta tarefa. Embora com outro ponto de partida,
seguimos uma vereda semelhante, sabendo de antemão que não teremos vasculhado todos
79
os aspectos do pensamento bergsoniano que poderiam compor seu possível projeto de uma
ciência da cognição.
I
Uma primeira aproximação do pensamento de Bergson revela-nos uma filosofia
profundamente preocupada com as relações entre mente e linguagem e a proposta de uma
crítica da linguagem do mental. O mesmo tipo de preocupação encontramos em filósofos
do linguistic turn como, por exemplo, W. Sellars e G. Ryle estes pensadores anti-
cartesianos, para os quais não é a mente que engendra o mundo e a linguagem, mas, ao
contrário, a mente é que é engendrada pelas sutilezas da linguagem. Encontramos aqui se
há uma preocupação comum entre estes pensadores e Bergson, mas também um ponto de
divergência fundamental: para Bergson não é a mente que é engendrada pela linguagem,
mas apenas uma aparição do mental que se esconde sob a superfície do discurso. Para
Bergson, dissolver os equívocos que advém do emaranhado da linguagem não significa
dissolver o conceito de mente como querem Sellars e Ryle que estariam também incorrendo
num equívoco ainda maior ao supor que, por passar a navalha de Ockham no vocabulário
mentalista, a tarefa da filosofia da mente estaria terminada.
Sellars e Ryle baseiam suas críticas ao conceito de mente no modo como este é
engendrado pelo aparecimento de um vocabulário mentalista, daí derivando o caráter
ilusório de uma ontologia do mental. Em Sellars encontramos uma genealogia do conceito
de mente derivada de um aprendizado específico que nos permitiu, através do uso da
linguagem, falar de estados mentais como sendo a causa de nossos comportamentos. Em
Ryle encontramos a proposta de desfazer a própria idéia de mente pela supressão do ghost
in the machine – uma supressão que seria atingida pelo expurgo lingüístico das chamadas
transgressões categoriais.
No seu artigo Empiricism and the Philosophy of Mind (1963), Sellars retraça, de
modo alegórico, como teria surgido o conceito de mente.1 Em tempos primordiais, numa
comunidade mítica, um indivíduo chamado Jones começou por observar os
1 Ver meu livro Mente, Cérebro e Cognição para uma exposição mais detalhada desta história.
80
comportamentos verbais de seus companheiros. De início, ele notou que todas as frases e
sentenças usadas pelos seus companheiros se referiam apenas a coisas e eventos públicos,
ou seja, observáveis por todos. Mas Jones, como bom filósofo, resolvera que seria bom
expandir e enriquecer essa linguagem para que ela pudesse se tornar um instrumento eficaz
para identificar seres pensantes no mundo – ou seja, que essa linguagem pudesse nos
distinguir como seres dotados de pensamentos, intenções, desejos e sensações.
O primeiro passo dado por Jones foi criar a semântica. Nossos ancestrais míticos
passaram então a caracterizar seus comportamentos verbais a partir de uma perspectiva
semântica, introduzindo a idéia não apenas de que as sentenças que eles proferiam deviam
ter um significado como também a de que elas poderiam ser ou verdadeiras ou falsas. A
idéia de significado, introduzida por Jones, marcou uma distinção inicial entre linguagem e
pensamento, pois proferir sentenças deixa de ser um comportamento para tornar-se a tarefa
de expressar o que essas pessoas estariam pensando – aquilo que se passava nas suas
cabeças e não poderia ser observado diretamente. A expansão da linguagem, através da
invenção da semântica, teria sido o passo preliminar para se postular a existência de algum
tipo de entidade não-observável.
A partir daí os membros dessa comunidade mítica puderam formular a hipótese de
que talvez o comportamento lingüístico observável fosse causado por essas entidades não-
observáveis que seriam os pensamentos. A linguagem passa então a poder comportar
teorias, construídas a partir dessas entidades não-observáveis: teorias acerca do mundo e
acerca do comportamento. A expansão da linguagem teria engendrado uma expansão da
ontologia dessas criaturas primevas.
Jones pôde então conjeturar que o comportamento de seus conterrâneos poderia ser
guiado por essas entidades não-observáveis – os pensamentos – e que estes poderiam
ocorrer mesmo quando nenhum tipo de sentença estivesse sendo proferida. Seus
companheiros poderiam então “pensar” sem que “pensamento” implicasse em algum tipo
de manifestação verbal ou comportamental. O intervalo entre uma ação e outra, o silêncio
entre uma palavra e outra, passaram a ser vistos como o estágio preliminar onde estariam
ocorrendo processos internos (não-observáveis) na cabeça das pessoas – processos que
culminariam com a produção de um comportamento ou de uma sentença. Estes processos
internos ou pensamentos, porém, assumiriam o formato da linguagem: pensar seria produzir
81
um discurso interno, silencioso. A expansão da linguagem engendra então a possibilidade
de que Jones possa formular uma teoria acerca do comportamento de seus companheiros –
uma teoria baseada em processos não-observáveis. Mas o que poderia resultar desta teoria?
Dela resultou um novo modo de descrever o comportamento – sobretudo nosso próprio
comportamento.
Esta história se inicia num momento no qual ainda não há linguagem e nem
qualquer teoria acerca do comportamento das pessoas. Ou seja, quando não há ainda
nenhum outro método de saber o que os outros estariam pensando a não ser a partir da
observação de seus comportamentos. O indivíduo A observa o indivíduo B e olhando seu
comportamento infere que “B está pensando em p”. O indivíduo B se olhasse para seu
próprio comportamento e verificasse que este era idêntico ao comportamento de A faria o
mesmo tipo de inferência, concluindo “Estou também pensando em p”. Inicialmente, o
modo como B descrevia seus processos internos, baseava-se numa comparação entre o
comportamento de seus companheiros e seus próprios comportamentos. Uma comparação
na qual B projetava para si mesmo o que via ocorrer com os outros.
Mas B pôde ser treinado a ponto de pode dizer no que ele estava pensando sem ter
de observar seu próprio comportamento. Neste momento ocorre uma mudança radical: à
medida que nossos ancestrais começaram a poder dizer no que eles estavam pensando sem
ter de observar seu próprio pensamento, surge a idéia (ou a teoria) de que nós temos um
acesso privilegiado aos nossos próprios pensamentos. O que nós pensamos passa a ser
aquilo que nós dizemos que estamos pensando – e isto pode não corresponder aos nossos
comportamentos. Esta mudança radical – que teria ocorrido com nossos ancestrais – seria
não só o surgimento da crença de que temos um acesso privilegiado aos nossos
pensamentos como também a crença de que somos a autoridade máxima acerca de nossos
pensamentos – mesmo que estes estejam em franca contradição com o comportamento que
poderia corresponder a eles. Instaurava-se a primazia de nossos relatos introspectivos, a
despeito de qualquer evidência comportamental contrária a eles.
O cenário está, então, completo. Jones - que não é apenas um filósofo, mas também
um pregador, o reverendo Jones - passa a espalhar a boa nova e treinar seus conterrâneos
para assimilar sua teoria. Este treinamento consiste basicamente em convencer seus
companheiros da primazia dos relatos introspectivos sobre as evidências comportamentais.
82
Para isto, duas técnicas foram adotadas. Em primeiro lugar Jones procurou convencer seus
conterrâneos da inexistência de qualquer ligação conceitual ou lógica entre esses estados
internos inobserváveis (os pensamentos) e seus comportamentos correspondentes. Com
isto, abria-se o espaço necessário para considerar estes pensamentos como dotados de uma
existência independente, autônoma. A segunda técnica consistiu em convencer seus
companheiros – em caráter definitivo - da verdade primeira, ou seja, da primazia dos relatos
introspectivos sobre qualquer evidência comportamental contrária. Feito isto, estas
entidades inescrutáveis (os pensamentos) passaram a ganhar vida própria, ou seja, uma
“realidade efetiva”, que não se resumiria a uma simples suposição teórica ou uma hipótese.
A teoria se sobrepôs à realidade e deixou de ser teoria, ou seja, passou a ser mais real que o
comportamento e a percepção. Ao final do treinamento, se houvesse uma evidência
comportamental que conflitasse com o relato introspectivo de um dos membros da
comunidade, prevaleceria este último. Assim sendo, quando os membros dessa comunidade
passaram a acreditar que o que eles estavam pensando era aquilo que eles supunham ou
diziam estar pensando e o relato introspectivo passou a ser tomado como auto-evidente,
surgiu a idéia de mente.
A idéia de mente surgiu de uma inversão fundamental propiciada pela expansão da
linguagem, que, segundo Sellars, triunfo dos relatos introspectivos sobre o comportamento
e a percepção. Palavras e relatos introspectivos tornaram-se, ao longo deste treinamento,
mais reais do que o mundo observável. A própria idéia de “primeira pessoa” e de “acesso
privilegiado” teriam sido forjadas pela linguagem. O treinamento ao qual Jones teria
submetido sua comunidade teria sido transmitido a seus descendentes até chegar a nós,
formando comunidades que acreditam que mentes não seriam apenas uma invenção
lingüística. A teoria de Jones teria se consolidado na forma de psicologia, uma disciplina
que, entretanto, herdaria todas as dificuldades de tratar a mente como sendo uma realidade
e não apenas um incidente produzido por uma expansão exagerada da linguagem. Essas
dificuldades se expressariam, inevitavelmente, na incapacidade da psicologia – e mais tarde
da própria filosofia da mente – em relacionar mente com comportamento.
Mas a alegoria de Sellars não termina aqui. Jones teria sido bem sucedido num
primeiro momento ao fazer prevalecer o relato introspectivo sobre o comportamento e
inventar a mente. Só por isto ele teria razões de sobra para se orgulhar de sua façanha.
83
Contudo, num estágio posterior ele teria querido refinar sua teoria e transformá-la numa
autêntica ciência. Ele teria querido encontrar correlatos objetivos, neuronais, de suas
entidades inobserváveis e tornar sua teoria uma ciência do cérebro. Mas, ao voltar-se para
esta nova tarefa, ele já não podia mais se desvencilhar da própria linguagem que ele criara –
a linguagem com todas as expansões para uma semântica e para uma teoria do
comportamento baseada em entidades inobserváveis. Esta linguagem o afastara tanto do
mundo e da percepção direta deste que já não era mais possível confiar nela. Nem para
dizer o que de fato existe, nem para dizer como o mundo é. Talvez não fosse mais possível
fazer nenhum tipo de ciência a partir desta linguagem, mas agora era tarde demais. Jones se
achou num caminho sem volta – um caminho que fez com que o mito da mente
prevalecesse até hoje. Este mito teria sido herdado pela filosofia da mente, que se propôs,
sob a forma do problema mente-cérebro, a reconciliar aquilo que seria irreconciliável: o
vocabulário mentalista com a linguagem da neurofisiologia. Uma tarefa vã, típica de quem
abraça seriamente um problema mal formulado ou um pseudoproblema, por desconhecer
suas origens.
Muito antes de Sellars, e seguindo uma linha de pensamento algo diferente, Ryle já
sugerira que a idéia de mente resulta de uma armadilha armada pela nossa própria
linguagem – uma armadilha da qual se derivariam todos os problemas (ou
pseudoproblemas) da filosofia da mente. No seu livro mais conhecido, The Concept of
Mind (1949), Ryle ataca as filosofias da mente de inspiração cartesiana que estariam
cometendo o erro de postular a existência de um ghost in the machine, ou seja, a idéia de
que existiria algo mais para além de um conjunto de comportamentos e disposições que
observamos nos agentes; algo como uma substância subjacente a suas manifestações.
Postular a existência dessa substância ou desse fantasma teria ocasionado uma série
infindável de problemas com os quais a filosofia da mente se debate, na sua maioria
problemas insolúveis ou pseudoproblemas acerca da natureza do mental e sua relação com
o cérebro e com o mundo físico.
Ryle supôs que a tarefa primordial da filosofia da mente seria a de exorcizar o
fantasma da máquina, mostrando que ele é apenas uma ilusão – uma ilusão cujas raízes
estão na linguagem e no seu uso. Seria o uso indiscriminado ou inapropriado do
vocabulário psicológico que nos induziria a supor a existência dessa substância mental
84
subjacente. Ou seja, ao usar inadvertidamente nossa linguagem cotidiana, freqüentemente
transpomos termos do vocabulário físico e os aplicamos na construção de um vocabulário
mental, gerando, com isto a ilusão implícita de que o mental é uma entidade ou algum tipo
de substância com existência independente e não um conceito que agrupa um conjunto de
comportamentos e disposições. A isto Ryle chamou de transgressão categorial ou category
mistake. O próprio uso metafórico do vocabulário físico para se referir a operações mentais
teria contribuído para que a linguagem engendrasse a idéia de que a mente deve ser algum
tipo de substância subjacente ao conjunto de comportamentos e disposições – algum tipo de
substância que não poderia, entretanto, ter propriedades físicas.
A terapia lingüística proposta por Ryle desvencilhar-nos-ia deste fantasma na
máquina e, assim fazendo, dissolveria o principal problema da filosofia da mente, qual seja,
o problema mente-cérebro, que se tornaria um pseudoproblema, uma espécie de charada
sem sentido que buscaria atribuir o equivalente de propriedades físicas a um conceito.
II
Que diferenças há entre o bergsonismo e estas filosofias para além de um pano de
fundo comum que as inscreve numa tentativa de desvendar a ontologia do mental a partir
da linguagem? Se para Sellars e Ryle a ontologia do mental é um sub-produto ou uma
excrescência da linguagem, o mesmo não ocorre para Bergson. Observamos no
bergsonismo um movimento que corre na direção oposta das filosofias da mente de Sellars
e de Ryle: se a linguagem engendra a mente, isto não quer dizer que a esgote. Da análise
lingüística do mental não podemos inferir uma equivalência entre mente e linguagem; uma
equivalência que seria dada pelo caráter essencialmente construtivo do vocabulário mental
e do próprio conceito de mente. A visão redutiva de Sellars e de Ryle que assimila a mente
à construção lingüística não teria considerado que a linguagem já é, por si só uma
manifestação do mental e que, neste sentido, explicar a ontologia do mental pela linguagem
inscreve-nos no risco de uma petitio principii onde se estaria pressupondo a natureza
daquilo que se quer explicar. Da linguagem não se engendra a mente, pois a primeira
precisaria, de antemão, uma mente que a engendre – eis aqui o círculo vicioso no qual
estariam incorrendo os filósofos da mente que se apoiaram na análise da linguagem
85
ordinária. Um círculo vicioso que só pode surgir à medida que se toma como pressuposto
que o mental e sua manifestação lingüística se equivalem, estando igualmente acessíveis.
Da crítica da linguagem e do vocabulário psicológico Sellars e Ryle partem para a
supressão da idéia de mente e, desta, para a dissolução dos problemas da filosofia da mente
que se tornariam pseudoproblemas. Se a mente é apenas um construto lingüístico e se se
assume uma implícita equivalência entre mente e linguagem – onde esta última revelaria a
ontologia do mental na sua plenitude – nada mais nos restaria do que algum tipo de
epifenomenismo ou uma pseudo-ontologia que teria como conseqüência aparentemente
inevitável a adoção de algum tipo de behaviorismo (Sellars) ou “behaviorismo brando” (no
caso de Ryle). Este, certamente, não poderia ser o percurso de Bergson. A supressão da
ontologia própria do mental não seria uma conseqüência inevitável da análise lingüística –
o que marcaria uma diferença acentuada entre bergsonismo e a filosofia da mente de
tradição analítica.
Mas, ao que pesem as diferenças, há também alguma comunhão quanto aos
resultados da análise lingüística. Bergson também veria os problemas da filosofia da mente
como pseudoproblemas, embora alcançando esta conclusão por uma via diferente. A
filosofia da mente, ao forjar a noção de estado mental, teria ignorado que o mental, em seu
dado imediato da duração, é continuamente heterogêneo, o que impediria sua discretização
na linguagem. Ao tomar o mental por sua manifestação já revestida pela linguagem, onde já
se teria operado sub-repticiamente a espacialização do tempo, a filosofia da mente teria
incorrido no erro de identificar descrição com objeto da descrição – um erro que já era
apontado por Bergson no seu Essai sur les données immédiates de la conscience (1889).
Deste erro típico teriam surgido todas as maratonas tão apaixonantes quanto estéreis que
percorrem a filosofia da mente contemporânea, onde se buscam incessantemente os
correlatos físicos (ou neurofisiológicos) de estados mentais, ou seja, de construtos gerados
pela discretização do mental operada pela linguagem.
É no Essai sur les données immédiates de la conscience, que são lançadas as bases
de toda a filosofia da mente desenvolvida por Bergson. É neste mesmo texto que
encontramos uma crítica à digitalização da mente operada pela linguagem. A posição
bergsoniana nessa questão se inicia pela distinção entre a consciência e sua expressão em
linguagem. O que escapa às compreensões semelhantes às de Sellars e Ryle é que os
86
objetos não são dados, mas vividos e experienciados por meio de relações que os
constroem. Nos pólos dessas relações estão um mundo exterior e uma consciência que a ele
se dirige, pela necessidade de viver.
No texto de 1889, Bergson assume a tarefa de demonstrar a característica não-
quantitativa da intensidade dos estados emocionais, de tal modo que, diversamente de uma
quantidade numérica, na qual o número menor está necessariamente contido num número
maior, não nos é dado construir uma tristeza profunda de uma coleção de pequenas
tristezas. Esse tipo de intensidade não pode ser decomposta em partes menores ou atômicas,
não pode ser quantizada, nem espacializada2.
Por outro lado, a linguagem é sempre expressão e, nesse sentido, espacialização de
processos mentais. A linguagem não cria o significado, nem a semântica, ao contrário, o
significado está condensado na consciência, que procura conhecê-lo pela expressão. Tal
momento do significado, anterior à sua expressão, é múltiplo, heterogêneo, plurívoco, é a
consciência em processo e mudança, irredutível a tempo e a espaço homogêneos, é a
duração compacta, nos termos bergsonianos.
Certo que não se pode negar a vantagem em expressar e coordenar por meio de
linguagem o que o organismo vive em nível de instinto, como expressão da vontade ou
impulso de viver, que se organiza pela inteligência. Entretanto, não se pode daí concluir
que o organismo possa conter todo o pensamento e estabelecer, pelo instinto e o organismo
que o vive, o completo paralelismo entre cérebro e consciência.
Nesse passo, Bergson é radical: o cérebro consegue mimetizar o processo da
consciência de forma limitada e a prova disso é a insuficiência da linguagem ao expressar a
intuição, sendo sempre incompleta e frustrante3.
Podemos considerar a possibilidade de o cérebro ser uma máquina de linguagem,
uma joycean machine, na expressão de Dennett (1991), este discípulo de Ryle. Porém isso
apenas reflete a exigência sobre o cérebro de se reportar ao mundo externo, natural e social,
de tal modo que a linguagem, mais que criação é, na maior parte do tempo,
condicionamento.
2 Bergson, H. Ensaios, p.12 ss.3 BERGSON, H. Lénergie spirituelle. Genève, Albert Skira, 1946.p.53.
87
Sendo assim, reduzir a consciência ao cérebro, reduzir a mente à linguagem e fazer
do cérebro uma máquina lingüística é um caminho curto para uma espécie de determinismo
da consciência pelo ambiente lingüístico-social e, deste modo, a afirmação de uma
consciência sem liberdade.
A pergunta que devemos fazer à alegoria de Sellars é: o que leva Jones a observar o
comportamento verbal de seus colegas? E por que ele cria o mito do significado?
Admitamos que Jones seja apenas um idealista bastante doente. Ele não é somente a presa
de uma armadilha lingüística. Ele é a presa de um sonho: compreender o significado das
coisas. Tal desejo precede a própria descoberta do significado. Ele o tem ao se posicionar
de uma forma diferente ante o comportamento lingüístico de seus amigos. Ele não tem
outro meio senão a linguagem para expressar suas observações, então, suas considerações
sobre a questão do significado são uma primeira metalinguagem sobre a linguagem
cotidiana de seus amigos.
Porém, agora, Sellars passa a observar o comportamento lingüístico de Jones(!).
Como Jones é uma criação sua, Sellars acredita ter um acesso privilegiado à sua
consciência. Tal não é verdade: Sellars pode fazer uma metalinguagem de segunda ordem
sobre Jones, como nós podemos fazer uma de terceira ordem sobre Sellars, mas Sellars não
pode viver a consciência de Jones. A metalinguagem não é o vivido, é uma hipótese sobre o
vivido na consciência.
A intuição não é uma forma de acesso privilegiado à consciência. A consciência tem
uma função biológica: ela institui a representação do eu, que é uma forma de representação
útil para a sobrevivência do organismo. O "eu" de Jones não é acessível a Sellars, nem a
mais ninguém. Mesmo que Jones queira expressá-lo em linguagem a outros, descobrirá que
algo se perde ao dilatar no espaço a duração interna de sua consciência.
Na duração compactada, intuída, não há o pensamento discreto, mas a
heterogeneidade de todos os significados possíveis. A chave não está em que a intuição
possa ser correta ou incorreta, medida pelo comportamento. A liberdade está na
individualidade da consciência, já que a duração vivida por Jones é irrepetível por Sellars, a
menos que Sellars seja - e não apenas imagine ser - Jones4.
4 BERGSON, H. Ensaios. pp.121-127. (Capitulo III-Comentario sobre Mill)
88
Deste modo, a ontologia do mental, é uma ontologia em primeira pessoa. Se o eu
tem que expressar o si-mesmo em linguagem, não poderá fazê-lo em termos universais ou
impessoais.
Não deve causar admiração o fato de Sellars e Ryle se posicionarem pela não-
existência da mente e pelo behaviorismo: não é possível compreender o mental por estados
descritos pela linguagem, porque o mental é um processo uno, heterogêneo e indivisível em
estados. Ao representar o mental em estados ele já foi espacializado - não temos mais o
mental, mas a sua representação.
O mental precede o eu da linguagem e, como aponta Bergson, o eu-livre raramente
aparece, já que o eu da linguagem é o que mais é exigido pelo meio social. Daí a
dificuldade em realizar e caracterizar atos genuinamente livres. Entretanto, a função social
da linguagem não elimina a construção necessária do eu para a manutenção da vida.
Outro aspecto que se deve apontar na ontologia do mental bergsoniana é que, ao
fundar o eu na duração e distingui-la de sua expressão espacializada, Bergson apresenta
uma solução que consegue descrever a situação de suspensão da consciência na
heterogeneidade ante o mundo exterior sem recurso ao irracionalismo, como, por exemplo,
entendendo essa suspensão como angústia tal como encontramos no pensamento
heideggeriano. É de se ressaltar que o bergsonismo, consistindo numa forte crítica ao
behaviorismo, não se excede a ponto de fazer a consciência romper rumo ao absurdo ou ao
irracional, como no existencialismo. A intuição é o fundamento da razão, não sua
antagonista.
III
Ao tentarmos reconstruir o que teria sido uma ciência cognitiva bergsoniana não
poderíamos deixar de começar pela crítica do modelo computacional da mente ou da
chamada inteligência artificial Simbólica (IA-simbólica). A mente entendida como máquina
sintática que manipula representações encontra apoio na tradição analítica do linguistic turn
onde o mental e a linguagem se equivalem. Neste sentido, não foi por acaso que a ciência
cognitiva, quando dominada pelo paradigma simbólico, estabeleceu uma aliança com a
89
filosofia analítica, atribuindo a esta última uma espécie de paternidade filosófica putativa –
uma paternidade que serviria para fundamenta-la como empreendimento científico.
A IA simbólica é o melhor exemplo de espacialização do tempo ou de
homogeneização da duração através da constituição de uma linguagem formal que
substituiria processos mentais contínuos por estados mentais discretizados, que podem
então ser apresentados numa seqüência do tipo partes extra partes. A digitalização da
mente é o pressuposto da representação simbólica do mental ou do representacionalismo
que sustenta, por sua vez, o modelo computacional da mente defendido pelos partidários da
I.A. – o modelo que, na década de 70 levou a supor que poderíamos replicar a mente
através de uma combinação mágica de símbolos obtida por algum tipo de programa
computacional.
Na ciência cognitiva da década de 70 predominou uma concepção do
funcionamento mental onde este era definido como um conjunto serial de computações
efetuadas sobre representações simbólicas. A idéia de representação mental identificada
com símbolo não estava distante da noção de idéia cartesiana, definida por imagem
intelectual ou da semiótica lockeana que concebia as “idéias” como signos. Mas não foi
apenas a idéia da representação mental identificada com símbolos (ou “imagens
intelectuais”) que foi herdada pela IA dos anos 70. Ela herdou também – talvez sem
perceber ou a contragosto – a pressuposição do ghost in the machine, a mesma
pressuposição que fazia com que Descartes reconhecesse as limitações dos autômatos,
limitações principiais que os impediriam de vir a ter uma vida mental semelhante a nossa
por mais que a tecnologia pudesse avançar.
O problema do ghost in the machine reaparece nas criticas a IA esboçadas no início
dos anos 80, sob a forma do argumento intencional ou o argumento do quarto do chinês
desenvolvido por J. Searle (1980). O problema da intencionalidade ou do significado como
algo indissociável de uma consciência (seja esta resultado de um fantasma oculto ou da
atividade biológica dos organismos como queria Searle) não constitui uma efetiva crítica da
IA no sentido forte: ele é menos uma ruptura do que a constatação natural dos limites da
computação simbólica; um desdobramento natural da tradição cartesiana herdada pela IA
dos anos 70.
90
A alternativa ao ghost in the machine seria buscar o significado na própria espessura
da linguagem – ou buscá-lo na imitação do comportamento lingüístico pura e
simplesmente. Esta última opção seria justificável por concepções behavioristas – como,
por exemplo, o behaviorismo de Sellars ou o “behaviorismo brando” de Ryle. Uma
justificação que, entretanto, sempre trouxe uma sensação de estranheza ou de decepção. A
mesma estranheza que sentimos ao compararmos o “Deep Blue” com um enxadrista
humano e reconhecer que, apesar desta máquina poder jogar xadrez melhor do que um
campeão, nunca poderíamos sequer aquilatar o que é ser como o Deep Blue, isto é, não
conseguirmos sequer imaginar o que é privar-se da perspectiva de um eu-semântico.
A espacialização do tempo está também na raiz dos paradoxos e das limitações
internas dos formalismos que serviram de máquina de guerra para críticos contundentes da
IA, como, por exemplo, R. Penrose (1994). Estas críticas recapitulam aquilo que os
próprios fundadores da ciência da computação já tinham demonstrado: que o limite da
computabilidade está na possibilidade de algoritmização e que há problemas e situações
que não podem ser tratadas algoritmicamente, na medida em que não podem ser
homogeneizadas por estados definidos. Algoritmização significa representação
discretizada, que permitiria uma passagem do contínuo e não-enumerável para o discreto e
enumerável. Toda representação, para ser computável, deverá ser algorítmica, e todo
algoritmo implicará, de algum modo, discretização de passos e instantes.
Os limites da algoritmização – reconhecidos por Gödel, Turing e retomados por
Penrose - são os limites da representação discretizada que confinam a razão nos paradoxos
do enumerável e impedem o salto para uma intensidade qualitativa, que seria dado pela
“intuição matemática”. O mesmo ocorre com a medida do tempo, o tempo mecânico tão
criticado por Bergson, que precisa ser reduzido a infinitésimos para que se possa conceber
matematicamente a velocidade instantânea mas “então este tempo do instante, este intervalo
instantâneo de tempo, não é mais um número, mas fruto de uma intuição ou noção interna”.
Já no Essai sur les données immédiates de la conscience Bergson assinalava que
“ Será inútil aumentar o número das simultaneidades….
Os paradoxos que resultam das tentativas de enumerar o não-enumerável se
assemelham àqueles de Zenão, que queria dividir o movimento e o tempo em instantes.
91
Ora, se não é na IA simbólica que podemos encontrar o projeto de uma ciência
cognitiva bergsoniana, onde poderemos encontrá-la? A resposta está na ciência cognitiva
dos anos 90, que passa a incorporar a profunda crítica à noção de representação
empreendida pela filosofia contemporânea. Os anos 90 presenciam o abandono do
representacionalismo e do modelo computacional da mente e sua substituição progressiva
por uma nova concepção de cognição que não privilegia mais seu aspecto simbólico. A
cognição passa a ser concebida como fenômeno biológico, resultante da ação de sujeitos
encarnados sobre o mundo que os cerca. (Varela, F. et alia 1995). A estratégia
metodológica da ciência cognitiva se inverte: em vez de partir dos símbolos para depois
buscar sua base na ação e na percepção, investiga-se como estas últimas podem produzir a
atividade simbólica.
Nesta concepção, significado, consciência e inteligência estão ligados a vantagens
evolutivas: a cognição é uma aquisição pragmática que deve atender nossas necessidades
para viver e agir no meio ambiente. Ataques a uma visão abstrata e intelectualista da
natureza da inteligência encontramos em várias passagens da Évolution Créatrice (1907),
sobretudo no seu primeiro capítulo.6
Nestas passagens se esboçam as concepções bergsonianas de inteligência e
cognição, concebidas a partir de sua concretude originária que as liga inextricavelmente à
ação. Ação que se manifesta, inicialmente, como movimento muscular e como
autolocomoção que compõem o solo primitivo do “eu-semântico”. Neste sentido, ação e
percepção encontram-se originariamente ligadas e dependentes entre si; a última
constituindo um modo privilegiado para o ser vivo selecionar informação relevante acerca
de seu meio ambiente. Nosso aparelho cognitivo, desde as formas mais básicas de
percepção até as operações mais complexas e abstratas da inteligência remete-nos a ações
mesmo que esta – como ocorre no caso da linguagem – ocorram apenas na qualidade de
“ações virtuais” de uma matriz de possibilidades. (Moore, 1996, p.51).
Esta concepção de inteligência e de cognição aproxima Bergson de movimentos
recentes na ciência cognitiva, como é o caso, por exemplo, da robótica de R. Brooks
(Nouvelle AI). Brooks privilegia como elementos fundamentais para a simulação da
6 Ver, por exemplo, L´Evolution Créatrice p. 528 e seguintes.
92
cognição e da inteligência a construção de robôs móveis (agentes autônomos ou Creatures)
situados ou imersos diretamente no meio ambiente através de uma corporeidade que os
permite experienciar o mundo ao qual eles reagem. Este novo projeto científico para a
ciência cognitiva implica em privilegiar a corporeidade e a autolocomoção em detrimento
dos símbolos e representações. Corporeidade e autolocomoção cuja importância para o
conhecimento do mundo já fora assinalada por Bergson nas páginas iniciais de Matière et
Mémoire (1896).
Brooks é um crítico feroz do representacionalismo que, segundo ele, constitui um
grande equívoco cuja persistência não mais se justifica. Não menos severas são as críticas
de filósofos da mente contemporâneos que apostam na autolocomoção como ponto de
partida para a explicação da natureza da cognição e da consciência. S-Johnstone (1999),
apenas para citar mais um, critica concepções desencarnadas (disembodied) da consciência
e da cognição que impediriam que se retraçasse uma história evolucionária de sua
formação.
O reconhecimento do papel da corporeidade e da autolocomoção para a explicação
da percepção e da inteligência e a cognição tem levado a uma profunda reorientação dos
pressupostos sobre os quais se baseia o programa de pesquisas da ciência cognitiva dos
anos 90. A crítica da noção tradicional de representação, que acompanha o declínio do
modelo computacional da mente tem forçado a ciência cognitiva a buscar novas parcerias
filosóficas afastando-a, progressivamente, da filosofia analítica. Ultrapassar a concepção de
mente como máquina sintática significa resgatar a inserção da inteligência no mundo e,
com ela, a espessura intencional da cognição e da linguagem. Se parte principal da agenda
da ciência cognitiva dos últimos anos inspira-se na fenomenologia e busca “reunificar
cérebro, corpo e mundo” investigando o solo pré-representacional que liga a mente com o
mundo, é preciso não esquecer que esse solo primitivo é, antes de qualquer coisa, o
domínio do pré-proposicional, do eu-semântico anterior a discretização operada pela
linguagem.
Bibliografia e Referências
93
Bergson, H. (1889/1988) Ensaio sobre os dados imediatos da consciência. Lisboa: Edições
70.
Bergson, H.( 1919/1946 ) L'Energie spirituelle. Genève: Skira.
Bergson, H. ( 1896/1990) Matéria e Memória . São Paulo: Martins Fontes.
Bergson, H. (1907/1970) Levolution Créatrice Paris: Presses Universitaires de France.
Brooks, R. (1991) “Intelligence without Representation” Artificial Intelligence: 47: 139-
159
Dennett, D. (1991) – Consciousness Explained Boston:Little, Brown.
Gomes, P. de T. (2001) – Tempo e Consciência Londrina: Editora da FUEL.
Moore, F.C. T. (1996) – Bergson: thinking backwards Cambridge, MA: Cambridge
University Press.
Penrose, R. (1994) The Emperor´s New Mind Oxford: Oxford University Press.
Ryle, G. (1949) – The Concept of Mind New York: Barnes & Noble.
Searle, J. (1980) – “Minds, Brains and Programs”. Behavioral and Brain Sciences, 3 p.
417-424.
Searle, J.(1994) The Rediscovery of the Mind. Cambridge, Mass., MIT Press.
Sellars, W. (1963/1991) – “Empiricism and the Philosophy of Mind” in Science Perception
and Reality. Atascadero, CA.: Ridgeview Publishing Company.
Sheets-Johnstone, M. (1999) – The Primacy of Movement. Amsterdam: John Benjamins.
Teixeira, J. de F. (1996) – “A Ciência Cognitiva para além da representação”. São Paulo:
Coleção Documentos, Instituto de :Estudos Avançados da USP.
Teixeira, J. de F. (2000) – Mente, Cérebro e Cognição. Petrópolis: Vozes.
Varela, F. et alia (1995) – The Embodied Mind Cambridge, MA: The MIT Press.
.
94
95