Melvyn Goodale. "O pensamento sem ação seria apenas um cérebro numa jarra"

Diretor interino do Instituto de Neurociência na Universidade de Ontario Ocidental (Canadá) e conceituado especialista da neurociência visual explica ao DN porque é que defende, ao contrário do que é senso comum, que a principal função do cérebro não é pensar.
Publicado a
Atualizado a

Melvyn Goodale esteve em Portugal a participar numa conferência sobre "Centralidade da Neurociência Cognitiva para a Investigação na Psicologia", organizada pela Universidade de Coimbra.

O Melvyn defende que o cérebro não é uma máquina ao serviço do pensamento, mas sim da ação. Isso não contraria o que é alegadamente a nossa marca registada neste mundo? Sermos racionais...
Acho que o objetivo principal do cérebro é permitir-nos agir no mundo em que estamos. Porque se não agirmos no mundo, não o mudamos de forma alguma. E a seleção natural da espécie, o fato de uma pessoa ser reprodutivamente mais bem sucedida do que outra, depende das suas ações. O facto de uma pessoa ser capaz de capturar uma presa e detetar um possível parceiro melhor do que outras faz com que seja selecionada para projetar os seus genes no futuro. Essa é a única maneira de o cérebro evoluir, se puder mudar o mundo de uma maneira adaptativa. Pensar e percecionar são funções importantes do cérebro, mas estão apenas ao serviço da ação. Porque se estivermos apenas a pensar, sem agir, somos só um cérebro numa jarra.

É um neurocientista visual. Quando nos interrogamos sobre por que precisamos da visão, o senso comum diz-nos que é um meio de perceção do que nos rodeia. Estamos errados?
A visão é absolutamente útil para fazer tudo isso: entender o mundo, classificar objetos, distinguir entre coisas que podemos comer e coisas que não podemos comer, reconhecer familiares, se podemos ou não pular sobre aquele riacho, planear trajetos, olhar para o telemóvel e tentar seguir o Google Maps... a visão é, de facto, incrivelmente importante para essas coisas. Mas a visão também é importante para isto [agarra um copo]: pegar num objeto. E, de facto, um dos meus argumentos é que isto [agarrar] é uma função muito mais primitiva e fundamental da visão. As pessoas fizeram uma suposição... até neurocientistas que estudam o cérebro também caíram nessa armadilha de pensar que a visão oferece um tipo de representação geral do mundo e nós usamos essa representação tanto para entendê-lo quanto para interagir com ele. Eu diria que isso está errado. Eu diria que perceber o mundo e entender o que são as coisas é um processo que envolve diferentes mecanismos e diferentes regiões do cérebro, bem mais complexo do que simplesmente usar a visão para alcançar algo e interagir com o mundo, principalmente com as mãos.

Então, o primeiro objetivo da visão é controlar os movimentos, ação, e não percecionar o mundo?
Acho que a visão evoluiu inicialmente como um sistema para proporcionar um controlo da distância nos movimentos: mover em direção a algo ou afastarmo-nos de algo. Reconhecer objetos veio muito mais tarde na escala evolutiva.

O senhor e o seu colega David Milner defendem que temos não um sistema visual, mas dois sistemas com funções diferentes.
Dentro do córtex cerebral temos seguramente dois sistemas visuais diferentes, que são muito interativos. Eles interagem, mas fundamentalmente fazem computações bem diferentes no que respeita à forma como a informação visual é apresentada aos olhos. Se olharmos para o sistema visual como um todo, não apenas para o córtex cerebral, há todo o tipo de coisas que a visão faz por nós. Como controlar os ritmos circadianos ou controlar a postura... há muitas coisas diferentes que a visão faz por nós. Mas no córtex cerebral, há duas áreas visuais iniciais e cada uma delas processa informações muito diferentes. Há uma corrente dorsal [dorsal stream] muito ligada ao nosso sistema motor e que nos permite controlar os membros, apanhar objetos. E uma corrente ventral [ventral stream] mais relacionada com a memória, interações sociais, tomada de decisões, que é exatamente o que a perceção nos ajuda a fazer: decidir.

E cada um deles pode trabalhar independentemente do outro, segundo um estudo seu com doentes que sofrem de agnosia visual.
Tomámos conhecimento de uma paciente, uma mulher, DF, que é do Reino Unido, mas estava a viver em Itália e teve a infelicidade de ir morar numa casa que tinha um quarto de banho com um sistema de aquecimento de água antigo e com ventilação inadequada. Consequentemente, acumulou-se monóxido de carbono no quarto de banho, DF estava a perder oxigénio e parte do seu cérebro morreu durante aquele episódio. Felizmente, ela não morreu, porque o marido encontrou-a no chuveiro e foi com ela para o hospital. Quando ela saiu do coma, estava incapaz de reconhecer objetos com base na sua forma. Ela não conseguia diferenciar um prato de uma chávena com base na forma, nem mesmo dizer se algo estava na vertical ou na horizontal. Mas, surpreendentemente, a determinada altura, perante um lápis segurado na vertical, ela disse 'deixe-me dar uma olhada nisso' e agarrou-o perfeitamente. A sua mão estava orientada de forma correta, apesar de ela não conseguir dizer se o lápis estava na vertical ou na horizontal. A corrente dorsal, aquela que controla as ações, parecia estar a funcionar, mas a corrente ventral, que lhe permitia reconhecer as formas, e se algo era vertical ou horizontal, claramente não. Esse foi um primeiro vislumbre dessa dissociação realmente notável entre o uso das formas (de um objeto, pessoa, coisa) para a perceção de algo e o uso dessas formas para determinar uma ação. São cálculos diferentes para serem realizados pelo cérebro. Tivemos um reforço dessa conclusão mais tarde, colocando-a num scanner cerebral e comprovando não só que essa doente tinha a sua corrente ventral do sistema visual danificada, pois essas áreas do cérebro não foram ativadas por objetos de formas diferentes, mas também que a corrente dorsal funcionava como numa pessoa normal, pois essa área foi ativada quando ela foi solicitada a agarrar objetos.

Então, as nossas mãos têm os seus próprios "olhos"?
Exatamente. A sua mão sabe aquilo que você não sabe.

E são menos suscetíveis a erros de perceção como a chamada ilusão de Ebbinghaus. Pode explicar-nos o que é isso?
Há uma série de ilusões a que chamamos contextuais ou ilusões pictóricas, com as quais todos estamos familiarizados na vida quotidiana. Por exemplo: se estiver ao lado de um jogador de basquetebol muito alto, posso parecer mais baixo do que se estiver ao lado de uma pessoa baixa. Nós tendemos a fazer julgamentos relativos das coisas. Mas quando queremos interagir com um objeto, não queremos levar isso em conta. É importante que calculemos o tamanho real do objeto no qual queremos pegar. A corrente dorsal do sistema visual (a que controla a ação) é muito menos suscetível a essas ilusões contextuais do que a corrente ventral.

E sobre o que percecionamos visualmente, o nosso cérebro apresenta-nos apenas fragmentos do mundo real ou a imagem inteira?
Fazemos muitas suposições ao nível da perceção. Quando estou aqui a olhar para si, estou ciente de que estou numa sala e sinto-a, embora não esteja a olhar diretamente para ela. A minha perceção é preenchida pelo meu conhecimento prévio e pelas minhas expectativas de como o mundo é. Vivemos numa espécie de mundo virtual, ao nível da perceção, construído a partir de várias informações, sensoriais (bottom-up) e de contexto (top-down), que nos ajudam a ter uma sensação de presença num determinado lugar. Nós construímos a nossa própria realidade.

Já conhecemos a arquitetura completa do sistema visual?
Se fosse esse o caso, aqueles de nós que trabalham nesta área já teriam ganho o Prémio Nobel. Não, acho que estamos muito longe disso. Fizemos muitos progressos nos últimos 200 anos, mas ainda temos um longo caminho a percorrer para desembalar tudo isto [aponta para o cérebro]. As pessoas que estão a criar sistemas visuais artificiais e sistemas de ação artificiais, como a Inteligência Artificial e a Robótica, já avançaram muito mais em coisas sobre reconhecimento de objetos e esquemas cognitivos do que no campo do movimento e controlo de ação. Temos máquinas como Deep Blue ou Watson, coisas de IA construídas pelo homem e que podem vencer qualquer grande mestre humano no xadrez. Mas não temos robôs tão hábeis quanto, digamos, uma criança de 6 anos que pode alcançar uma peça de xadrez e movê-la. É muito mais difícil para os robôs fazer isso. A emulação da corrente ventral nas máquinas é muito mais avançada do que a da dorsal.

Qual é o maior mistério ainda por desvendar neste campo?
O maior mistério - desde sempre, penso -- é como é que conseguimos ter uma experiência visual consciente do mundo. O que é que isso significa? O fato de eu estar ciente de que estou a ter esta experiência de estar aqui, a vê-lo e a falar consigo. Aquilo que liga a informação visual com a consciência experiencial... é o que torna a vida tão rica. Esse é o maior mistério.

Olhar para o mundo é um aspeto fundamental da consciência humana. Mas falta perceber ainda como a informação capturada pelo sistema visual é convertida em consciência e pensamento?
Fazer os cálculos para sistemas de Inteligência Artificial diferenciarem entre um copo e um prato é fácil. Mas ter a experiência consciente disso, simplesmente não temos ideia de como acontece, de como o cérebro cria o nosso mundo consciente. Isso faz-me ter inveja dos meus alunos, porque estamos a fazer progressos nessa área, com o desenvolvimento de várias novas tecnologias com imenso potencial que não existiam no meu tempo. A neurociência visual é um campo tão excitante agora.

Diria que podemos confiar naquilo que vemos como sendo a realidade, ou, de fato, a maior parte do que vemos é uma ilusão?
O meu amigo e colega Anil Seth, um neurocientista britânico, diz que, em certo sentido, temos uma alucinação controlada do mundo. E que criamos a nossa própria realidade. Eu acho que há uma relação entre o que está lá fora e o nosso cérebro, mas a riqueza dessa realidade depende, em parte, da atividade no nosso cérebro, não apenas da informação sensorial que entra.

Porque é que reagimos de maneira diferente a estímulos visuais semelhantes?
Temos diferenças individuais porque dependemos das experiências de cada um com o mundo. Há conhecimentos sobre objetos que são sinalizados pela visão e que têm de ser aprendidos, não são dados imediatamente. A forma é-nos dada imediatamente. Quando olho para o copo, recebo a forma dele, pela física da luz atingindo o meu olho e extraindo essa informação. Mas saber se o copo é feito de vidro ou plástico e, portanto, que as forças a aplicar ao tocá-lo terão de ser diferentes para um copo de plástico ou um copo de vidro, isso depende de uma aprendizagem prévia.

Os olhos -- e o sistema visual -- são uma excelente porta de entrada para o cérebro e para melhor compreender também as suas disfunções, as doenças neurológicas?
Absolutamente. Temos o caso de pacientes como DF, com agnosia visual. Quanto mais entendermos as diferentes formas pelas quais o sistema visual pode ser afetado, mais podemos adaptar técnicas de reabilitação e aproveitar as partes saudáveis do sistema. E os doentes muitas vezes aprendem a fazer isso sozinhos. A paciente DF, por exemplo, aprendeu, até certo ponto, a confiar na sua manipulação inconsciente de objetos. Ela aprendeu a confiar no facto de que pode alcançar um objeto e agarrá-lo, apesar de não ser capaz de dizer qual é. Isso ajudou-a a sentir e entender o que a rodeia. Se ela entrasse nesta sala e tivesse que pegar neste objeto (chávena), sem informação prévia do que é, ela pegaria nele muito bem. Ou seja, ela pegaria nele de forma correta, mas não da forma mais apropriada para tomar um café. Esse é um exemplo de como as correntes dorsal e ventral do sistema visual interagem: eu reconheço este objeto como sendo uma chávena, então vou selecionar a postura de mão adequada para pegar nela. Quando pega um martelo, não o agarra pela cabeça, agarra-o pelo cabo. Porque já está a processar o contexto em que o objeto vai ser necessário.

Um outro estudo seu mostrou evidências de que o córtex visual é importante mesmo para invisuais, adaptando-se a um mecanismo conhecido como ecolocalização. Ou seja, os fenómenos da perceção vêm do sistema visual mesmo quando ele não permite ver?
Isso começou há cerca de 10 anos e foi bastante surpreendente. Nós sabemos que os morcegos e os golfinhos, e outras criaturas, usam ecolocalização. E eu tenho um amigo, Daniel Kish, que administra o World Access For The Blind, uma organização sem fins lucrativos para cegos. O Daniel teve cancro ocular quando era bebé e teve de remover os dois olhos com apenas um ano de idade. Quando ele tinha 18 meses, a mãe começou a perceber que ele fazia o som de um estalido com a boca, que aprendeu sozinho enquanto bebé. Ele estava a usar a informação de retorno, o eco que voltava da interação com as coisas que o rodeavam, para o ajudar a navegar pelo mundo e reconhecer objetos. Ecolocalização. Nós convencemo-lo, a ele e a um colega também cego e ecolocalizador, a fazer uma ressonância magnética ao cérebro enquanto utilizavam esses sons. E descobrimos que o córtex visual deles, que tinha sido privado de qualquer entrada visual, estava agora a ser ativado pelo sistema de ecolocalização, mostrando-se claramente envolvido no processamento desses ecos.

A perceção transmitida pela corrente ventral não é apenas um fenómeno ótico, portanto?
Exatamente. É um tipo de sensor espacial que pode usar informações óticas ou acústicas, ou outras. Na verdade, quase certamente temos uma entrada auditiva no córtex visual. Isso já foi demonstrado em experiências em que pessoas foram vendadas por um grande período de tempo: ao terceiro ou quarto dia, o cérebro já está a processar informações acústicas e de tato em áreas normalmente usadas para processamento visual.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt