“Não pode haver progresso científico sem reflexão ética”
Em 2020, escreveu um ensaio intitulado “As novas tecnologias e os desafios do futuro: uma perspetiva ética”. No documento detalhava que “as novas tecnologias não são mais eticamente neutras”. Julgo que pode ser um bom ponto de partida para esta conversa.
Enquanto eticista considero que não é possível parar o conhecimento científico e a inovação tecnológica. Nem é possível, nem é desejável. A inovação tecnológica é o resultado do espírito criativo do ser humano, não pode ser diabolizada. Faz parte do modo de ser, do estar e do desenvolver do ser humano. No contexto atual, a inovação tecnológica agrega múltiplos interesses, sejam científicos e académicos, interesses económicos e financeiros ou interesses políticos. A investigação científica é cada vez mais exigente em termos de financiamento, congrega equipas multidisciplinares e internacionais. Onde entra a ética nesta questão? Nunca para travar o desenvolvimento e a inovação tecnológica, mas para orientar na garantia de que o progresso científico e tecnológico reverte a favor do bem comum e que não fique refém dos muitos interesses sectários. A reflexão ética olha de uma forma ponderada e prudente para os caminhos que estão a ser seguidos pela inovação tecnológica, procura prever quais são as possibilidades e consequências positivas para serem maximizadas, mas também as potenciais consequências negativas para serem, ou mitigadas, ou prevenidas ou, no mínimo, serem acompanhadas de medidas que visem minimizar os impactos negativos junto das populações.
Da teoria à prática, pode dar-nos um exemplo concreto?
Quando falamos de sistemas de Inteligência Artificial (IA) e o que podem fazer para melhorar a nossa prestação nas várias atividades humanas, temos de atender à velha questão relacionada com os muitos empregos que terminarão. O que fazer com as pessoas que perdem o emprego? Não significa que não avancemos, por exemplo, com supermercados que não têm funcionários, organizados a partir de sistemas inteligentes. Mas temos de considerar que as pessoas que ali trabalharam mantêm o direito a condições de vida dignas. Por isso, façamos acompanhar a inovação tecnológica de medidas sociais, com competências acrescidas para que as pessoas que ficam sem emprego encontrem outros empregos, outras formas de atividade. É a inovação tecnológica que está ao serviço das pessoas e não o contrário. A pessoa é a finalidade, no interesse singular e coletivo. Por isso é que hoje compreendemos que blocos geopolíticos poderosos como a União Europeia (UE), ou o Canada e os Estados Unidos, tenham de partilhar inovação tecnológica com blocos menos poderosos como o africano.
Mas haverá sempre a tentação de deter o conhecimento e, com ele, o poder.
Essa é uma tendência que compreendemos num primeiro nível porque o investimento que foi feito tem de ser rentabilizado. A rentabilização justa não traz problemas do ponto de vista ético. Agora, não pode é ser um reforço do poder dos mais poderosos. Mesmo em termos utilitaristas, se assim quisermos ver, se os poderosos construírem um mundo mais justo, eles próprios beneficiam. Mesmo que seja por egoísmo, vivemos melhor, mais confortáveis e cooperantes, se tivermos sociedades mais equitativas.
Teme que os avanços no campo da IA não estejam a ser acompanhados por legislação que os enquadre?
Precisamos de legislação. Fala-se muito do impacto da legislação que está a ser finalizada sobre IA a nível da Comissão Europeia, Conselho e Parlamento Europeu. Há um amplo acordo. Prevemos que em abril teremos um primeiro regulamento sobre IA. Algumas pessoas consideram que este regulamento poderá vir a limitar a investigação e a aplicação da IA na UE e que ficaremos ainda mais para trás face a blocos que têm estado à frente no domínio da IA, como os Estados Unidos e a China. Não subscrevo essa visão. A maior parte das pessoas vê as virtuosidades de ter uma regulamentação em IA. Esta serve para garantir uma partilha de benefícios e a minimização dos prejuízos. A regulação europeia sobre a IA está aprofundada e estruturada em valores éticos. Vimos que em 2018 a Comissão Europeia criou um grupo de peritos de alto nível, para apontar os grandes princípios éticos que deviam estruturar a legislação.
A que princípios se refere?
São quatro princípios, o respeito pela autonomia humana, a prevenção de danos, a equidade e a explicabilidade. O fundamental é percebermos que a primeira regulamentação, vinculativa do ponto de vista jurídico, sobre IA teve uma fundamentação ética. Agora que está a ser finalizada, é claríssimo que qualquer aplicação da IA terá de obedecer aos princípios e valores fundamentais e aos direitos estabelecidos. É importante dizer que a expetativa da UE é que esta regulamentação se torne um verdadeiro modelo para outros blocos do mundo ocidental, sobretudo os Estados Unidos e o Canadá. E este otimismo não é uma ambição utópica. Ao longo da história da UE, temos vários regulamentos que foram criticados por alguns setores que os diziam restritivos e que depois se vieram a afirmar como paradigmáticos e estão a ser modelo para outros grupos. Dou-lhe três exemplos: em 2010, a regulamentação sobre a utilização de animais para a experimentação científica, depois as diretrizes sobre questões ambientais e alterações climáticas e o RGPD [Regulamento Geral sobre a Proteção de Dados] em 2016.
Como é sabido, um sistema de IA é capaz não só de armazenar e manipular dados, mas também consegue adquirir, representar, e manipular conhecimento. Em seu entender quais são os limites à utilização da IA nas ciências da vida?
Não utilizo a palavra limites. Há a tendência para se falar da ética como impondo limites. A ética não serve para impor limites, pondera caminhos para rentabilização do progresso. Prefiro falar de baias, ou seja, de orientações que nos dizem para ir num determinado sentido. A ética reflete sobre as potencialidades em aberto em função do que é humano, aponta os caminhos que vão ser mais favoráveis para o maior número de pessoas. A ética não cria barreiras ao progresso. Seria indigno para o pensamento filosófico.
Deixe-me colocar a questão de outra forma. A decisão final num sistema de IA terá de ser humana?
Esse é um dos problemas em relação ao qual tem havido grande unanimidade e que está no regulamento da UE. É muito importante que a decisão final seja humana. Isto está em toda a relação ético-jurídica sobre a IA: o ponto de partida e chegada tem de ser humano. Mais do que isso, é preciso que se garanta o princípio da explicabilidade. Ou seja, não basta introduzir uma enormidade de dados de grande qualidade num sistema, sem perceber o processo que trabalhou os dados. Se o princípio da explicabilidade estiver assegurado, temos um processo transparente e teremos a capacidade de atribuição justa das responsabilidades quando algo corre mal. Ou seja, um princípio obriga a que os outros sejam enumerados. Os quatro princípios que referi há pouco são exigidos em todas as iniciativas ético-jurídicas em relação à IA.
Chegámos a um ponto onde se começa a questionar se os robôs poderão vir a ter estatuto moral e jurídico. De que forma pode a ética reposicionar ou orientar esta questão?
Pode. Já temos um robô humanoide desde 2017 na Arábia Saudita com personalidade jurídica. À medica que avançamos nesta convergência entre sistemas de IA e robótica, os humanoides vão tornar-se mais comuns. Em muitas instituições para a terceira idade já existem robôs humanoides, até mesmo em restaurantes. É evidente que à medida que se vão tornando mais comuns na sociedade, como por exemplo ter animais de estimação robóticos e as pessoas criem uma relação afetiva com a máquina, verá uma tendência cada vez maior de alteração do estatuto da própria máquina.
Temos mesmo uma ética das máquinas que se define como “preocupada em adicionar ou garantir comportamentos morais de máquinas feitas pelo homem que usam inteligência artificial”.
Sou bastante critica face a essa expressão. Há uma tendência bastante generalizada da multiplicação ou fragmentação de éticas. Cada vez que uma pessoa quer refletir eticamente sobre uma realidade distinta cria-se uma ética de. Então temos a ética das máquinas, a da IA, a dos animais, a do ambiente, por aí fora. É preciso dar novo contexto a esta questão. Se falarmos sobre toda esta diversidade de éticas é como se estivéssemos a criar éticas à la carte. Isto conduz a uma desvalorização de todas as formas de pensamento ético. Por outro lado, se percebermos que a ética é uma racionalidade do agir humano e que esta seja única e aplicada diferentemente a distintas atividades humanas, aí já posso falar de diferentes éticas aplicadas. Porque compreendo que uma mesma ética que assiste à prestação de cuidados de saúde, depois se especifique em princípios que podem ser diferentes de uma mesma ética aplicada à IA.
Pode esclarecer-nos este ponto?
Sim. Se eu falar em termos éticos na prestação de cuidados de saúde, o grande princípio individual que é o da dignidade humana vai exprimir nos cuidados de saúde o respeito pela autonomia do paciente. Mas se for aplicar a mesma racionalidade ética à IA, dir-lhe-ia que o mesmo princípio da dignidade humana, se vai expressar em termos da obrigatoriedade de atribuir o mesmo estatuto a todas as pessoas. O princípio da justiça social em termos coletivos também é transversal em qualquer tipo de ética que falemos. Neste ponto tenho de ser crítica. Há muita gente que fala do ponto de vista ético sem uma formação especifica na área da ética. Como a ética fala de uma terminologia que é do quotidiano, parece que toda a gente pode fazer uma análise ética rigorosa. Mesmo entre os eticistas, a inovação parece marcar pontos. Se criar uma ética como a das máquinas, serei mais citada do que se falar de ética em inúmeras áreas.
Concorda que deveríamos ampliar a discussão pública de natureza ética da IA e de que forma o podemos fazer?
Sem dúvida. É preciso estarmos muito conscientes na UE e, até me atrevo a dizer, em todo o mundo, exceto talvez na China, onde não há regras dessa natureza, basta pensar na identificação facial em tempo real, que a inovação em termos de IA tem estado profundamente alicerçada na ética. Mas temos muito trabalho para fazer. Importa não perdermos a oportunidade face às vantagens que traz para a sociedade a digitalização. Por exemplo, na prestação de cuidados de saúde, a otimização que pode trazer a nível de recursos humanos, de equipamentos, também financeiros e de gestão. Mas, é através da reflexão ética, simultânea, que se vai compreendendo onde importa atuar do ponto de vista social. As medidas sociais têm de acompanhar a inovação tecnológica. Aliás, aquilo que é a orientação da UE é que os eticistas estejam envolvidos no desenho da inovação tecnológica. Há uma expressão vulgarizada na UE, ethics by design, para que na criação de modelos inteligentes, os eticistas estejam envolvidos para acautelar efeitos deletérios ou acompanhados de medidas sociais mitigadoras. Não pode haver progresso científico sem reflexão ética.
Acesso às conferências:
Link: https://videoconf-colibri.zoom.us/j/91493372463
ID Reunião: 91493372463
A IA e o ensino no dia 28
O ciclo de conferências “Da Inteligência Humana à Inteligência Artificial” prossegue a 28 de fevereiro (18h00) sob o tema “A IA pode mudar processos de ensinar e avaliar alunos?”, com Mário Figueiredo, docente no Instituto Superior Técnico.