Até que ponto os principais conflitos da atualidade, na Ucrânia e no Médio Oriente, são já exemplos da transformação dramática dos campos de batalha devido à Inteligência Artificial (IA)?Esses conflitos focam dois paradigmas diferentes da IA. O governo israelita qualificou o conflito Israel-Palestina ou Israel-Hamas como a primeira guerra de IA. As forças armadas desenvolveram dois modelos de IA (Lavender e The Gospel), que são sistemas de apoio à decisão do comandante militar. Processam toda a informação pessoal que se possa ter de eventuais terroristas para oferecer ao comandante militar onde é que uma pessoa, classificada como membro do Hamas, se localiza e a que horas, como e onde deve ser eliminada. Oferece quase a operação militar completa, pois diz que o terrorista se encontra em casa, no quarto, sozinho, e por isso pode ser eliminado neste momento. Estes sistemas são exclusivamente baseados em machine learning e de alguma forma autónomos, pois processam toda a informação sozinhos..E alimentados pelos nossos próprios metadados.As pessoas têm imenso medo da IA, mas esquecem-se de que esta vive de nós. Ou seja, de toda a informação pessoal que introduzimos na Internet, naquilo que chamamos ciberespaço. Falam do ciberespaço como se fosse outro planeta, mas é o espaço onde toda a nossa informação pessoal fica arquivada. Aquilo que consultamos num computador, as operações de compra na internet, tudo isso fica gravado. Fornecemos os dados que vai trabalhar, e isso permite antecipar comportamentos. Até hoje, perguntávamos à IA como resolver os problemas. Nos últimos anos, com o desenvolvimento da inteligência artificial generativa (AIG), esta pode descobrir problemas que nem sabíamos ter. Por exemplo, os terroristas, por definição, disfarçam-se de civis. Não andam com uma etiqueta. Pelo nível de dados a que a Internet tem acesso, pelas comunicações que se fazem,a IA pode vir a dizer que o seu vizinho, com quem vai ver futebol ao domingo, é terrorista..Que violações do direito humanitário são potenciadas por este novo paradigma?Para ser honesto, quase nenhuma. Segundo o direito da guerra, há dois princípios fundamentais. Um é o princípio da distinção, ou seja, quando ataco tenho que saber quem é, não posso matar um civil, só posso matar combatentes e atacar objetos militares. Se reparar, com o acesso a esta informação toda, a IA oferece maior qualidade e eficácia nos ataques. Até promete ser mais discriminatória, no sentido que distingue quem é quem e o que é que é o quê, e portanto ser mais eficaz. Há autores que vão mais longe: dizem que é mais limpa, no sentido de que há menos danos civis..Paradoxalmente mais humana? Efetivamente, há autores que dizem que pode ser mais humana. Mas a IA tem problemas e vantagens associados ao domínio em que é aplicada. Qual é o problema da IA no campo da guerra? Os algoritmos que processam estes dados todos fazem-no a uma velocidade louca e nunca vamos ter a certeza absoluta de que o resultado que propõem é o justo. Isto levanta problemas de responsabilidades muito graves, no sentido de a quem é que vou atribuir o erro que IA cometeu, que é um crime de guerra se mato a pessoa errada. E ainda mais grave é o problema da atribuição. Neste nível de algoritmos, muitas vezes chamados de deep learning, é impossível sabermos porque o algoritmo chegou àquele resultado e não a outro. E esse problema é muito grave no domínio da guerra. Estamos a falar de ataques e de possíveis consequências para pessoas inocentes..E quais são as implicações da IA na Guerra da Ucrânia? Levanta-nos outro problema ainda muito pouco falado e que vou lançar na conferência sobre IA e a democracia. É um fenómeno completamente novo: até 2022, todas as operações que o exército ucraniano fazia no terreno dependiam da IA via satélite, que lhes era dado pela Starlink. Ora, temos pela primeira vez um privado, que não é uma entidade governamental, a fornecer informação e dados ao governo de outro país para efeitos militares. Mas está documentado que o senhor Elon Musk recebeu um telefonema do embaixador russo nos Estados Unidos, em que basicamente lhe disseram que se continuasse a oferecer esta ajuda ao exército ucraniano, o governo russo levantava a possibilidade de uma ameaça nuclear. E o senhor Elon Musk deu uma entrevista em que disse que, ponderando as possíveis consequências, suspendeu totalmente as operações da Starlink com o exército ucraniano, que, de repente, de 2022 até à data, se viu despido de toda a informação que lhe estava a ser dada, e que lhe permitia sucesso militar. Quais são os problemas que temos aqui? Temos o problema de como é que um indivíduo, por mais rico e poderoso que seja, está a decidir a vida futura de um Estado. Isto nunca aconteceu na História. E agora é consultor da próxima administração dos Estados Unidos, enquanto a Europa quase toda depende da Starlink para efeitos de defesa. Nenhum governo europeu consegue competir com a qualidade e a eficiência dos satélites que a Starlink tem neste momento no Espaço. Está a chegar a cerca de dois mil satélites, e já prometeu que em 2030 terá cerca de cinco mil. Isto levanta outro problema, que é os nossos dados serem explorados por privados, sem as restrições que um governo costuma ter..É lírico pensar que no futuro possa haver um tratado de não proliferação de sistemas autónomos de guerra, como há de armamento nuclear? E com os grandes efeitos que tem esse tratado, não é? Desde 2014 existe um organismo chamado Convenção para as Armas Convencionais, que iniciou reuniões com 82 Estados, se não estou em erro, para se decidir o futuro das armas autónomas. Há 28 países que neste momento defendem uma proibição preventiva, ou seja, que nem sequer possam ser desenvolvidas, e temos do outro lado sete países que claramente são os mais industrializados em termos de armamento e que querem estas armas a serem desenvolvidas. Estamos a falar dos Estados Unidos, Rússia, China, Austrália, Coreia do Sul, Itália e Brasil. Estes países têm ameaças, quer internas, quer externas, e encontram na IA um mecanismo de proteção que não encontram em mais lado. Portanto, pensar que vamos conseguir parar o desenvolvimento de sistemas autónomos, sejam de guerra ou não, acho impensável. Parece-me que os Estados vão caminhar para uma maior regulamentação de sistemas autónomos de guerra, mas penso que não vai haver proibição. Estes sistemas autónomos de guerra dependem dos satélites, dependem da Internet para as comunicações, e vão ser muito vulneráveis a ataques cibernéticos também. E nenhum Estado vai utilizar sistemas autónomos que sejam vulneráveis ao ponto de se virarem contra o próprio Estado que os empregou. Portanto, são os primeiros interessados numa IA suficientemente forte, que lhes permita que os sistemas não se voltem contra os Estados que os desenvolveram. Neste momento, o interesse dos Estados é regulamentar. Um problema grave que surge é o do terrorismo, que não tem este tipo de preocupações..De qualquer forma, não se pode levar um algoritmo ao Tribunal de Haia.Mas podemos levar - é a minha posição, nem toda a gente concorda, mas é por onde tenho vindo a desenvolver a minha investigação - os programadores e podemos levar o Estado, se os programadores fizerem parte das Forças Armadas. Temos empresas privadas a trabalhar para o Estado, e depois temos também os próprios Estados que têm indústrias estatais. Por exemplo, a China e a Rússia não têm empresas privadas deste âmbito. Penso que temos de caminhar para um novo paradigma de responsabilidade, que é a responsabilidade individual por negligência na matéria da IA. Isso é uma coisa que é difícil porque não sei se os Estados vão aceitar algo desse género..E no que toca à militarização do Espaço, quais são os principais desafios que se colocam nas áreas que investiga? Temos um tratado de 1967, no qual se define que os Estados só podem desenvolver atividades no Espaço para o bem da Humanidade, pelo que está excluído qualquer tipo de conflito armado, embora seja permitida a investigação militar. Mas nos últimos anos foram desenvolvidas armas anti-satélites. E, se hoje tivermos um satélite afetado, milhares de pessoas ficam sem comunicações. Basicamente, temos a capacidade de destruir todo o sistema de comunicação de um Estado. Isto está regulamentado? Sim, está. Mas temos uma potência, como a Federação Russa, que viola de forma muito grave as regras mais básicas do direito ao uso da força entre Estados. Não há preocupação da parte da Rússia se está ou não de acordo com o Direito Internacional. Por mais sanções que tenham sido aplicadas, tem vindo a viver como um Estado à parte.