A Inteligência Artificial e o Sul Global

Publicado a
Atualizado a

Os últimos meses podem ser recordados como o momento em que a inteligência artificial (IA) preditiva se tornou a tendência dominante. Embora os algoritmos de previsão estejam em uso há décadas, o lançamento de aplicações como o ChatGPT3 da OpenAI , e a sua rápida integração com o mecanismo de pesquisa Bing da Microsoft, pode ter aberto as portas para a IA de fácil utilização. Poucas semanas depois do seu lançamento, já o ChatGPT3 tinha atraído 100 milhões de utilizadores por mês, muitos dos quais, sem dúvida, já vivenciaram o seu lado sombrio - dos insultos e ameaças à desinformação e uma capacidade demonstrada de escrever códigos maliciosos.

Os chatbots que estão a gerar títulos nas capas dos jornais são apenas a ponta do iceberg. A IA para a criação de texto, discurso, arte e vídeo está a progredir rapidamente, com implicações de longo alcance para a governação, comércio e vida cívica. Sem surpresa, o capital está a inundar o setor, com governos e empresas a investir em startups para desenvolver e implantar as mais recentes ferramentas de aprendizagem automática. Estas novas aplicações combinarão dados históricos com aprendizagem automática, processamento de linguagem natural e aprendizagem avançada para determinar a probabilidade de acontecimentos futuros.

Decisivamente, a adoção do novo processamento de linguagem natural e IA generativa não se limitará aos países ricos e a empresas como a Google, a Meta e a Microsoft que lideraram a sua criação. Essas tecnologias já se estão a difundir em contextos de baixo e médio rendimentos, onde a análise preditiva para tudo, desde a redução da desigualdade urbana até à abordagem à segurança alimentar, é uma gigantesca garantia para governos, empresas e ONG sem dinheiro que procuram melhorar a eficiência e desbloquear benefícios sociais e económicos.

O problema, no entanto, é que não se deu atenção suficiente às potenciais externalidades negativas e aos efeitos não intencionais dessas tecnologias. O risco mais óbvio é que ferramentas preditivas poderosas sem precedentes irão reforçar a capacidade de vigilância dos regimes autoritários.

Um exemplo bastante citado é o "sistema de crédito social", da China, que usa o historial referente a créditos, condenações criminais, comportamento online e outros dados para atribuir uma pontuação a cada pessoa no país. Essas pontuações podem determinar se alguém pode obter um empréstimo, o acesso a uma boa escola, viajar de comboio ou de avião e assim por diante. Embora o sistema da China seja anunciado como uma ferramenta para melhorar a transparência, também funciona como um instrumento de controlo social.

No entanto, mesmo quando são utilizadas por governos democráticos aparentemente bem-intencionados, empresas focadas no impacto social e organizações sem fins lucrativos progressistas, as ferramentas preditivas podem produzir resultados abaixo do ideal. Erros de design nos algoritmos subjacentes e conjuntos de dados tendenciosos podem originar violações de privacidade e discriminação com base na identidade. Isso já se tornou um problema visível na justiça criminal, onde a análise preditiva perpetua de forma rotineira as disparidades raciais e socioeconómicas. Por exemplo, um sistema de IA desenvolvido para ajudar os juízes dos EUA a avaliar a probabilidade de reincidência determinou erroneamente que os réus negros correm um risco muito maior de reincidência do que os réus brancos.

As preocupações sobre como a IA pode aprofundar as desigualdades no local de trabalho também estão a crescer. Até à data, os algoritmos preditivos têm aumentado a eficiência e os lucros de forma a beneficiar diretores e acionistas à custa dos trabalhadores comuns (principalmente temporários e independentes).

Em todos estes exemplos, os sistemas de IA estão a oferecer à sociedade um espelho que distorce as imagens, refletindo e ampliando os nossos preconceitos e desigualdades. Tal como a investigadora de tecnologia, Nanjira Sambuli, constata, a digitalização tende a exacerbar, em vez de amenizar, os problemas políticos, sociais e económicos que já existiam.

O entusiasmo em adotar ferramentas preditivas tem de ser equilibrado com uma análise informada e ética dos seus efeitos intencionais e não intencionais. Sempre que os efeitos de algoritmos poderosos forem contestados ou desconhecidos, o princípio da precaução desaconselhará a sua implantação.

Não podemos deixar que a IA se torne outro domínio onde os decisores pedem perdão em vez de permissão. É por isso que o Alto Comissariado das Nações Unidas para os Direitos Humanos e outras figuras pediram moratórias na adoção de sistemas de IA até que os quadros éticos e de direitos humanos sejam atualizados para contabilizar os seus possíveis danos.

Elaborar os quadros apropriados exigirá chegar a um consenso sobre os princípios básicos que devem identificar o design e o uso de ferramentas preditivas de IA. Felizmente, a corrida pela IA conduziu a uma vaga de trabalhos de investigação, iniciativas, institutos e redes de ética. E embora a sociedade civil tenha assumido a liderança, entidades intergovernamentais como a OCDE e a UNESCO também estão envolvidas.

A ONU tem trabalhado no desenvolvimento de padrões éticos universais para a IA desde, pelo menos, 2021. Além disso, a União Europeia propôs uma lei de IA , o primeiro esforço desse tipo levado a cabo por um grande regulador, que bloquearia certos usos (como aqueles semelhantes ao sistema de crédito social da China) e submeteria outras aplicações de alto risco a requisitos e supervisão específicos.

Até ao momento, esse debate tem-se concentrado predominantemente na América do Norte e na Europa Ocidental. Mas os países de baixo e médio rendimentos têm as suas próprias necessidades básicas, preocupações e desigualdades sociais a serem consideradas. Existem variadíssimos estudos que mostram que as tecnologias desenvolvidas por e para mercados nas economias avançadas são muitas vezes inadequadas para as economias menos desenvolvidas.

Se as novas ferramentas de IA forem simplesmente importadas e amplamente utilizadas antes de as estruturas de regulamentação necessárias serem implementadas, podem facilmente causar mais danos do que benefícios. Todas essas questões têm de ser tidas em conta, se quisermos formular princípios verdadeiramente universais para a regulamentação da IA.

Reconhecendo essas lacunas, o Instituto Igarapé e a New America estabeleceram recentemente um novo Grupo de Trabalho para Análise Preditiva de Segurança e Desenvolvimento. O Grupo de Trabalho reunirá defensores dos direitos digitais, parceiros do setor público, empreendedores do setor tecnológico e cientistas sociais das Américas, África, Ásia e Europa, com o objetivo de definir os primeiros princípios para o uso de tecnologias preditivas na segurança pública e no desenvolvimento sustentável no Sul Global.

Formular esses princípios e padrões é apenas o primeiro passo. O maior desafio será mobilizar a colaboração e coordenação internacional, nacional e subnacional necessária para implementá-los na lei e na prática. Na corrida global para desenvolver e implantar novas ferramentas preditivas de IA, as estruturas de prevenção de danos são essenciais para garantir um futuro seguro, próspero, sustentável e centrado no ser humano.

Robert Muggah, co-fundador do Instituto Igarapé e do Grupo Secdev, é membro do Futuro Conselho Global de Cidades do Amanhã do Fórum Económico Mundial e consultor do Relatório de Riscos Globais.

Gabriella Seiler é consultora no Instituto Igarapé e sócia e diretora da Kunumi.

Gordon LaForge é analista sénior de políticas da New America e professor da Escola de Administração Global Thunderbird da Arizona State University.

© Project Syndicate, 2023.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt