Temamos uma AI geral e, sobretudo, uma superinteligência

Publicado a

Nos próximos anos deveremos assistir ao aparecimento de inúmeros agentes de inteligência artificial (AI) para tarefas/áreas específicas –TI/programação, saúde, química, finança, gestão, militar, etc – que deverão trazer benefícios para a vida das pessoas e para as empresas. Estas AI especializadas – sejam elas grandes mestres de xadrez, especialistas em cuidados médicos, em análise de risco de crédito bancário ou em aplicações financeiras em bolsa – não comportam grande risco para a humanidade. Porém, quando passamos a considerar uma AI geral (AGI) – uma AI que poderá (ainda não existem, mas os responsáveis das principais empresas desenvolvendo AI asseveram estar para breve) realizar qualquer tarefa intelectual que um ser humano pode fazer, capaz de entender, aprender e aplicar conhecimento de maneira semelhante à inteligência humana, i. e., uma AI capaz de raciocinar logicamente e resolver problemas e adaptar-se a novas situações de forma autónoma, executando tarefas complexas de forma eficiente e eficaz, sem necessidade de intervenção humana direta – os riscos para a humanidade já são sérios: (i) perda de controle e superação da inteligência humana; (ii) autonomia [sem intervenção humana] e imprevisibilidade da sua conduta; (iii) viés algorítmico, afetando a justiça e a igualdade; (iv) riscos de segurança: vulnerabilidade a ataques cibernéticos ou uso para fins maliciosos; (v) substituição de empregos humanos; (vi) desafios éticos, como a responsabilidade por decisões tomadas pela AI e a proteção de dados pessoais; (vii) riscos de manipulação de informações e de influência indevida de decisões humanas; (viii) desenvolvimento de armas autónomas.

Os riscos tornam-se existenciais quando uma AGI se tornar uma Superinteligência, i.e., quando uma (ou múltiplas) AGI superar significativamente a inteligência humana em todos os aspetos, incluindo criatividade, resolução de problemas e habilidades sociais – incluindo raciocínio, aprendizagem, criatividade e capacidade de adaptação – sendo capaz de realizar tarefas complexas de forma mais eficiente e eficaz do que os seres humanos, podendo potencialmente criar novas soluções e inovações que não apenas ultrapassam a capacidade humana, mas podendo tomar decisões e ações que não estejam alinhadas com os valores e objetivos humanos. Em bom rigor, é duvidoso que mesmo humanos qualificados consigam compreender o raciocínio de uma Superinteligência, seja por limitações cognitivas humanas, seja pela complexidade no processamento de informações e na tomada de decisões, seja pela diferença de perspetiva que torna o seu raciocínio alienígena.

Porque constitui uma Superinteligência um risco existencial para a humanidade? Porque a história mostra o que sucede a seres menos inteligentes, quando em confronto com outros mais inteligentes.

Consultor financeiro e business developer www.linkedin.com/in/jorgecostaoliveira

Diário de Notícias
www.dn.pt