Regular ou não regular a AI

Publicado a

Muitos proselitistas da Inteligência Artificial (AI) opõem-se tenazmente à regulação do setor, com argumentário vário: (i) limitação da inovação (a regulação excessiva pode limitar a inovação e o desenvolvimento da AI, prejudicando o potencial de crescimento económico e a melhoria da qualidade de vida); (ii) dificuldade de regulamentação (a AI é uma tecnologia complexa e em constante evolução, tornando difícil para os governos criar regulamentações eficazes e atualizadas); (iii) risco de violações (a regulação pode não ser capaz de prevenir completamente os abusos da AI, e até criar novas vulnerabilidades); (iv) custo e complexidade (a implementação e manutenção de regulamentações podem ser caras e complexas, especialmente para pequenas empresas e start-ups). Os tecno-oligarcas da indústria pugnam fortemente pela auto-regulação. “As novas tecnologias trazem frequentemente novos desafios e cabe às empresas garantir que construímos e implementamos produtos de forma responsável”, disse Mark Zuckerberg, CEO da Meta, ao Senado dos EUA em 2023, defendendo a auto-regulação em torno da AI: “somos capazes de criar salvaguardas nestes sistemas”. A mesma mantra – “a auto-regulação é importante” – é repetida por Sam Altman, CEO da OpenAI, embora ressalve que “o mundo não deve ser deixado inteiramente nas mãos das empresas, dado o que acreditamos ser o poder desta tecnologia”. 

A favor da regulação da AI , encontramos bons argumentos: (i) proteção dos direitos humanos (garantir que a AI seja desenvolvida e utilizada de forma a proteger direitos de autor, proteção de dados, privacidade, práticas laborais justas e não discriminação); (ii) prevenção de abusos (prevenir a violação de direitos humanos, ou utilizações que afetem a segurança pública – como deepfakes generativos, a criação de armas químicas e biológicas e ataques cibernéticos); (iii) promoção da confiança (garantindo que as tecnologias sejam desenvolvidas e utilizadas de forma transparente e responsável); (iv) incentivo à inovação responsável (garantindo que as empresas desenvolvam tecnologias que sejam seguras e benéficas para a sociedade). 

A China (em 2023), a UE (em 2024) e a Coreia do Sul (em 2025) já aprovaram legislação regulando AI; o Canadá, o Brasil e outros países ultimam legislação, assim como a OCDE e a UNESCO.  

A Índia adia a decisão para facilitar a captação de investimento em AI. A atual liderança americana, que chegou ao poder em conúbio com os principais tecno-oligarcas, opõe-se à regulação, e tenta interferir no processo decisório de outros países sob a estafada bandeira da “perseguição a empresas americanas”. 

A guerra em torno da regulação – e da sua finalidade, escopo, flexibilidade, equilíbrio e coordenação internacional – é decisiva na evolução da nossa sociedade e dela muito vai depender no devir próximo. 

Consultor financeiro e business developer

www.linkedin.com/in/jorgecostaoliveira

Diário de Notícias
www.dn.pt