Estive recentemente a corrigir o trabalho de uma aluna, sendo evidente para mim o recurso ao Chatgpt na redação de parte do texto. Não se vai conseguir fazer desaparecer por artes mágicas a utilização da Inteligência Artificial (IA) por parte de alunos do ensino superior, sendo necessário que o sistema de aprendizagem seja reformulado, atendendo a esse tipo de instrumento. Por exemplo, ler, melhorar e criticar textos produzidos pela IA em comparação com outros textos científicos e fontes de informação poderá ser uma estratégia possível com alunos do ensino superior e secundário. Com crianças mais pequenas que estão a dominar a leitura e a começar a produzir de textos, o recurso precoce a instrumentos de inteligência artificial terá, sem dúvida, consequências negativas no domínio das competências de literacia. Tal não invalida a utilização da IA para conceber atividades pedagógicas ajustadas ao perfil de dificuldades de cada criança. O desafio do professor e pedagogo é dominar com precisão a natureza dessas dificuldades para pedir ajuda à Inteligência Artificial na criação de melhores instrumentos pedagógicos.O verdadeiro problema que a IA pode trazer já vinha enunciado em Macbeth. Em Macbeth, matar o rei é matar o espírito, é o homem querer ser Deus. O mundo moderno começa a parecer-se com uma enorme peça povoada por Macbeths, na medida em que será difícil controlar uma ferramenta que os próprios criadores não dominam completamente. A Inteligência Artificial é sustentada pela quantidade infinita de dados tratados nos processos de treinamento e pelo aumento exponencial da capacidade dos computadores cujos parâmetros de computação aumentaram na ordem dos biliões. Estamos neste caso a falar de inteligência generativa com capacidade para gerar novos algoritmos e pode fazer com que dispositivos e inteligência artificial se possam tornar autónomos. A IA não é apenas mais uma nova ferramenta tecnológica, é um instrumento capaz de inventar conteúdos novos e que está longe de estar devidamente regulada.Estamos, portanto, a entrar numa era em que a Inteligência Artificial pode abranger inúmeros domínios. Já existem, por exemplo, aplicativos para a saúde mental e em que os pacientes têm conversas significativas com o Chatbot. Nesta e noutras dimensões começam a existir estudos sobre a natureza das relações que se estabelecem com esses "terapeutas digitais". "Somente as coisas tocadas pelo amor das outras têm voz", dizia Fiama Hasse Brandão. Será mesmo assim no futuro? Ou melhor, como será o amor do futuro quando as pacientes demoram cinco dias a estabelecer uma ligação a estes algoritmos de ajuda. Eis uma área de investigação que a psicologia clínica terá obrigatoriamente de se responder.O peso dos algoritmos na vida de todos nós começou a fazer-se sentir com as apps e plataforma digitais. Não fazemos as compras da mesma maneira nem nos relacionamos da mesma maneira e muitos de nós passámos a considerar que só poderíamos ter vida quando esta fosse registada em fotos e vídeos no Facebook ou no Tik Tok. Neste contexto, as pessoas estão a perder, pouco a pouco, a capacidade de conversar. A tecnologia em vez de nos ligar, afastou-nos.Poder-se-ia pensar que a facilidade de acesso e a quantidade de informação que circula estaria associada a mais conhecimento. O que os últimos anos demonstraram é que pura e simplesmente esta asserção é falsa, tanto mais porque muito da informação que circula na internet é baseada em deturpações. Os algoritmos de Facebooks, Tik Toks são no fundo, formas primitivas de IA que modelam o mundo ao condicionar o que vemos em primeiro lugar e de forma repetida. Estes algoritmos primitivos tinham como objetivo fazer com que pessoas passassem mais tempo nas redes de forma a fazerem mais negócio com dados ou anúncios. No seu livro Nexus, Harari refere que a forma mais fácil de criar envolvimento é criar conteúdos que geram receio e ódio e com estes algoritmos o mundo tem sido invadido por teorias da conspiração por ódios e medos. Os preconceitos e estereótipos que invadem os algoritmos começam a impor-se na divulgação de ideais xenófobos, racistas e discriminatórios. Tal facto reflete-se na forma como as pessoas constroem crenças, fazem juízos sobre os outros ou escolhas políticas. Mas não só, quando é a IA a analisar currículos para empregos ou a fazer escolhas sobre os critérios de concessão de empréstimos por parte de um banco, os mesmos estereótipos acabam por ser determinantes, como foi demonstrado em alguns estudos. Também aqui a investigação em cognição social é fundamental para contrariar esta tendência.No clássico de Mary Shelley, a criatura criada por Victor Frankenstein afirma que já terá sido benevolente e bom, mas que a infelicidade o transformou num demónio. Se não queremos que os demónios se espalham de forma indiscriminada é bom que a sua natureza seja claramente apreendida e aí a investigação no domínio da psicologia poderá ser particularmente relevante. Escritora e Professora do Ispa – Instituto Universitário