Estamos a entrar numa era em que rapidamente a Inteligência Artificial (IA) se vai tornar omnipotente. Já existem, por exemplo, no campo das terapias psicológicas, aplicativos para a saúde mental em que as pessoas têm conversas significativas com o Chatbot. Nesta e noutras dimensões começam a existir estudos sobre a natureza das relações que se estabelecem com esses companheiros digitais. "Somente as coisas tocadas pelo amor das outras pessoas têm voz", afirmava a poeta Fiama Hasse Brandão. Será mesmo assim no futuro? Ou melhor, como será o amor do futuro quando os pacientes demoram cinco dias a estabelecer uma ligação a estes algoritmos de ajuda.O poder do mundo digital começou a fazer-se sentir há bastante tempo. Já não fazemos compras da mesma maneira nem não nos relacionamos da mesma maneira e muitos de nós passámos a considerar que só poderíamos ter vida quando esta fosse registada em fotos e vídeos no Facebook ou Tik Tok. E ao navegar de forma tão assídua nestes universos digitais, as pessoas começam a perder pouco a pouco a capacidade de conversar.A construção da realidade depende sempre da informação e da forma como esta é organizada e categorizada. Por exemplo, o peso que certos canais como o CMTV onde só se apresentam reportagens de criminalidade tem na perceção de insegurança, sobretudo entre os mais velhos, é enorme, mesmo quando os dados estatísticos não vão nesse sentido. Poder-se-ia pensar que a facilidade de acesso e a quantidade de informação que circula estaria associada a mais conhecimento. O que os últimos anos demonstraram é que pura e simplesmente esta asserção é falsa, tanto mais porque muito da informação que circula na internet é deturpada. Os algoritmos em Facebooks e Tik Toks são, no fundo, formas primitivas de IA que modelam o mundo ao condicionar o que vemos em primeiro lugar e de forma repetida. Estes algoritmos primitivos tinham como objetivo fazer com que as pessoas passassem mais tempo nas redes de forma a fazerem mais negócio com dados ou anúncios. No seu livro Nexus, Harari refere que a forma mais fácil de criar envolvimento é criar conteúdos que geram receio e ódio e com estes algoritmos o mundo tem sido invadido por teorias da conspiração por ódios e medos.Como é evidente a IA está, também, a integrar e a modelar os processos educativos. Por exemplo, facilita a produção de materiais didáticos adaptados aos perfis educativos individuais de cada aluno. Já são utilizados chatbots que permitem tirar dúvidas e se constituem como assistentes virtuais à aprendizagem com feedback imediato às tarefas educativas e aos testes. Tal como já estão a ser criados ambientes colaborativos digitais para a resolução conjunta de problemas. Além de que podem ser de grande auxílio aos professores em tarefas administrativas. Se estes progressos são positivos e permitem aumentar o acesso à educação, sobretudo em países em que os recursos são menores, existem também vários riscos e desafios associados à utilização da IA na educação.O excessivo recurso à IA para gerar conteúdos pode deteriorar, ao longo do tempo, processos e capacidades de pensamento. Neste contexto não só é necessário sensibilizar os jovens para as questões éticas como os produtos gerados por Chatgtp e afins devem ser utilizados em contextos educativos como base de reflexão e de aprofundamento para melhorar textos ou aprofundar informação e não como base de produção de trabalhos. Caso contrário corre-se o risco de as aprendizagens serem cada vez mais superficiais. Além disso, a importância dos afetos e das relações interpessoais para a aprendizagem nunca deve ser superada por tutorias de IA sob pena de nos tornarmos cada vez menos humanos. Escritora e Professora do Ispa – Instituto Universitário