As mulheres são o grupo que mais vai ser prejudicado pela invasão da Inteligência Artificial (IA) no local de trabalho. E são também as principais vítimas do algoritmo nos programas de seleção e recrutamento de pessoal. É uma ameaça séria à igualdade e ao equilíbrio social que se perspetiva, se não houver firmeza ao nível legal e consciência das empresas, mas também mudanças de género no acesso à tecnologia, dizem os especialistas ouvidos pelo DN.Segundo um estudo da Goldman Sachs, a revolução da Inteligência Artificial ameaça automatizar cerca de 300 milhões de empregos na Europa e nos Estados Unidos. E as mulheres ocupam quase 80% dos postos de trabalho em maior risco de substituição. “Por isso, só pelo simples facto de haver mais mulheres neste espaço que é afetado – os empregos cognitivos – mais mulheres são afetadas”, disse Mark McNeilly, professor de Marketing na Kenan-Flagler e principal autor daquele estudo.“Enquanto do lado masculino há uma divisão 50-50 entre empregos de colarinho branco [mais administrativo e corporativo] e de colarinho azul [mais físico], no caso das mulheres, 70% estão em empregos de colarinho branco e 30% em empregos de colarinho azul”. Ou seja, no balanço final, “79% das mulheres trabalhadoras estão empregadas em ocupações suscetíveis à interrupção e automação da IA”. Em causa estão os chamados cargos de escritório, em que 70% dos postos de trabalho de apoio administrativo são ocupados por mulheres.Também o Fórum Económico Mundial prevê que até 2027 haverá menos 26 milhões de empregos em funções como administrativos, secretariado, operadores de caixa e responsáveis por processamento de salários, funções tipicamente femininas.Este corte no emprego das mulheres pode vir a afetar muito negativamente a sua capacidade de prosperar até à velhice, afetando a sua carreira contributiva e “exacerbar a lacuna que já existe de 40% de equidade nas pensões”, aponta ainda um estudo da Mercer. Os dados do Global Talent Trends 2024 mostram, por outro lado, que “as mulheres têm menos probabilidade do que os homens de confiar na sua organização para lhes proporcionar um novo emprego ou carreira alternativa se a sua função for eliminada”, refere a autora Radhika Punshi, psicóloga organizacional, co-fundadora e diretora geral da Mercer Talent Enterprise.Alto risco no recrutamentoSe o risco iminente de discriminação de género não é necessariamente inerente à tecnologia – mas à divisão atual das profissões por géneros –, o mesmo já não se poderá dizer da IA quando aplicada aos programas de seleção e recrutamento de pessoal, bem como de promoção de funcionários.“Entramos num campo totalmente novo, uma espécie de caixa negra em que, se deixado à solta, o algoritmo pode enviesar as decisões em função de históricos que reproduzem, por sua vez, o enviesamento do próprio algoritmo”, disse ao DN o jurista Adolfo Mesquita Nunes, com o pelouro da IA na sociedade de advogados Pérez-Llorca, de que é sócio na área de Direito Público e Regulatório. “A IA está a transformar a gestão de Recursos Humanos, sendo usada para recrutar talento, avaliar desempenho, prever taxas de retenção e até personalizar planos de formação. No entanto, quando mal calibrados, estes sistemas podem acabar por excluir candidatos qualificados ou reforçar desigualdades, mesmo sem intenção. Já houve casos de algoritmos que penalizavam injustificadamente currículos de mulheres, por exemplo. Esse e outros casos ilustram como a IA pode, sem intenção, reforçar e automatizar viéses históricos. Neste caso, o que aconteceu foi que o algoritmo foi treinado com dados históricos que refletem padrões de contratação desiguais. Por exemplo, em algumas empresas tecnológicas, o histórico de recrutamento favorecia homens para posições técnicas. Quando a IA analisou esses dados para identificar ‘candidatos ideais’, aprendeu que perfis masculinos eram os mais frequentemente contratados e passou a desvalorizar candidaturas de mulheres, mesmo que tivessem qualificações equivalentes”.Em Portugal, admite-se que as grandes empresas já usem ferramentas de inteligência artificial nos seus processos de seleção para recrutamento. Mas embora a questão esteja oficialmente sinalizada como uma preocupação, ainda não agita muito as águas. “Temos este tema sinalizado, mas ainda não existe matéria de análise porque não nos chegaram queixas concretas”, disse ao DN a presidente da Comissão para a Igualdade no Trabalho e no Emprego (CITE). Carla Tavares lembrou, de resto, que “o Código do Trabalho em vigor já integra, desde 2023, no âmbito da Agenda do Trabalho Digno, a preocupação de que nos processos de recrutamento o algoritmo não tenha um viés de género”.Aquela entidade (com uma composição atípica, entre os Ministérios do Trabalho, Igualdade, e ainda com as organizações patronais e sindicais) coordena o Forum IGEN -CITE, com 74 organizações nacionais e multinacionais, focado no tema da igualdade e onde a abordagem da IA também tem lugar.A Comissão Europeia já adotou igualmente um regulamento para o uso da Inteligência Artificial, em agosto de 2024. O AI Act considera justamente que o uso de sistemas de IA em recursos humanos de talento é de “risco elevado”. Por isso, exige maior transparência e auditoria contínua para evitar que que a IA tome decisões opacas ou discriminatórias sem supervisão adequada.“Se um sistema rejeita sistematicamente candidatos de uma determinada idade, género ou grupo socioeconómico sem justificação objetiva, a empresa pode ser chamada a explicar e, em último caso, ser sancionada”, diz o jurista Adolfo Mesquita Nunes.Só 26% de mulheres na IA“Já existem alguns algoritmos fiscalizadores de outros algoritmos, para auditar o seu funcionamento”, contextualiza Sandra Ribeiro, presidente da Comissão para a Igualdade de Género (CIG). E um desses sistemas foi desenvolvido por um português, quando fazia o seu pós-doutoramento em Machine Learning na Universidade de Chicago, nos Estados Unidos. Pedro Saleiro desenvolveu uma ferramenta de software, a Aequitas, que habilita governos e entidades a detetar enviesamentos nos processos de recrutamento. “Um dos primeiros sinais de alarme soou quando se detetou que após um programa de rastreio e sensibilização da diabetes, no âmbito do Obama Care, se verificou uma baixa generalizada da doença, exceto na comunidade hispânica, onde se mantinha elevada. Descobriu-se que o sistema de chamada era apenas em inglês e só chamava os residentes de origem norte-americana, deixando os hispânicos não falantes de fora”, disse aquela responsável ao DN.“No início da programação havia mulheres, inclusivamente na NASA, mas algo aconteceu a meio do caminho. Por exemplo a gamificação tornou-se muito masculinizada e afastou as mulheres”, exemplificou.Outro lado do problema é a relação desigual que as mulheres têm com a tecnologia face aos homens e que faz com que estejam de fora da própria conceção destes sistemas. “O enviesamento do algoritmo é também o enviesamento de quem o constrói” lembra Ana Pinto Martinho, investigadora do CIES (ISCTE). Por isso, defende “um maior envolvimento das mulheres em todas as facetas da era digital” e o seu encorajamento pelos poderes públicos.Com efeito, a representação feminina no desenvolvimento da IA tem um longo caminho a percorrer. “As mulheres representam apenas 26% do setor e mesmo quando conseguem entrar no mercado são mais propensas a enfrentar discriminação e 65% mais propensas a serem despedidas do que os homens”, refere o estudo da Mercer acima citado. Os 11 riscos da IAMais de mil investigadores e líderes de tecnologia, incluindo o cofundador da Apple, Steve Wozniak, pediram a suspensão do desenvolvimento de sistemas avançados de IA. A carta afirma que as ferramentas de IA apresentam “riscos profundos para a sociedade e a humanidade”. Aqui ficam alguns. TransparênciaA falta de transparência em sistemas de IA , sobretudo no Machine Learning, obscurece os processos de tomada de decisão e a lógica subjacente. DiscriminaçãoOs sistemas de IA podem perpetuar ou amplificar inadvertidamente os preconceitos da sociedade devido a dados de treino tendenciosos ou design algorítmico. Para minimizar a discriminação é crucial investir no desenvolvimento de algoritmos imparciais e diversos conjuntos de dados de treino. PrivacidadeAs tecnologias de IA coletam e analisam grandes quantidades de dados pessoais, levantando questões de privacidade e segurança. São necessários regulamentos rígidos de proteção de dados e práticas seguras. Dilemas éticosIncutir valores morais e éticos em sistemas de IA, especialmente em decisões com impactos sociais negativos, apresenta um desafio considerável. Há que priorizar as implicações éticas nas tecnologias de IA. Riscos de segurançaÀ medida que IA se torna cada mais sofisticada, os riscos de segurança associados ao seu uso indevido também aumentam. Hackers e agentes mal-intencionados podem aproveitar para desenvolver ataques cibernéticos mais avançados, ignorar medidas de segurança e explorar vulnerabilidades em sistemas. Concentração de poderO risco da IA ser dominada por um pequeno número de corporações e governos pode exacerbar a desigualdade e limitar a diversidade. A descentralização é fundamental para evitar concentração de poder. Dependência de IAA confiança excessiva em sistemas de IA pode levar à perda de criatividade, habilidades de pensamento crítico e intuição humana. Encontrar um equilíbrio entre a tomada de decisão assistida e a humana é vital para as habilidades cognitivas. DesempregoA automação pode levar à perda de empregos em vários setores, principalmente para trabalhadores pouco qualificados. Mesmo que a IA possa criar mais empregos do que os que vai eliminar. Desigualdade económicaA IA tem o potencial de contribuir para a desigualdade económica ao beneficiar desproporcionalmente indivíduos e corporações ricos. Há o risco de uma crescente desigualdade salarial com os menos qualificados e oportunidades reduzidas de mobilidade social. Desafios legaisÉ crucial desenvolver novas leis e regulamentos para abordar este tema, incluindo responsabilidade e direitos de propriedade intelectual. Os sistemas jurídicos devem evoluir para acompanhar os avanços tecnológicos e proteger os direitos de todos. Corrida armamentistaO risco de os países se envolverem numa corrida armamentista de IA pode levar ao rápido desenvolvimento de tecnologias com consequências nefastas para a humanidade..UE mobiliza 200.000 M€ para investimento em inteligência artificial .Mário Campolargo: “Se não aprendermos a trabalhar com a inteligência artificial, ficaremos fora do processo económico”