"Tem cara de mau": o polémico programa informático que prevê quem será um criminoso só pelo seu aspeto

Investigadores insurgem-se contra estudo que alegadamente prevê a criminalidade a partir das características físicas das pessoas. Métodos que usam algoritmos a partir de reconhecimento facial reproduzem a discriminação já existentem, dizem os especialistas.
Publicado a
Atualizado a

No final do século XIX, um polícia francês, Alphonse Bertillon, criou um método de identificação e registo dos criminosos com base nas suas características físicas: além de um retrato fotográfico e uma descrição física escrita, cada criminoso era identificado por uma série de medições das várias partes do seu corpo. A partir desse registo era possível encontrar traços comuns entre os criminosos e estabelecer um padrão - o que levaria a especulações sobre as características físicas das pessoas que cometiam determinados crimes.

Pouco antes disso, já existia quem defendesse a frenologia, uma pseudociência que alegava que a forma e as protuberâncias do crânio são indicativas das faculdades e aptidões mentais de uma pessoa. Popular entre os defensores da eugenia, esta teoria reafirmava o racismo existente na época, alegando identificar diferenças como o tamanho da cabeça ou a largura do nariz como prova das capacidades intelectuais de alguém, das suas virtudes ou da sua criminalidade - como se fosse características inatas.

Embora possam parecer vestígios de outra época, este pensamento continua presente nos dias de hoje. No início de maio, um comunicado da Universidade de Harrisburg, na Pensilvânia, EUA, reacendeu o debate sobre a natureza inata da criminalidade e a sua tradução em características físicas. O texto afirmava que dois professores e um aluno haviam desenvolvido um programa informático de reconhecimento facial que poderia prever se alguém se iria tornar um criminoso: "Com 80% de precisão e sem preconceito racial, é possível prever se alguém é um criminoso com base apenas na imagem de seu rosto. O software visa ajudar a polícia a prevenir crimes", afirma o comunicado que anunciava que o estudo seria publicado na Springer Nature, uma revista académica.

Como no filme Relatório Minoritário, realizado por Steven Spielberg em 2002 e protagonizado por Tom Cruise, a presunção de inocência desaparece.

Imediatamente, 1700 académicos assinaram uma carta aberta apelando à não publicação do estudo e acusando-o de ser pouco científico: "Tais alegações são baseadas em premissas, pesquisas e métodos não científicos, que foram desmentidos por vários estudos ao longo dos anos", dizem os membros da Coalition for Critical Technology.

O grupo refere "inúmeros estudos" que sugerem que pessoas pertencentes a algumas minorias étnicas são tratadas com mais severidade no sistema de justiça criminal, o que obviamente distorce os dados sobre a aparência de um "alegado" criminoso. Entre as referências desacreditadas mencionadas no estudo e citadas na carta está Cesare Lombroso, um criminologista italiano do século XIX que defendia o darwinismo social e a frenologia, defendendo a ideia de que a tendência para o crime é hereditária.

O longo documento sublinha que a tecnologia de previsão de crimes reproduz injustiças e causa danos reais. Citada pela BBC, a investigadora em ciência da computação da Universidade de Cambridge, Krittika D'Silva, afirma: "É irresponsável que alguém pense que pode prever a criminalidade com base apenas na imagem do rosto de uma pessoa". E acrescenta: "Numerosos estudos mostraram que os algoritmos de aprendizagem da máquina, em particular o software de reconhecimento facial, têm preconceitos raciais, de género e idade".

Porque é que esses softwares repetem os erros humanos? Se os dados usados ​​para construir os algoritmos forem tendenciosos, as previsões do algoritmo também serão tendenciosas. O documento assinado pelos cientistas argumenta que "devido à natureza racial da polícia nos EUA, qualquer algoritmo que preveja o crime reproduzirá os preconceitos já refletidos no sistema de justiça criminal".

Existem vários exemplos anteriores de problemas éticos na utilização de software de inteligência artificial. Em 2016, engenheiros da Stanford e do Google refutaram as alegações de um estudo da Universidade Jiao Tong de Xangai de que afirmavam ter um algoritmo que poderia prever crimes usando análise facial. Um ano depois, vários investigadores de Stanford afirmaram que o seu software poderia determinar se alguém é gay ou heterossexual com base no seu rosto. As organizações LGBTQ + criticaram o estudo, apontando o quão prejudicial e perigosa uma ferramenta como esta poderia ser em países que criminalizam a homossexualidade.

Entretanto, a Springer Nature confirmou no Twitter que não publicará a pesquisa.

De acordo com a BBC, a revista afirma que "em nenhum momento" o estudo foi aceite para publicação. O texto da Universidade de Harrisburg "passou por um processo completo de revisão por pares. A decisão do editor de rejeitar o artigo final foi tomada na terça-feira, 16 de junho, e foi oficialmente comunicada aos autores na segunda-feira, 22 de junho", informou a empresa em comunicado. Entretanto, a universidade retirou seu próprio comunicado à imprensa "a pedido da faculdade envolvida". que diz que a investigação está ainda em desenvolvimento.

Embora apoie a liberdade académica, a investigação "não reflete necessariamente as visões e objetivos desta universidade", lê-se no comunicado. Os organizadores da Coalition for Critical Technology afirmam ainda que "todos os editores devem abster-se de publicar estudos semelhantes no futuro".

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt