Numa foto, inteligência artificial pode ler a sua personalidade, QI e inclinação para o crime

Algoritmo consegue recolher várias informações pessoais a partir de fotografias, diz investigador

Um investigador da Universidade de Stanford, na Califórnia, afirma que é possível recolher várias informações pessoais sobre alguém usando apenas fotografias e um algoritmo de inteligência artificial. Analisando as imagens, o algoritmo consegue identificar se a pessoa tem uma predisposição para comportamentos criminosos, se tem um quociente de inteligência (QI) elevado, qual é a sua inclinação política - liberal ou conservador -, se tem traços de personalidade específicos e outros dados pessoais.

Michal Kosinski já tinha revelado num estudo publicado na semana passada que o algoritmo de inteligência artificial consegue perceber, com mais precisão do que os humanos até, se alguém é heterossexual ou homossexual através da análise de fotografias.

Agora, numa entrevista ao The Guardian, o investigador revela que a orientação sexual é só uma das muitas informações que se pode obter através de fotografias. Isto porque, como explica, as caras trazem uma grande quantidade de informação que pode ser lida com precisão por programas de computadores que identifiquem traços e características típicas.

Michal Kosinski e Yilun Wang mostraram no estudo que o algoritmo distinguiu corretamente a orientação sexual de 81% dos homens e 74% das mulheres. A precisão do algoritmo aumentou para 91% e 83%, respetivamente, quando eram analisadas cinco imagens de cada pessoa.

O uso desta tecnologia de reconhecimento facial deverá levantar sérias questões éticas sobre os limites da privacidade e uma má utilização das mesmas poderá deixar muitas pessoas vulneráveis, afirma o investigador, acrescentando que as informações recolhidas pelo algoritmo podem trazer consequências sociais.

Quando foi publicado o estudo, grupos LGBT argumentaram que esta tecnologia poderia ser usada por governos homofóbicos que os quisessem perseguir.

Kosinski, contudo, argumenta que vários governos e grandes empresas já têm acesso a este tipo de tecnologias de reconhecimento facial e que é importante falar sobre estes temas para exigir normas de proteção da privacidade.

A tecnologia de reconhecimento facial poderia ser usada para ajudar a formar uma sociedade melhor, defende Kosinki, ou para discriminar.

Por exemplo, uma determinada escola poderia usar esta tecnologia para saber qual é o QI de um candidato antes de o admitir. Isto levantaria questões éticas, já que a escola poderia aceitar apenas alunos com QI elevado.

"Deveríamos pensar no que fazer para garantirmos que não vivemos num mundo onde as pessoas com melhores genes têm uma vida melhor", afirmou o investigador.

Por outro lado, a mesma tecnologia poderia ajudar a identificar com precisão comportamentos agressivos em crianças dentro da escola. Com um diagnóstico precoce, a criança poderia receber a ajuda ou o acompanhamento necessário.

"A tecnologia parece muito perigosa e assustadora à superfície mas, se usada devidamente ou eticamente, pode melhorar a nossa existência", continuou Kosinski.

Há, contudo, a hipótese de estas tecnologias discriminarem indevidamente pois, por exemplo, como explicou Kosinski, ter uma predisposição para comportamentos criminosos não quer dizer que a pessoa vá, de facto, cometer um crime. O algoritmo pode detetar que determinada pessoa é psicopata ou tem altas tendências criminosas e o indivíduo nunca cometer um crime na vida.

Além disso, outros estudos mostram que esta tecnologia pode alimentar o preconceito pois é muitas vezes criada a partir de dados enviesados. Um estudo publicado em 2016 revelou que um programa de computador usado nos tribunais norte-americanos para medir o risco dos detidos voltarem a cometer um crime discriminava as pessoas negras. Este programa influenciava a decisão dos juízes na hora de atribuir penas.

"A inteligência artificial pode dizer qualquer coisa sobre qualquer pessoa, com os dados suficientes. A questão é: como sociedade, queremos saber?", perguntou Brian Brackeen, diretor executivo da empresa de reconhecimento facial, Kairos, segundo o The Guardian.

Ler mais