Facebook cria ferramenta que identifica automaticamente "revenge porn"
O Facebook assume querer intensificar a luta contra o "revenge porn" e declarou esta sexta-feira ter uma nova tecnologia de inteligência artificial para tal. A nova tecnologia permite que a empresa consiga detetar imagens e vídeos compartilhados sem consentimento "proativamente", sem nenhum tipo de queixa anterior.
A partilha de fotografias e/ou vídeos íntimos de terceiros na Internet, como um ato de "vingança", até à data, só eram detetáveis através de queixas de utilizadores, através própria vítima ou do programa "piloto não consensual de imagens íntimas", uma "opção de emergência", em que os utilizadores podem enviar as suas fotos intimas para a empresa e a rede social certifica-se de impedir que estas sejam partilhadas online.
De acordo com a chefe global de segurança do Facebook, Antigone Davis existe uma necessidade forte de implementar este programa pois, muitas vezes, "as vítimas têm medo da vingança e resistem a denunciar o conteúdo, ou não sabem que o conteúdo foi partilhado".
Apesar de ser a inteligência artificial a detetar a situação, são os membros da equipa de Operações Comunitárias do Facebook que ficarão encarregues de analisar o conteúdo sinalizado e remover as imagens ou vídeos e remover a conta do utilizador que compartilhou o conteúdo abusivo.
Além da utilização da nova tecnologia, o Facebook afirma ter criado também uma nova ferramenta que difunde informações úteis para quem sofra de "revenge porn", como o que fazer, a quem dirigir a queixa, chamado de "Não Sem o Meu Consentimento".
Documentos do Facebook, tornados públicos pelo The Guardian mostram que quase 54.000 incidentes de extorsão sexual e vingança foram denunciados em janeiro de 2017, em que 33 casos envolviam crianças. A situação originou a eliminação de 14.000 contas, em apenas um mês. Nesta altura, apenas as queixas das vítimas eram utilizadas pela rede social para encontrar os casos de revenge porn.