SyRI

Nos Países Baixos, o Estado recorre a um algoritmo para detetar os cidadãos mais propensos a cometer fraudes. O algoritmo chama-se SyRI (System Risk Indication) e, através dele, o Estado analisa dados sobre rendimentos, pensões, seguros, impostos, multas, dívidas ou subsídios de desemprego dos contribuintes e identifica os que têm mais probabilidades de cometer fraudes perante a Administração. Soube disto agora, que li que um tribunal decidiu proibir a utilização do SyRI (não confundir com a Siri).

O tribunal reconheceu o interesse público de evitar fraudes mas realçou que o modelo preditivo estigmatiza cidadãos, transformando-os em suspeitos pelo tratamento de dados que a mente humana seria incapaz de relacionar em tempo útil - sobretudo porque, de acordo com as notícias, o SyRI era usado especialmente em bairros problemáticos.

A história terá os seus contornos, imagino que a utilização tivesse restrições, mas bastam estes, mais ou menos rigorosos, para chegar ao ponto da questão: como lidar com a exponencial capacidade de as máquinas tomarem decisões por nós, sem emoções, baseadas apenas nos dados - e até onde estamos dispostos a ir na sua utilização?

É uma ilusão pensar que saberemos distinguir a fronteira do aceitável, que apenas aceitaremos utilizar algoritmos que não coloquem em causa a nossa privacidade ou princípios básicos como seja o da presunção de inocência.

Este caso mostra que as coisas assim se não passam, porque a pressão sobre os Estados, de eficiência desde logo, determina o recurso a estes sistemas, cuja criação nunca travaremos. Yuval Harari falava disso, dessa eficiência, imaginando que seriam os próprios cidadãos a exigi-la, dispensando os políticos e as suas emoções (e esquemas e amizades), em busca de soluções tecnicamente puras.

Mas nem é só isso. É que essas noções são muito difusas, fluidas, e a questão nunca nos é colocada nesses termos: queres um algoritmo que te invada a privacidade ou um que a não invada?

A pergunta é sempre outra: queres um algoritmo em que o SNS te indica a probabilidade de ter uma doença e que deves ir fazer exames; um algoritmo em não precises de dizer onde estás para que uma ambulância chegue; um algoritmo que avise o restaurante de quais as tuas intolerâncias; um algoritmo que te permita evitar fornecedores que se atrasam nas entregas; um algoritmo que obrigue os empregadores a contratar anonimamente o melhor candidato, etc.?

Todos estes casos, a que muitos dirão sim, têm o seu reverso. Aponto dois: se aceitamos o algoritmo para contratar imparcialmente pessoas, poderemos evitar que seja usado para dispensar pessoas; se aceitamos que o restaurante saiba as nossas intolerâncias, podemos evitar que saiba as nossas doenças?

As coisas não são, por isso, tão líquidas, tão simples, e, na sua inevitabilidade, mereciam alguma reflexão.

Advogado

Mais Notícias

Outros conteúdos GMG