Nos Países Baixos, o Estado recorre a um algoritmo para detetar os cidadãos mais propensos a cometer fraudes. O algoritmo chama-se SyRI (System Risk Indication) e, através dele, o Estado analisa dados sobre rendimentos, pensões, seguros, impostos, multas, dívidas ou subsídios de desemprego dos contribuintes e identifica os que têm mais probabilidades de cometer fraudes perante a Administração. Soube disto agora, que li que um tribunal decidiu proibir a utilização do SyRI (não confundir com a Siri).
O tribunal reconheceu o interesse público de evitar fraudes mas realçou que o modelo preditivo estigmatiza cidadãos, transformando-os em suspeitos pelo tratamento de dados que a mente humana seria incapaz de relacionar em tempo útil - sobretudo porque, de acordo com as notícias, o SyRI era usado especialmente em bairros problemáticos.
A história terá os seus contornos, imagino que a utilização tivesse restrições, mas bastam estes, mais ou menos rigorosos, para chegar ao ponto da questão: como lidar com a exponencial capacidade de as máquinas tomarem decisões por nós, sem emoções, baseadas apenas nos dados - e até onde estamos dispostos a ir na sua utilização?
É uma ilusão pensar que saberemos distinguir a fronteira do aceitável, que apenas aceitaremos utilizar algoritmos que não coloquem em causa a nossa privacidade ou princípios básicos como seja o da presunção de inocência.
Este caso mostra que as coisas assim se não passam, porque a pressão sobre os Estados, de eficiência desde logo, determina o recurso a estes sistemas, cuja criação nunca travaremos. Yuval Harari falava disso, dessa eficiência, imaginando que seriam os próprios cidadãos a exigi-la, dispensando os políticos e as suas emoções (e esquemas e amizades), em busca de soluções tecnicamente puras.
Mas nem é só isso. É que essas noções são muito difusas, fluidas, e a questão nunca nos é colocada nesses termos: queres um algoritmo que te invada a privacidade ou um que a não invada?
A pergunta é sempre outra: queres um algoritmo em que o SNS te indica a probabilidade de ter uma doença e que deves ir fazer exames; um algoritmo em não precises de dizer onde estás para que uma ambulância chegue; um algoritmo que avise o restaurante de quais as tuas intolerâncias; um algoritmo que te permita evitar fornecedores que se atrasam nas entregas; um algoritmo que obrigue os empregadores a contratar anonimamente o melhor candidato, etc.?
Todos estes casos, a que muitos dirão sim, têm o seu reverso. Aponto dois: se aceitamos o algoritmo para contratar imparcialmente pessoas, poderemos evitar que seja usado para dispensar pessoas; se aceitamos que o restaurante saiba as nossas intolerâncias, podemos evitar que saiba as nossas doenças?
As coisas não são, por isso, tão líquidas, tão simples, e, na sua inevitabilidade, mereciam alguma reflexão.
Advogado