Deputada quer barrar reconhecimento facial em SP por racismo

Por BRUNA SOUZA CRUZ

SÃO PAULO, SP (UOL/FOLHAPRESS) - A deputada federal eleita Erika Hilton manifestou nas redes sociais sua oposição a um edital lançando pela Prefeitura de São Paulo que pode fortalecer e aumentar a discriminação racial. Ele propõe a contratação de um sistema de monitoramento via câmeras de reconhecimento facial para identificar suspeitos a partir de algumas características, como a cor da pele.

Além dela, outros ativistas, como o advogado especializado em tecnologia Ronaldo Lemos e a Coalizão Direitos na Rede também postaram publicamente sobre como tecnologias desse tipo têm cometido erros graves, acusando inocentes, aumentando a desigualdade e virando ferramentas de perseguição ?principalmente para pessoas negras.

Para Lemos, "a construção desse sistema complexo têm erros graves e inaceitáveis", afirmou em sua coluna na Folha de S. Paulo. Ele destaca que fora do Brasil, o uso de tecnologia de reconhecimento facial vem sendo criticado e já existem até propostas para que seja banido.

O QUE DIZ O EDITAL DO SMART SAMPA

A proposta da Prefeitura de São Paulo com o Smart Sampa é integrar mais de 20 mil câmeras até 2024 e modernizar o monitoramento delas na capital. O investimento estimado é de R$ 70 milhões por ano.

Um trecho do edital diz que as câmeras devem embarcar dados analíticos que permitam o rastreio de "uma pessoa suspeita, monitorando todos os movimentos e atividades (...). A pesquisa deve ser feita por diferentes tipos de características como cor, face e outras características."

Além do rosto das pessoas, o sistema tem previsão para detectar movimentos e apontar atividades tidas como suspeitas, pessoas procuradas, objetos perdidos, entre outros.

Uma audiência foi realizada na Câmara de São Paulo no último dia 3 de novembro para debater a instalação do sistema.

O pesquisador Luan Cruz, do Programa de Telecomunicações de Direitos Digitais do Idec (Instituto Brasileiro de Defesa do Consumidor), chegou a destacar que a iniciativa ignora falhas já conhecidas da tecnologia.

"As câmeras não reconhecem e não funcionam 100%. Ela pode reconhecer erroneamente uma pessoa, justamente as pessoas negras e mulheres negras, que são as que sofrem mais erro de reconhecimento", afirmou.

TECNOLOGIAS DISCRIMINAM SIM

Não é de hoje que as tecnologias e os sistemas de inteligência artificial são acusados de discriminar.

Pesquisadores da área e ativistas de direitos nas redes reforçam que ferramentas digitais não são neutras. Elas são elaboradas e alimentadas pela perspectiva humana e, portanto, podem replicar comportamentos discriminatórios da sociedade de diversas formas.

"Tecnologias digitais emergentes como reconhecimento facial para fins policiais ou criação de escore de risco para planos privados de saúde nascem já como derrotas humanitárias", afirma o pesquisador Tarcízio Silva, que estuda o tema há sete anos e é autor do livro "Racismo Algorítmico: Inteligência Artificial e Redes Digitais" (Edições Sesc, 2022)

Silva elaborou uma linha do tempo do racismo algorítmico, com diversos casos nas últimas duas décadas, e que mostra que o fenômeno atinge não só negros. Há também evidências de uma taxa alarmante de erros contra pessoas trans.

O problema não se restringe apenas aos algoritmos no reconhecimento facial. Plataformas de armazenamento de imagens já categorizaram fotos de pessoas negras como gorilas.

Nas redes sociais, filtros para selfie "embelezadores" frequentemente clareiam a pele e afinam o nariz, por entenderem que esse é o padrão de beleza.

"As tecnologias digitais possuem dualidades que podem pender para a opressão em sociedades marcadas pelas desigualdades", afirma Silva.