“Tem algo errado comigo?”: Racismo que está na tecnologia também nos afeta

Fonte: Portal UOL – Artigo Akin Abaz: https://www.uol.com.br/tilt/colunas/akin-abaz/2021/05/27/tem-algo-errado-comigo-racismo-que-esta-na-tecnologia-tambem-nos-afeta.htm

Quem é preto sabe desde muito cedo que está em um mundo marcado pela superioridade branca e desigualdades raciais. São raros os casos de pessoas negras que, durante a infância, nunca vivenciaram o racismo. Os olhares e os comentários escondidos nos fazem questionar: “existe algo de errado comigo ou tudo isso não passa de uma questão social?” Entre tantos anos de debates e conquistas do povo preto, o racismo ainda circula diante dos meus olhos e dos olhos de quem sofre com os impactos que ele traz, e, ainda assim, há quem diga que o mesmo não existe.

O racismo está na expressão facial, na falta de oportunidades, no estranhamento ao ver pessoas negras ocupando espaços de privilégio, e, infelizmente, também está na tecnologia. De acordo com a Rede de Observatórios de Segurança, no Brasil, 90,5% dos presos por monitoramento facial são negros, sendo que, grande parte dessas pessoas foi abordada de forma equivocada. Isso significa que, apesar de, teoricamente, ser um bônus para o aumento da segurança pública, a tecnologia do reconhecimento facial é um sistema falho que, além de violar os direitos humanos, incrimina e constrange pessoas inocentes.

O reconhecimento facial entra em ação a partir da comparação de determinado rosto com características de um banco de imagens preestabelecido. Tendo em vista que a maioria das prisões foi por tráfico de drogas ou roubo, posso dizer que esse sistema é mais um método para marginalizar e exterminar a juventude preta e periférica. Algo que diz muito sobre a violência policial que chega nas favelas disfarçada de guerra contra as drogas. O sistema funciona através da leitura de algoritmos, e os algoritmos foram criados para entender padrões. Mas como interpretar padrões baseados em uma estatística excludente?

Para entender essa situação, nós, da InfoPreta, que lutamos pela democratização do acesso à tecnologia para todos e todas, te convidamos a visualizar a Linha do Tempo do Racismo Algorítmico, idealizada pelo pesquisador e mestre em Comunicação, Tarcizio Silva, com o objetivo de estudar as cadeias produtivas da plataformização digital (mídias sociais, aplicativos, inteligência artificial) e seus vieses e impactos raciais.

Conscientização como forma de solução

Para além da problemática, algumas estratégias já estão sendo postas em prática, como o Projeto AI Inclusive (Inteligência Artificial Inclusiva), idealizado por Gabriela de Queiroz, em parceria com um grupo de mulheres, incluindo a ativista e cientista da computação, Nina da Hora, com o objetivo de promover a conscientização dos problemas relacionados à inteligência artificial, além de empoderar a comunidade preta para que ingressem no mercado, e aumentem a representatividade e a participação de minorias de gênero no desenvolvimento de IA.

Vale pontuar que, devido às intervenções de Nina da Hora e outros ativistas, seguindo a Lei Geral de Proteção de Dados Pessoais (LGPD), a CUFA (Central Única das Favelas), que utilizava o sistema de cadastramento biométrico para autenticação, interrompeu o uso para preservar a identidade dos beneficiados pela ONG e evitar constrangimentos futuros, levando em conta o dilema existente entre pessoas negras e o sistema de reconhecimento facial. Em resumo, enxergo que o reconhecimento facial é uma tecnologia que ainda está em construção e, futuramente, após alguns ajustes no algoritmo, tem muito potencial para se tornar assertivo e funcional para a segurança pública.

* Colaborou Júlia Macedo, jornalista e planner da InfoPreta.