Por uma Inteligência Artificial antirracista: conheça o trabalho do Aqualtune Lab

Uso de IA no Brasil afeta principalmente a população negra; organização oferece formações on-line sobre o tema em todo país

Conteúdo por Lupa do Bem
04/09/2024 14:16

Maíra Carvalho

Uso de IA no Brasil afeta principalmente a população negra; organização oferece formações on-line sobre o tema em todo país
Uso de IA no Brasil afeta principalmente a população negra; organização oferece formações on-line sobre o tema em todo país - Aqualtune Lab

Para alertar a população sobre a relação entre tecnologia e racismo, o coletivo jurídico Aqualtune Lab vem promovendo formações on-line sobre os efeitos do uso da Inteligência Artificial na vida de pessoas negras em todo Brasil. Do reconhecimento facial, passando pelos filtros usados nas redes sociais até armas autônomas, tudo é feito por algoritmos que simulam o raciocínio humano com base em padrões aprendidos. 

Por isso, é preciso ficar atento: os algoritmos podem reproduzir condutas preconceituosas, influenciando decisões que prejudicam especialmente a população negra. As formações são direcionadas às organizações do terceiro setor, com informações tanto do campo do direito como da tecnologia da informação. O Aqualtune Lab integra, por exemplo, a Coalizão Negra por Direitos e a Coalizão Direitos na Rede. 

“Quando falamos de tecnologia, a maioria das pessoas não tem objeção. Mas o que vai dar o tom do uso da tecnologia são as relações sociais. É uma pauta que passa uma neutralidade que não existe e que afeta principalmente a população negra mais vulnerável”, afirma a advogada e codiretora, Clarissa França. 

Por uma Inteligência Artificial antirracista: conheça o trabalho do Aqualtune Lab
Por uma Inteligência Artificial antirracista: conheça o trabalho do Aqualtune Lab - Aqualtune Lab

As formações do Aqualtune Lab mostram que o racismo é um fenômeno social que se atualiza por meio das novas tecnologias e que pode ser muito sutil. Além das formações, a organização também produz o Documento Preto, uma análise sobre inteligência artificial e racismo que visa orientar a construção de leis que regulamentam a tecnologia. Entre as recomendações estão o banimento do reconhecimento facial pela segurança pública, a exclusão de armas autônomas e a cautela no uso de IA para definição de acesso aos serviços de saúde. 

Clarissa aponta que os erros de reconhecimento facial, por exemplo, ocorrem na maioria das vezes com pessoas negras. Isso se deve ao fato da tecnologia ter um alto índice de erro, já que foi desenvolvida com base em um bancos de dados de populações mais uniformes. “Não foi o Brasil que desenvolveu essa tecnologia, nós importamos uma tecnologia feita na Alemanha.” 

Ela lembra de um caso que ocorreu em um estádio de futebol em Sergipe, onde mora. “Um rapaz negro foi preso no meio do jogo pelo reconhecimento facial, que depois se mostrou falho. Ele foi algemado no meio do jogo, saiu escoltado por policiais, mas não tinha cometido crime algum. Detalhe: em nenhum momento, a torcida foi informada que as pessoas estavam sendo vigiadas”, destaca a codiretora da Aqualtune. 

Para Clarissa, a falta de informação sobre o uso das tecnologias, a maneira como os dados gerados são usados e a falta do acesso universal à internet no Brasil são alguns dos problemas associados à tecnologia que precisam ser solucionados. É preciso regulamentar, por exemplo, o direito da população de ser informada sobre uso de imagens e dados. 

Para alertar a população sobre a relação entre tecnologia e racismo, o coletivo jurídico Aqualtune Lab vem promovendo formações on-line
Para alertar a população sobre a relação entre tecnologia e racismo, o coletivo jurídico Aqualtune Lab vem promovendo formações on-line - Aqualtune Lab

Segundo a advogada, tem sido cada vez mais comum uma vigilância ostensiva feita por IA em nome da segurança, porém, sem resultados efetivos. “Os índices de violência decorrem muito mais da desigualdade e das condições de vida do que efetivamente das tecnologias de repressão. Então, a promessa de segurança é uma falácia. Na verdade, apenas viola o direito de privacidade e liberdade da população.”

Aqualtune Lab

Clarissa França, advogada especializada em Direito da Saúde, conta que logo após a publicação da Lei Geral de Proteção de Dados Pessoais (LGPD), em 2018, percebeu que a discussão sobre o tema estava restrita a uma pequena parcela da população e que não incluía a população negra. “Pensei: por que não estamos discutindo isso? Então me juntei com algumas pessoas e começamos a conversar. Criamos um grupo chamado Proteção de Dados e Racismo e acabamos conhecendo pessoas como Tarcízio Silva e Bianca Kremer, especialistas no debate.” 

“Isso foi em 2020. Era momento de pandemia, com muitos problemas políticos, vários retrocessos, muita coisa sendo fragilizada pela lógica da internet e do uso dos dados. E naquele momento, assim como hoje, havia questões pragmáticas. A população negra tinha que sobreviver, trabalhar, comer… Só que, cada vez mais, todas essas questões que envolvem direitos fundamentais passam pela tecnologia. Foi então que montamos o Aqualtune Lab”, recorda-se.

Quer apoiar essa causa?

A sede do Aqualtune Lab fica no Rio de Janeiro, mas a organização atua em rede, com pessoas engajadas em todo Brasil. Para fazer doações ou se voluntariar, entre no site e siga as redes sociais no Instagram, Linkedin e Facebook

 

Maíra Carvalho – Lupa do Bem

Causadora de Educação