Por uma Inteligência Artificial antirracista: conheça o trabalho do Aqualtune Lab
Uso de IA no Brasil afeta principalmente a população negra; organização oferece formações on-line sobre o tema em todo país
Maíra Carvalho
Para alertar a população sobre a relação entre tecnologia e racismo, o coletivo jurídico Aqualtune Lab vem promovendo formações on-line sobre os efeitos do uso da Inteligência Artificial na vida de pessoas negras em todo Brasil. Do reconhecimento facial, passando pelos filtros usados nas redes sociais até armas autônomas, tudo é feito por algoritmos que simulam o raciocínio humano com base em padrões aprendidos.
Por isso, é preciso ficar atento: os algoritmos podem reproduzir condutas preconceituosas, influenciando decisões que prejudicam especialmente a população negra. As formações são direcionadas às organizações do terceiro setor, com informações tanto do campo do direito como da tecnologia da informação. O Aqualtune Lab integra, por exemplo, a Coalizão Negra por Direitos e a Coalizão Direitos na Rede.
- Autismo: saiba motivo que leva ao aumento expressivo de casos da doença
- Hábitos diários para ajudar a reduzir o risco de demência
- Pesquisa revela o que os brasileiros consideram essencial ter em voos longos
- Saiba identificar sintomas de autismo em adultos
“Quando falamos de tecnologia, a maioria das pessoas não tem objeção. Mas o que vai dar o tom do uso da tecnologia são as relações sociais. É uma pauta que passa uma neutralidade que não existe e que afeta principalmente a população negra mais vulnerável”, afirma a advogada e codiretora, Clarissa França.
As formações do Aqualtune Lab mostram que o racismo é um fenômeno social que se atualiza por meio das novas tecnologias e que pode ser muito sutil. Além das formações, a organização também produz o Documento Preto, uma análise sobre inteligência artificial e racismo que visa orientar a construção de leis que regulamentam a tecnologia. Entre as recomendações estão o banimento do reconhecimento facial pela segurança pública, a exclusão de armas autônomas e a cautela no uso de IA para definição de acesso aos serviços de saúde.
Clarissa aponta que os erros de reconhecimento facial, por exemplo, ocorrem na maioria das vezes com pessoas negras. Isso se deve ao fato da tecnologia ter um alto índice de erro, já que foi desenvolvida com base em um bancos de dados de populações mais uniformes. “Não foi o Brasil que desenvolveu essa tecnologia, nós importamos uma tecnologia feita na Alemanha.”
Ela lembra de um caso que ocorreu em um estádio de futebol em Sergipe, onde mora. “Um rapaz negro foi preso no meio do jogo pelo reconhecimento facial, que depois se mostrou falho. Ele foi algemado no meio do jogo, saiu escoltado por policiais, mas não tinha cometido crime algum. Detalhe: em nenhum momento, a torcida foi informada que as pessoas estavam sendo vigiadas”, destaca a codiretora da Aqualtune.
Para Clarissa, a falta de informação sobre o uso das tecnologias, a maneira como os dados gerados são usados e a falta do acesso universal à internet no Brasil são alguns dos problemas associados à tecnologia que precisam ser solucionados. É preciso regulamentar, por exemplo, o direito da população de ser informada sobre uso de imagens e dados.
Segundo a advogada, tem sido cada vez mais comum uma vigilância ostensiva feita por IA em nome da segurança, porém, sem resultados efetivos. “Os índices de violência decorrem muito mais da desigualdade e das condições de vida do que efetivamente das tecnologias de repressão. Então, a promessa de segurança é uma falácia. Na verdade, apenas viola o direito de privacidade e liberdade da população.”
Aqualtune Lab
Clarissa França, advogada especializada em Direito da Saúde, conta que logo após a publicação da Lei Geral de Proteção de Dados Pessoais (LGPD), em 2018, percebeu que a discussão sobre o tema estava restrita a uma pequena parcela da população e que não incluía a população negra. “Pensei: por que não estamos discutindo isso? Então me juntei com algumas pessoas e começamos a conversar. Criamos um grupo chamado Proteção de Dados e Racismo e acabamos conhecendo pessoas como Tarcízio Silva e Bianca Kremer, especialistas no debate.”
“Isso foi em 2020. Era momento de pandemia, com muitos problemas políticos, vários retrocessos, muita coisa sendo fragilizada pela lógica da internet e do uso dos dados. E naquele momento, assim como hoje, havia questões pragmáticas. A população negra tinha que sobreviver, trabalhar, comer… Só que, cada vez mais, todas essas questões que envolvem direitos fundamentais passam pela tecnologia. Foi então que montamos o Aqualtune Lab”, recorda-se.
Quer apoiar essa causa?
A sede do Aqualtune Lab fica no Rio de Janeiro, mas a organização atua em rede, com pessoas engajadas em todo Brasil. Para fazer doações ou se voluntariar, entre no site e siga as redes sociais no Instagram, Linkedin e Facebook.
Maíra Carvalho – Lupa do Bem
Causadora de Educação