Juvenal Araújo: “Racismo em Código: o risco invisível da inteligência artificial no Brasil”

O futuro da IA depende das escolhas que fazemos hoje.

Juvenal Araújo: “Racismo em Código: o risco invisível da inteligência artificial no Brasil”
Secretaria de Políticas da Promoção da Igualdade Racial.
Juvenal Araujo

No artigo “Racismo em Código: o risco invisível da inteligência artificial no Brasil”, Juvenal Araújo analisa como a inteligência artificial, embora apresentada como neutra, pode reproduzir desigualdades históricas, especialmente o racismo estrutural, no contexto brasileiro. Ele destaca que algoritmos utilizados em reconhecimento facial, seleção de currículos e outras ferramentas digitais podem favorecer padrões eurocêntricos e prejudicar majoritariamente a população preta e parda do país. Araújo aponta riscos concretos, como abordagens policiais discriminatórias e exclusão em processos de seleção, e defende a necessidade de transparência, regulamentação, auditorias e educação digital para tornar a IA uma ferramenta ética e inclusiva, capaz de promover justiça social em vez de perpetuar desigualdades.

A inteligência artificial deixou de ser um tema restrito a especialistas para se tornar parte do nosso cotidiano. Dos aplicativos de transporte às ferramentas de reconhecimento facial, passando pelos algoritmos que decidem que notícias veremos ou quais currículos serão selecionados em processos seletivos, a IA vem assumindo um papel central em nossas vidas. O problema é que, por trás de toda essa modernidade, existe um risco silencioso: a reprodução de desigualdades históricas, em especial o racismo estrutural. Esse perigo, muitas vezes invisível para a maior parte da população, pode ganhar proporções ainda mais graves se não for enfrentado de forma urgente e responsável.

Pesquisas internacionais já demonstraram os impactos dessa distorção. Um estudo conduzido pelo MIT Media Lab revelou que softwares de reconhecimento facial tiveram taxas de erro superiores a 30% na identificação de mulheres negras, enquanto o índice entre homens brancos ficou abaixo de 1%. Esses números não são apenas estatísticas frias: eles significam que uma tecnologia apresentada como neutra pode reforçar estigmas e gerar consequências diretas, como abordagens policiais indevidas ou exclusões injustas em processos de seleção. No Brasil, onde a desigualdade racial já é um traço marcante da sociedade, os riscos de uma tecnologia enviesada podem ser ainda maiores.

Se analisarmos a realidade nacional, veremos que mais de 56% da população se declara preta ou parda, segundo o IBGE. Isso significa que qualquer viés racial em sistemas digitais impacta a maioria dos brasileiros. No entanto, muitos desses sistemas são desenvolvidos com bases de dados que não refletem a diversidade do país, alimentando algoritmos com informações que privilegiam padrões eurocêntricos. Na prática, isso pode gerar exclusões invisíveis, como candidatos negros preteridos por ferramentas automáticas de seleção ou cidadãos mais vulneráveis a erros de sistemas de segurança.

Um exemplo concreto que merece atenção é o uso de reconhecimento facial em espaços públicos. Diversos estados brasileiros têm adotado essa tecnologia para reforçar a segurança, mas organizações da sociedade civil alertam que o recurso pode ampliar práticas discriminatórias. Relatório da Rede de Observatórios da Segurança mostrou que em 2019, na Bahia, 90% das prisões feitas a partir de reconhecimento facial envolviam pessoas negras. Esse dado não pode ser ignorado. Ele escancara o risco de transformar a tecnologia em mais um mecanismo de exclusão, quando deveria ser usada para promover justiça e eficiência.

Mas o debate não deve ser conduzido apenas pelo viés da crítica. Há caminhos possíveis e experiências positivas que merecem ser destacadas. Em países como Canadá e Reino Unido, já existem marcos regulatórios que exigem auditorias constantes nos algoritmos utilizados pelo poder público e pelas empresas privadas. Essas auditorias buscam identificar distorções e corrigi-las antes que causem danos à população. Além disso, algumas universidades brasileiras têm desenvolvido projetos de bancos de dados mais representativos, justamente para oferecer alternativas que contemplem a diversidade racial e de gênero do país.

Outro aspecto importante é a transparência. Os algoritmos não podem ser caixas-pretas inacessíveis. A sociedade tem o direito de saber como essas ferramentas funcionam e quais critérios utilizam para tomar decisões que afetam vidas reais. Isso exige que governos, empresas e pesquisadores assumam uma postura de responsabilidade social, permitindo fiscalização e participação cidadã nos processos de implementação tecnológica. Sem isso, corremos o risco de naturalizar injustiças disfarçadas de inovação.

É fundamental também investir em educação digital. Quanto mais a população compreender o funcionamento e os impactos da IA, maior será a capacidade de pressionar por mudanças e cobrar soluções éticas. Esse conhecimento precisa chegar sobretudo às comunidades mais vulneráveis, que tendem a ser as mais afetadas pelos vieses tecnológicos. Promover oficinas, cursos acessíveis e campanhas de informação pode ser um passo importante para democratizar o debate e fortalecer a cidadania digital.

O Brasil tem diante de si um desafio, mas também uma oportunidade. Em vez de apenas importar soluções tecnológicas desenvolvidas em outros contextos, podemos construir um modelo de inteligência artificial alinhado com a nossa realidade multicultural. Isso implica valorizar pesquisadores negros, incluir diferentes vozes na formulação das políticas e investir em inovação comprometida com a equidade. Não se trata de um capricho, mas de uma necessidade: sem diversidade, a tecnologia continuará sendo reflexo das desigualdades que já existem.

Em última instância, a questão que precisamos enfrentar é simples, embora complexa de resolver: queremos uma inteligência artificial que amplifique injustiças ou que seja aliada na construção de uma sociedade mais justa? A resposta depende das escolhas que fizermos hoje. O futuro tecnológico do Brasil não será neutro. Ele será moldado pelas decisões políticas, sociais e éticas que tomarmos agora. Ignorar o problema do racismo nos algoritmos é correr o risco de perpetuar desigualdades em escala digital. Enfrentá-lo, por outro lado, é a chance de usar a inovação como ferramenta de transformação social.

O desafio está lançado. Cabe a nós, como sociedade, não aceitar que a mesma lógica de exclusão que marcou a nossa história seja replicada em códigos de computador. A inteligência artificial pode ser parte do problema ou parte da solução. O caminho que seguiremos dependerá da coragem de encarar esse debate de frente, reconhecendo que neutralidade, quando falamos de tecnologia, é muitas vezes apenas outro nome para invisibilidade.