Algoritmos podem produzir decisões discriminatórias mesmo quando dados sensíveis, como raça ou gênero, não estão explicitamente incluídos. Isso acontece porque variáveis substitutas e padrões históricos presentes nos dados podem refletir desigualdades sociais. Por isso, a simples remoção de atributos sensíveis não é suficiente para garantir equidade nos sistemas de Inteligência Artificial. 
Fonte: LOPES, C. M. N.; MENDES, J. C. Ética e inteligência artificial: desafios e melhores práticas. Revista da UFMG, Belo Horizonte, v. 30, fluxo contínuo, e47673, 7 dez. 2023. DOI: 10.35699/2965-6931.2023.47673. ISSN (eletrônico): 2965-6931; ISSN (impresso): 2316- 770X. Disponível em: https://periodicos.ufmg.br/index.php/revistadaufmg/article/view/47673. Acesso em: 25 jun. 2025. 
Sobre o impacto dos dados na produção de decisões algorítmicas justas, assinale a alternativa correta: 
ALTERNATIVAS 
O uso de variáveis substitutas garante mais precisão e neutralidade nos algoritmos. 
A exclusão de variáveis como raça e gênero é suficiente para eliminar qualquer tipo de viés discriminatório. 
Dados históricos jamais influenciariam negativamente os resultados algorítmicos se forem analisados estatisticamente. 
Algoritmos são neutros por definição, e erros de julgamento são causados apenas por falhas humanas na interpretação dos resultados. 
A presença de viés pode ocorrer mesmo sem variáveis sensíveis, pois os dados refletem padrões sociais que podem gerar discriminação.