Aponte a câmera aqui e solicite o seu trabalho
Fazemos o seu Trabalho
Ficaríamos muito satisfeitos em poder ajudar você. Entre em contato conosco para solicitar o seu serviço.
(21) 99887- 9815
  • Período

    01/05/2025
  • Status

    Aberto
  • Nota máxima

    100,00%
  • Data Final

    valendo 100% da nota
  • Finalizado

    Não
  • Nota obtida

    100%
  • Data Gabarito/ Feedback

    a definir
  • Data e Hora Atual

    Horário de Brasília
  • Finalizado em

    31/12/2030

Algoritmos podem produzir decisões discriminatórias mesmo quando dados sensíveis, como raça ou gênero, não estão explicitamente incluídos.

Algoritmos podem produzir decisões discriminatórias mesmo quando dados sensíveis, como raça ou gênero, não estão explicitamente incluídos. Isso acontece porque variáveis substitutas e padrões históricos presentes nos dados podem refletir desigualdades sociais. Por isso, a simples remoção de atributos sensíveis não é suficiente para garantir equidade nos sistemas de Inteligência Artificial. 

Fonte: LOPES, C. M. N.; MENDES, J. C. Ética e inteligência artificial: desafios e melhores práticas. Revista da UFMG, Belo Horizonte, v. 30, fluxo contínuo, e47673, 7 dez. 2023. DOI: 10.35699/2965-6931.2023.47673. ISSN (eletrônico): 2965-6931; ISSN (impresso): 2316- 770X. Disponível em: https://periodicos.ufmg.br/index.php/revistadaufmg/article/view/47673. Acesso em: 25 jun. 2025. 

Sobre o impacto dos dados na produção de decisões algorítmicas justas, assinale a alternativa correta: 

ALTERNATIVAS 

O uso de variáveis substitutas garante mais precisão e neutralidade nos algoritmos. 

A exclusão de variáveis como raça e gênero é suficiente para eliminar qualquer tipo de viés discriminatório. 

Dados históricos jamais influenciariam negativamente os resultados algorítmicos se forem analisados estatisticamente. 

Algoritmos são neutros por definição, e erros de julgamento são causados apenas por falhas humanas na interpretação dos resultados. 

A presença de viés pode ocorrer mesmo sem variáveis sensíveis, pois os dados refletem padrões sociais que podem gerar discriminação.

Atividades Relacionadas

PORTFÓLIO - ADSIS - IMERSÃO PROFISSIONAL: APLICANDO ORIENTAÇÃO A OBJETOS - 54_2025

Algoritmos podem produzir decisões discriminatórias mesmo quando dados sensíveis, como raça ou gênero, não estão explicitamente incluídos. Isso acontece porque variáveis substitutas e padrões históricos presentes nos dados podem refletir desigualdades sociais. Por isso, a simples remoção de atributos sensíveis não é suficiente para garantir equidade nos sistemas de Inteligência Artificial.  Fonte: LOPES, C. M. […]

ATIVIDADE 1 - ADSIS - IMERSÃO PROFISSIONAL: APLICANDO ORIENTAÇÃO A OBJETOS - 54_2025

Algoritmos podem produzir decisões discriminatórias mesmo quando dados sensíveis, como raça ou gênero, não estão explicitamente incluídos. Isso acontece porque variáveis substitutas e padrões históricos presentes nos dados podem refletir desigualdades sociais. Por isso, a simples remoção de atributos sensíveis não é suficiente para garantir equidade nos sistemas de Inteligência Artificial.  Fonte: LOPES, C. M. […]