O caso da Tay, chatbot da Microsoft, ilustra como IA pode assimilar padrões ofensivos rapidamente. Tay começou a emitir mensagens agressivas e preconceituosas poucas horas após ser liberada no Twitter, pois aprendeu com interações tóxicas de usuários.O incidente levou a Microsoft a desativar o bot em menos de 24 horas, destacando a importância de moderar conteúdos e supervisionar o aprendizado de sistemas de IA. 
Fonte: https://journals-sol.sbc.org.br/index.php/comp-br/article/view/1791. Acesso em: 31 jul. 2025. 
Com base no texto sobre o chatbot Tay, assinale a alternativa correta que indica a principal razão para a rápida deterioração de seu comportamento: 
ALTERNATIVAS 
O chatbot foi infectado por vírus logo após o lançamento. 
O chatbot funcionava off-line, sem atualizar seu modelo com novos dados. 
O chatbot usava filtros automáticos que bloqueavam mensagens positivas. O chatbot recebeu comandos diretos dos engenheiros para insultar os usuários. 
A aprendizagem do chatbot ocorreu a partir dos padrões de discurso ofensivo dos usuários do Twitter.