Um departamento de RH utiliza uma IA para triar currículos para uma vaga de liderança. A IA foi treinada com o histórico de contratações da empresa dos últimos 20 anos. Após a triagem, percebe-se que o sistema descartou a maioria das candidatas mulheres, mesmo as com qualificações excelentes. Identifique o risco ético demonstrado pelo comportamento da IA neste cenário.

Questão

Um departamento de RH utiliza uma IA para triar currículos para uma vaga de liderança. A IA foi treinada com o histórico de contratações da empresa dos últimos 20 anos. Após a triagem, percebe-se que o sistema descartou a maioria das candidatas mulheres, mesmo as com qualificações excelentes. Identifique o risco ético demonstrado pelo comportamento da IA neste cenário.

Alternativas

A) O risco de viés algorítmico, onde preconceitos presentes nos dados de treinamento são aprendidos e amplificados.

96%

B) A "alucinação da IA", na qual a ferramenta inventa motivos para desclassificar as candidatas.

C) A violação da privacidade das candidatas, pois seus currículos foram lidos por um sistema automatizado.

D) O limite de processamento da IA, que não conseguiu analisar todos os currículos de forma adequada.

E) Um erro na programação do sistema que o fez interpretar de forma incorreta o critério de qualificação.

Explicação

  1. A IA foi treinada com o histórico de contratações dos últimos 20 anos. Se esse histórico refletiu uma cultura organizacional com preferência (explícita ou implícita) por homens em cargos de liderança, isso vira um padrão estatístico nos dados.

  2. Modelos de IA, ao aprenderem padrões do passado, podem reproduzir e até intensificar desigualdades: por exemplo, associar sinais indiretos (faculdade, experiências típicas, palavras do currículo, progressão de carreira) a um perfil historicamente mais contratado (homens).

  3. O resultado observado — descartar a maioria das candidatas mulheres mesmo quando qualificadas — é típico de discriminação/viés algorítmico: o sistema está tomando decisões enviesadas por causa do conjunto de treinamento e/ou do modo como a triagem foi definida.

  4. As demais alternativas não se encaixam bem:

  • (B) “alucinação” é mais comum em IA generativa inventando conteúdo, não explica um padrão sistemático de exclusão por gênero.
  • (C) ler currículos por um sistema pode envolver privacidade, mas o problema central descrito é discriminação no resultado.
  • (D) limite de processamento não explicaria por que o descarte recai majoritariamente sobre mulheres.
  • (E) pode haver erro de implementação, mas o enunciado aponta para um comportamento consistente com aprendizado de padrões históricos (viés), não um bug pontual.

Alternativa correta: (A).

Questões relacionadas

Ver últimas questões

Comece a estudar de forma inteligente hoje mesmo

Resolva questões de concursos e vestibulares com IA, gere simulados personalizados e domine os conteúdos que mais caem nas provas.

Cancele quando quiser.