Especialistas apontam limitações da IA em seleções de emprego

Especialistas apontam limitações da IA em seleções de emprego

Apesar dos benefícios da adoção da inteligência artificial (IA) em processos de contratação, como maior agilidade, padronização e redução de custos, pesquisa da USP constatou algumas consequências preocupantes, como viés algorítmico e discriminação, redução da diversidade organizacional e desumanização da experiência. A reconfiguração marcou também o papel dos recrutadores, que passam de decisores a supervisores de sistemas.

Também foram constatados efeitos emocionais e psicológicos negativos para candidatos e selecionadores, além de barreiras culturais e linguísticas, especialmente em contextos globais — como no caso de empresa alemã com subsidiárias no Brasil. “Com as empresas cada vez mais adotando a tecnologia, há uma mudança na comunicação, no comportamento e no emocional das pessoas”, detalha Humberta Silva, autora da pesquisa desenvolvida em seu doutorado na Faculdade de Economia, Administração, Contabilidade e Atuária (FEA) da USP.

“O processo está mais distante e desumanizado. Com isso, há limitações para uma análise precisa das capacidades do candidato pela dificuldade em identificar aspectos subjetivos”, salienta Humberta Silva.

Conforme a pesquisadora, a IA não é neutra, pois carrega os vieses de quem a programa e dos dados que a alimentam. O uso acrítico ou automatizado pode reproduzir desigualdades estruturais, como discriminações por gênero, raça, classe e local de origem. A recomendação central é que a IA seja usada com supervisão humana, intencionalidade ética e sensibilidade ao contexto social e organizacional. “Precisamos entender que a inteligência artificial tem limitações, identificar quais são elas e sempre fazer auditoria quando se usa,” diz. Transparência, regulação e educação tecnológica são pontos-chaves para mitigar riscos. 

Impacto nas partes interessadas

No contexto atual, a IA pode reforçar desigualdades estruturais em vez de combatê-las, segundo a pesquisadora. “No Brasil, o acesso à tecnologia ainda é precário. Começa aí o impacto na diversidade”, afirma. Muitos candidatos ficam em desvantagem desde o início por não terem acesso às informações ou à linguagem esperada pelos sistemas automatizados. Os algoritmos também aplicam critérios ocultos que excluem candidatos de forma sutil. “Tem sistema que pontua se o candidato mora perto do trabalho, tem inglês ou fez determinada faculdade”, alerta. Esses filtros automáticos acabam privilegiando perfis com mais capital cultural e excluindo grupos historicamente marginalizados. 

Profissionais de recursos humanos (RH) também sofrem impactos. “O recrutador começa a se subestimar [e questionar] se é capaz de identificar habilidades sem auxílio da tecnologia”, diz. O uso contínuo da IA tende a transformar o papel para uma atuação de gerenciamento de sistemas, levando à perda de confiança no próprio trabalho e a uma relação mecânica com o processo seletivo. Para ela, os sistemas precisam ser adaptados à realidade brasileira e construídos com intencionalidade inclusiva. “O processo de recrutamento e seleção é a área mais estratégica para atrair diversidade”, alerta.

Soluções e ética

Uma das principais recomendações da pesquisadora é envolver profissionais de RH no desenvolvimento das ferramentas. “A maioria dos sistemas é feita por programadores, sem a participação do RH. Isso é um problema grave”, afirma. A pesquisadora defende o codesign como forma de garantir que os sistemas reflitam o contexto real das organizações e da sociedade. “Se você tem programadores diversos, consegue ver outras perspectivas e evitar vieses”, explica Humberta. Além disso, ela recomenda a prática de testes regulares para verificar correlações problemáticas entre os critérios usados e variáveis como raça, gênero, idade ou classe social.

“Tem uma empresa que instaurou auditoria mensal. O RH faz testes com currículos reais e cobra explicações dos programadores”, relata. Para ela, esse tipo de controle é essencial para garantir justiça, transparência e responsabilização no uso da IA. Outra necessidade é da formação desses profissionais de seleção para saber quando usá-la dentro do processo, em que ponto ela é eficaz e as limitações dos resultados. “Se os profissionais que trabalham com seleção e contratação de pessoas precisarem usar esses softwares, eles precisam de competências específicas”, alega Liliana Vasconcellos, professora na FEA e orientadora da pesquisa.

“Profissionais de recursos humanos não vão desenvolver a tecnologia, mas vão usar esses softwares. Então, precisam de competências para fazerem isso de uma forma ética, sustentável e eficiente”, diz Liliana Vasconcellos.

Por esse motivo, a professora lidera, em parceria com outras universidades, um projeto de pesquisa para avaliar o letramento em inteligência artificial. A proposta é coletar dados com estudantes de Administração em quatro países (Brasil, Estados Unidos, Alemanha e Índia) para entender como desenvolvem competências em IA durante o curso, considerando que a IA está cada vez mais presente nas organizações. Liliana desenvolveu uma ferramenta de IA para apoiar a elaboração do plano de desenvolvimento individual, disponibilizada aos supervisores durante o processo de avaliação dos funcionários técnicos-administrativos da USP.  Além disso, tem promovido o debate sobre diretrizes de uso da IA no ensino de graduação e na pesquisa acadêmica.

A pesquisa

Para compreender os impactos da adoção da IA em processos seletivos, especialmente os efeitos indesejáveis, Humberta Silva investigou seus usos e consequências. Foram realizados três estudos interligados: uma revisão sistemática da literatura e dois estudos qualitativos — um com empresas e outro com as partes interessadas do processo de seleção (com exceção dos candidatos) para contribuir com a literatura científica e orientar práticas mais éticas, inclusivas e eficientes.

Devido ao escopo do estudo, a pesquisadora focou nos usuários dessas IAs (profissionais de aquisição de talentos e desenvolvedores) ao invés dos recursos, candidatos e dos softwares em si, para entender suas experiências no uso e na programação aplicada ao recrutamento e seleção. Além disso, Humberta indica a limitação qualitativa da pesquisa, que não avaliou um grande conjunto de empresas. 

A fim de realizar a avaliação desses modelos de linguagem, ela utilizou o software ATLAS.ti nas análises qualitativas de seus três estudos interligados. No primeiro, analisou 52 artigos com codificação indutiva, técnica em que o pesquisador explora os dados coletados sem categorias predefinidas para identificar padrões, temas e conceitos emergentes.

No segundo estudo, realizou uma pesquisa de múltiplos casos qualitativos com empresas da Alemanha e suas subsidiárias no Brasil, por meio de entrevistas semiestruturadas, análise documental e anotações de campo, também com codificação indutiva.

No terceiro estudo, ela focou nas experiências do processo seletivo, usando uma abordagem qualitativa básica com análise temática dedutiva e indutiva no ATLAS.ti, a fim de mapear as consequências práticas da IA em cada etapa da seleção.

A tese intitulada A inteligência artificial no processo de seleção de pessoas: usos e consequências foi defendida em 6 de abril e deverá ser disponibilizada no Banco de Teses da USP.

O post Especialistas apontam limitações da IA em seleções de emprego apareceu primeiro em Agência SP.

Compartilhe:

Receba Notícias pelo Whatsapp:

Veja também...

Formandos-do-Caminho-da-Capacitacao
abrigo_frio_2025-2-2
Imagem-do-WhatsApp-de-2025-07-28-as-15.27.52_8cf2ab35
ROTEIRO_V004.00_00_54_09.Quadro0071-scaled-1
cic-Jundiai
visita-a-linha-17-ouro-do-Metro-scaled-1
54207961287_6e9fcf6c4d_o-scaled-1
Imagem-do-WhatsApp-de-2025-07-28-as-12.06.08_9a348313
Doacao-de-sangue-1-1-scaled-2
Rolar para cima