
A corrida armamentista da contratação entrou numa nova fase. De um lado, candidatos turbinam currículos, fotos e até respostas técnicas com ferramentas de IA. Do outro, recrutadores reagem com filtros anti-fraude, biometria, e o retorno da boa e velha entrevista presencial. Nos EUA e em outras praças, Google, Cisco, McKinsey e outras grandes já reintroduzem etapas cara a cara para reduzir trapaças em provas de código e falsidade ideológica em videochamadas, segundo reportagem do Wall Street Journal e repercussões da imprensa internacional.
O pano de fundo é a explosão de golpes digitais no recrutamento. A Gartner projeta que, até 2028, um em cada quatro perfis de candidatos poderá ser falso, inflado por identidades sintéticas, deepfakes e “funcionários-fantasma”. É um salto que pressiona políticas de verificação e muda a logística de seleção, apontam análises compiladas por veículos de RH e tecnologia.
A resposta corporativa começa a ganhar forma. A Amazon passou a desclassificar candidatos que usam IA durante entrevistas, orientando recrutadores a comunicar explicitamente a regra e checar sinais de uso indevido de assistentes de código. A justificativa é que a prática dá “vantagem injusta” e impede avaliar habilidades reais. Já a Anthropic, que inicialmente proibiu IA no processo, posição noticiada por Financial Times e outros, flexibilizou a política em julho: admite IA para rascunhar CVs e cartas (preferencialmente o Claude), mas mantém entrevistas e avaliações sem auxílio.
Para dissuadir impostores e deepfakes, empresas estão adotando biometria e validação de identidade de terceiros. A parceria da plataforma de recrutamento Greenhouse com a Clear é um exemplo de como o mercado tenta impedir que perfis fabricados cheguem à entrevista. Pesquisas citadas pela imprensa mostram ainda um giro de volta ao presencial após a pandemia, com mais empresas exigindo etapas in loco para funções técnicas, sobretudo onde fraude em testes remotos explodiu.
A própria indústria de tecnologia vive a ambivalência: algumas lideranças agora punem a recusa em usar IA no dia a dia, mesmo enquanto apertam o cerco na seleção. O CEO da Coinbase, Brian Armstrong, revelou ter demitido engenheiros que não adotaram ferramentas de IA em uma semana e estabeleceu metas agressivas de código gerado por IA, um símbolo de como o “pós-contratação” exige proficiência em IA, mas o ato de contratar precisa separar quem sabe do que é apenas “cola digital”.
E no Brasil – No meio desse tabuleiro, o Brasil observa tendências que já batem à porta. O avanço de golpes com deepfakes em verificação de identidade e proxies em entrevistas remotas acelera a adoção local de verificação biométrica e provas técnicas supervisionadas, e reforça a necessidade de políticas claras. O que é permitido (usar IA para preparar o CV), o que é vedado (usar IA em provas/entrevistas), e como a companhia audita isso. Relatos de recrutadores mostram que “cola” em entrevistas técnicas virtuais está em alta, o que ajuda a explicar a guinada para processos mais controlados.
O que muda na prática para candidatos e empresas
Para candidatos, o recado é para usar IA para se preparar, não para trapacear. Recrutadores estão cada vez mais treinados para identificar respostas “robóticas”, latência de prompt, janelas fora de foco e padrões de digitação anômalos, e além disso, testes presenciais e verificação de identidade estão de volta.
Para empresas, três frentes ficam inadiáveis:
- Política de IA no recrutamento (o que pode/ não pode e como detectar).
- Camadas de verificação (IDV/biometria antes das etapas técnicas).
- Desenho de prova que capture raciocínio e pair programming (algo que modelos ainda não substituem de ponta a ponta). As referências recentes de Google/Amazon/Anthropic e parcerias como Greenhouse-Clear desenham um playbook inicial.
No curto prazo, a seleção tende a ficar mais híbrida e menos ingênua. Remota onde for eficiente, presencial onde a autenticidade é crítica. No médio, veremos mais auditorias de processo e sinalização de risco para perfis suspeitos, um caminho inevitável num mercado em que, segundo a Gartner, a falsificação deve virar estatística se nada for feito.
Texto: Redação TI Rio