Xaplin On
Brasília
Portal Xaplin — jornalismo vivo • a revista não dorme
USD EUR GBP JPY BTC ETH SOL BNB

IA nos estágios: o filtro invisível que está fechando portas

Não estamos apenas substituindo profissionais experientes por algoritmos. Estamos bloqueando a entrada de quem nunca teve chance de entrar.

Coluna de Helena Vasconcelos — Tecnologia & IA

Quando a máquina escolhe quem merece aprender

A notícia de que a inteligência artificial já reduz oportunidades de emprego entre jovens no Brasil não deveria nos surpreender. Mas surpreende porque revela algo incômodo: não estamos apenas substituindo profissionais experientes por algoritmos. Estamos bloqueando a entrada de quem nunca teve chance de entrar. Os estágios e primeiras oportunidades – aquele degrau crucial entre a universidade e o mercado de trabalho – estão sendo filtrados por sistemas que aprendem a preferir candidatos com experiência. Um paradoxo perfeito: para ter experiência, você precisa já ter experiência.

Como colunista de IA há alguns anos, vejo essa armadilha acontecendo em tempo real nos processos seletivos brasileiros. Plataformas de recrutamento já utilizam modelos de machine learning para "otimizar" a triagem de candidatos. O problema? Esses algoritmos são treinados com históricos de contratações passadas – e nossas contratações passadas refletem preconceitos bem estruturados: preferência por formação em universidades caras, experiência prévia (mesmo que irrelevante), até proximidade geográfica com grandes centros urbanos.

O efeito cascata invisível

Aqui está o detalhe que ninguém está discutindo: quando você exclui jovens da formação profissional através de IA, não está apenas afetando uma pessoa. Está criando um efeito cascata que compromete o desenvolvimento econômico em cadeia. Um jovem que não consegue estágio não desenvolve habilidades práticas. Sem habilidades práticas, não consegue emprego. Sem emprego, não consome, não investe em si mesmo, não inovação.

Nas últimas semanas, conversei com professores de faculdades de Economia e Administração em São Paulo e Recife. Ambos relatam a mesma frustração: empresas reclamam de "falta de mão de obra qualificada", mas seus sistemas automáticos rejeitam 95% dos estagiários antes mesmo de um humano ler um currículo. É automation sem inteligência – e sem ética.

"A IA não está sendo usada para expandir oportunidades. Está sendo usada para contratar mais rápido e com menos conflito – o que inadvertidamente perpetua as mesmas exclusões que sempre tivemos."

O que ninguém está perguntando

A conversa pública sobre IA no Brasil ainda é superficial. Falamos de ChatGPT, de chatbots de atendimento, de deepfakes. Raramente falamos sobre os algoritmos que estão transformando acesso a oportunidades em um problema técnico – e portanto, "objetivo" e "imparcial".

Empresas adoram essa ilusão de objetividade. Se o algoritmo rejeitou você, não foi discriminação – foi uma decisão "científica". Ninguém precisa se sentir culpado. Aqui está meu ponto crítico: sistemas de IA em recrutamento deveriam ter regulação específica no Brasil. Não é suficiente auditar viés em modelos pós-implementação. É preciso regulação *antes*: transparência sobre critérios de treinamento, limites sobre que dados podem ser usados, direito de apelação humana garantido.

O caminho que não é tão difícil

Não vou fingir que tenho uma solução mágica. Mas vou apontar o óbvio que está sendo ignorado: empresas poderiam facilmente ajustar seus modelos de IA para *favorecer* candidatos jovens sem experiência em áreas estratégicas. Não é tecnicamente complexo. É uma escolha de design. O ChatGPT pode ser configurado para diferentes tons e objetivos – por que algoritmos de recrutamento não podem ser configurados para identificar *potencial* em vez de apenas reproduzir o passado?

Algumas startups já fazem isso. Plataformas como Trabalha Brasil e Kenoby têm versões de seus sistemas treinadas especificamente para reconhecer estagiários sem experiência prévia como candidatos viáveis. Mas são exceções. A maioria das grandes empresas brasileiras usa soluções genéricas importadas de fora, calibradas para mercados de trabalho completamente diferentes do nosso.

A urgência é agora

O que me preocupa genuinamente é a inércia. Esse problema é sutil demais para virar trend no Twitter, técnico demais para interessar política tradicional, e não causa dano *visível* o bastante para gerar comoção. Mas o dano é real: estamos criando uma geração de jovens brasileiros que não conseguem nem passar pelo primeiro filtro automático.

Reguladores brasileiros precisam acordar. ANPD, ministério do Trabalho, sindicatos – alguém precisa começar a fazer perguntas sobre como IA está sendo usada em processos de contratação. E empresas precisam entender que otimizar para velocidade e custo *contra* justiça geracional é péssimo negócio no longo prazo.

A tecnologia não é neutra. E quando fingimos que é, apenas legitimamos as nossas exclusões habituais com roupagem de ciência.