O Algoritmo Não Erra, Mas a Gente Sim
Quando a máquina virou juíza e ninguém reclamou Um homem acordou desempregado porque um software de recrutamento decidiu que sua voz tinha sotaque.
SURURU_
Quando a máquina virou juíza e ninguém reclamou
Um homem acordou desempregado porque um software de recrutamento decidiu que sua voz tinha sotaque errado. Não há juiz, não há tribunal, não há apelação. Apenas uns e zeros mastigando currículos às 3 da manhã em um data center em São Paulo, filtro automático de humanidade, porta de vidro que se fecha sozinha.
Seu nome é Marco Antônio dos Santos, 47 anos, técnico em logística com 23 anos de carteira assinada. Aplicou para uma vaga em uma empresa de e-commerce — plataforma de recrutamento terceirizada, claro, porque isso é 2026 e contratar gente decente é coisa de avô comunista. O algoritmo analisou vídeo, timing de resposta, padrões de fala. Rejeitou em 4 segundos. Nenhuma nota, nenhuma razão.
"O sistema detectou inconsistências no perfil comportamental compatível com nossas métricas culturais." Leia-se: você fala como quem trabalha de verdade, não como quem fez MBA em gringo.
A democratização do preconceito com aura de científico
Marco chamou advogado, claro — Marta Ramos, 52 anos, especialista em direito trabalhista que já perdeu a conta de casos assim. Ela tem uma pasta só com rejeições algorítmicas. Dezessete clientes, quinze sotaques diferentes, cem por cento de histórias iguais. O algoritmo não discrimina. Ele democratiza a discriminação, torna-a invisível, a veste de imparcialidade científica.
A empresa? Não sabe informar qual sistema usa, qual terceirizada terceiriza a terceirizada, qual IA governa qual. Documentos mostram contrato com uma firma de São José dos Campos que contrata consultoria em Curitiba que usa ferramenta de Singapura que roda código aberto hospedado em Delaware. Investigação criminal de um cachorro perseguindo próprio rabo.
O Ministério Público do Trabalho abriu investigação em janeiro. Estamos em abril. Ninguém sabe mais do que sabe.
A defesa dos donos é tão automática quanto o crime
Telefonei para a empresa — seis transferências, quatro musiquinhas chatas, zero responsável. Mandei email formal. Resposta de bot. Fiz de novo, desta vez assinando como colunista de jornal. Mágica: em 12 minutos, diretor de comunicação ligava desculpando "sistema de seleção", "ainda há ajustes sendo feitos", "absolutamente compromissados com inclusão".
Absolutamente compromissados com incluir gente que passa na seleção da máquina. O resto é problema da máquina.
Enquanto isso, Marco está no quarto mês sem renda, esposa trabalha em confeitaria, filho pequeno quer brinquedo que custa trezentos. Pediu outro técnico: algoritmo novo, mesma rejeição. Terceira vez: nem respondeu, computador tava de finado.
A questão que ninguém quer responder
Quem treinou a máquina? Que dados ela mastigou? Alguém testou viés racial, de classe, regional? Ou a gente simplesmente acreditou que código é neutro porque é bonito acreditar nisso?
Juízes humanos erram. Chefes humanos discriminam. Mas juízes humanos você processa, chefes você denuncia. Com algoritmo, você xinga no escuro.
Marco tá pensando em virar Uber. Máquina de Uber também rejeita gente, mas pelo menos você vira motorista e fatura algo. Democracia do precariado, justiça da gambiarra.
O futuro chegou. É pior do que a gente imaginava.
Quer ir mais fundo?