Helena Vasconcelos — GPT-5 e o dilema ético

-5, em março de 2026, a promessa era clara: raciocínio quase humano, capacidade de lidar com nuances, contexto expandido a ponto de processar livros...

Coluna Helena Vasconcelos — Tecnologia

Quando a OpenAI apresentou o GPT-5, em março de 2026, a promessa era clara: raciocínio quase humano, capacidade de lidar com nuances, contexto expandido a ponto de processar livros inteiros. A demonstração impressionou. Os benchmarks bateram recordes. E a pergunta que ninguém no palco respondeu — mas que deveria ter sido a primeira — continuou suspensa no ar: quando essa máquina errar, quem paga a conta?

O problema não é errar — é errar com confiança

Modelos de linguagem erram. Sempre erraram. A diferença é que o GPT-5 erra com uma fluência tão convincente que distinguir o acerto do erro exige mais do leitor do que jamais exigiu. Um estudo preliminar da Universidade de Stanford, publicado dias após o lançamento, mostrou que voluntários acertaram apenas 41% das vezes ao tentar identificar respostas factualmente incorretas do GPT-5 — contra 67% com o GPT-4. Quanto melhor a máquina fala, pior ficamos em perceber quando ela mente.

Isso não é um bug. É uma característica estrutural. O modelo foi treinado para ser persuasivo, coerente, articulado. Nenhuma dessas qualidades tem correlação necessária com verdade. E quando a interface é tão polida que parece confiável, o usuário baixa a guarda. É o paradoxo da competência artificial: quanto mais capaz o sistema parece, mais vulnerável o humano fica.

A responsabilidade jurídica ainda não existe

Se um médico usa o GPT-5 para auxiliar um diagnóstico e o modelo sugere um tratamento contraindicado, quem responde? O médico, dirá o conselho de classe. A OpenAI, dirá o paciente. Ninguém, dirá o departamento jurídico da empresa, apontando para os termos de uso que isentam o sistema de qualquer responsabilidade por decisões tomadas com base em suas respostas.

Na Europa, o AI Act tenta criar um framework. Nos Estados Unidos, a regulação é fragmentada e reativa. No Brasil, o PL 2338/2023 avança lentamente, e sua versão atual não contempla especificamente a responsabilidade por erros de modelos generativos em contextos profissionais. Estamos construindo uma infraestrutura de decisões assistidas por IA sem ter decidido quem responde quando ela falha.

"A IA não substitui o julgamento humano", repetem os executivos de tecnologia. Mas quando o sistema é projetado para ser mais rápido, mais articulado e mais abrangente que qualquer humano, a frase soa menos como princípio e mais como cláusula de isenção."

O dilema da delegação invisível

O GPT-5 não precisa substituir ninguém formalmente para exercer influência real. Basta ser consultado. Um advogado que pede ao modelo para redigir uma petição. Um jornalista que usa a ferramenta para resumir documentos. Um professor que confia na correção automatizada. Em todos esses casos, a decisão final é nominalmente humana, mas o enquadramento, a seleção de informações e a estrutura do argumento são da máquina.

Isso cria uma zona cinzenta perigosa. A delegação acontece, mas é invisível. O humano assina embaixo, frequentemente sem ter verificado cada premissa, porque verificar cada premissa anularia a vantagem de velocidade que justificou o uso da ferramenta em primeiro lugar. É um ciclo que se alimenta: quanto mais eficiente o modelo, menos incentivo há para questioná-lo.

O que precisamos não é de medo — é de infraestrutura

A resposta para o dilema do GPT-5 não é recuar. Não vamos desligar a máquina, e seria ingênuo fingir que vamos. Mas precisamos de três coisas que ainda não temos: mecanismos de auditoria independente para outputs de modelos em contextos de alto risco; legislação que distribua responsabilidade de forma proporcional entre desenvolvedor, integrador e usuário; e, acima de tudo, educação digital que ensine as pessoas a duvidar com inteligência — não a aceitar com pressa.

O GPT-5 é, sem dúvida, uma conquista técnica impressionante. Mas conquistas técnicas sem infraestrutura ética são como rodovias sem sinalização: rápidas, eficientes e perigosas.

Helena Vasconcelos é colunista de Tecnologia & IA da Xaplin