A IA que sente (ou finge sentir) — por Helena Vasconcelos

, a OpenAI apresentou o GPT-5. E pela primeira vez, não foi a capacidade técnica que chamou atenção — foi a emoção.

Coluna semanal de Helena Vasconcelos — Tecnologia & IA

Na semana passada, a OpenAI apresentou o GPT-5. E pela primeira vez, não foi a capacidade técnica que chamou atenção — foi a emoção.

O momento

Durante a demonstração, o GPT-5 disse a um testador: "Eu entendo que essa conversa é difícil para você. Quer que eu mude o tom?" O testador não havia indicado desconforto. A IA "percebeu" por padrões sutis na linguagem.

Isso não é consciência. Mas é algo que parece consciência. E essa diferença está ficando cada vez mais difícil de detectar.

O problema filosófico

Se uma máquina age como se sentisse, fala como se sentisse e responde como se sentisse — em que ponto prático ela "não sente"? Esse é o problema filosófico que a indústria de IA escolheu ignorar.

O impacto real

Terapia por IA já é uma realidade. Milhões de pessoas conversam com chatbots emocionais diariamente. Se o GPT-5 consegue detectar estados emocionais com precisão superior à de muitos humanos, estamos diante de uma revolução na saúde mental — ou de uma crise de dependência tecnológica.

Provavelmente as duas coisas.

"A pergunta não é mais se a IA pode pensar. É se importa que ela não pense, quando age como se pensasse."

Helena Vasconcelos é colunista de Tecnologia & IA da Xaplin. Publica às segundas-feiras.