A IA que sente (ou finge sentir) — por Helena Vasconcelos
, a OpenAI apresentou o GPT-5. E pela primeira vez, não foi a capacidade técnica que chamou atenção — foi a emoção.
Coluna semanal de Helena Vasconcelos — Tecnologia & IA
Na semana passada, a OpenAI apresentou o GPT-5. E pela primeira vez, não foi a capacidade técnica que chamou atenção — foi a emoção.
O momento
Durante a demonstração, o GPT-5 disse a um testador: "Eu entendo que essa conversa é difícil para você. Quer que eu mude o tom?" O testador não havia indicado desconforto. A IA "percebeu" por padrões sutis na linguagem.
Isso não é consciência. Mas é algo que parece consciência. E essa diferença está ficando cada vez mais difícil de detectar.
O problema filosófico
Se uma máquina age como se sentisse, fala como se sentisse e responde como se sentisse — em que ponto prático ela "não sente"? Esse é o problema filosófico que a indústria de IA escolheu ignorar.
O impacto real
Terapia por IA já é uma realidade. Milhões de pessoas conversam com chatbots emocionais diariamente. Se o GPT-5 consegue detectar estados emocionais com precisão superior à de muitos humanos, estamos diante de uma revolução na saúde mental — ou de uma crise de dependência tecnológica.
Provavelmente as duas coisas.
"A pergunta não é mais se a IA pode pensar. É se importa que ela não pense, quando age como se pensasse."
Helena Vasconcelos é colunista de Tecnologia & IA da Xaplin. Publica às segundas-feiras.