Futuro dos Negócios
Você procura por
  • em Publicações
  • em Grupos
  • em Usuários
loading
VOLTAR

Por que os modelos de linguagem alucinam?

Por que os modelos de linguagem alucinam?
Futuro dos Negócios
set. 13 - 1 min de leitura
010

A OpenAI revelou por que o ChatGPT e outros modelos de linguagem ainda ALUCINAM e a raiz do problema está nos métodos de TREINAMENTO e AVALIAÇÃO. Hoje, os sistemas são RECOMPENSADOS por “chutar” respostas, em vez de RECONHECER quando não sabem algo.

✅ Alucinações são respostas FALSAS, mas PLAUSÍVEIS, que a IA dá com CONFIANÇA.

✅ Avaliações tradicionais priorizam apenas ACERTOS, incentivando PALPITES.

✅ É como em uma prova de múltipla escolha: ARRISCAR pode gerar pontos, ADMITIR “não sei” leva a zero.

✅ O resultado: modelos que parecem SEGUROS, mas ERRAM com frequência.

A proposta da OpenAI é simples: PENALIZAR erros confiantes mais do que a incerteza. Isso permitiria que a IA fosse mais humilde, dizendo “não sei”, em vez de INVENTAR respostas.

Mesmo no GPT-5, que REDUZIU muito as alucinações (especialmente com reflexão ativada), o desafio continua. Afinal, algumas perguntas não têm resposta possível e isso precisa ser reconhecido.

No fim, a busca não é por uma IA que nunca ERRA, mas por uma IA que sabe LIDAR melhor com suas incertezas.

⁉️ E você, o que prefere: uma resposta arriscada ou um “não sei” honesto?


Denunciar publicação
    010

    Indicados para você