Chatgpt está ficando mais inteligente, mas suas alucinações estão em espiral


  • Os mais recentes modelos de IA do OpenAI, GPT O3 e O4-Mini, alucinam significativamente mais frequentemente do que seus antecessores
  • O aumento da complexidade dos modelos pode estar levando a imprecisões mais confiantes
  • As altas taxas de erro levantam preocupações sobre a confiabilidade da IA ​​em aplicativos do mundo real

Pessoas brilhantes, mas não confiáveis, são um item básico de ficção (e história). A mesma correlação também pode ser aplicada à IA, com base em uma investigação por Openai e compartilhado por The New York Times. Alucinações, fatos imaginários e mentiras diretas fazem parte dos chatbots da IA ​​desde que foram criados. As melhorias nos modelos teoricamente devem reduzir a frequência com que aparecem.

Os mais recentes modelos principal do Openai, GPT O3 e O4-Mini, devem imitar a lógica humana. Ao contrário de seus antecessores, que se concentraram principalmente na geração de texto fluente, o Openai construiu GPT O3 e O4-Mini para pensar nas coisas através do passo a passo. O Openai se vangloria de que a O1 poderia corresponder ou exceder o desempenho de estudantes de doutorado em química, biologia e matemática. Mas o relatório do Openai destaca alguns resultados angustiantes para quem toma Chatgpt respostas pelo valor nominal.