Os mais recentes modelos de IA do OpenAI, GPT O3 e O4-Mini, alucinam significativamente mais frequentemente do que seus antecessores
O aumento da complexidade dos modelos pode estar levando a imprecisões mais confiantes
As altas taxas de erro levantam preocupações sobre a confiabilidade da IA em aplicativos do mundo real
Pessoas brilhantes, mas não confiáveis, são um item básico de ficção (e história). A mesma correlação também pode ser aplicada à IA, com base em uma investigação por Openai e compartilhado por The New York Times. Alucinações, fatos imaginários e mentiras diretas fazem parte dos chatbots da IA desde que foram criados. As melhorias nos modelos teoricamente devem reduzir a frequência com que aparecem.
Os mais recentes modelos principal do Openai, GPT O3 e O4-Mini, devem imitar a lógica humana. Ao contrário de seus antecessores, que se concentraram principalmente na geração de texto fluente, o Openai construiu GPT O3 e O4-Mini para pensar nas coisas através do passo a passo. O Openai se vangloria de que a O1 poderia corresponder ou exceder o desempenho de estudantes de doutorado em química, biologia e matemática. Mas o relatório do Openai destaca alguns resultados angustiantes para quem toma Chatgpt respostas pelo valor nominal.