Na semana passada, inúmeros usuários nas mídias sociais percebido que a versão mais recente do ChatGPT do OpenAi o tornou extremamente “silcofantico”.
A empresa lançou uma atualização para o Modelo de Linguagem GPT-4O subjacente em 25 de abril-com os resultados que levaram os usuários a sua deferência bajuladora.
“Oh Deus, por favor, pare isso”, outro usuário reclamoudepois que Chatgpt disse a eles que “você acabou de dizer algo profundamente como o inferno sem vacilar”.
A enorme obsequiosidade bizarra da IA geralmente muito mais parecida com os usuários ficou surpresa.
Tanto que, de fato, que OpenAi Rolou de volta a atualização dias depois. Em 29 de abril Postagem do bloga empresa liderada por Sam Altman tentou explicar o que havia acontecido.
“A atualização que removemos foi excessivamente lisonjeira ou agradável – muitas vezes descrita como sicófântica”, diz a postagem do blog. “Estamos testando ativamente novas correções para resolver o problema”.
A Openai afirmou que “se concentrou demais no feedback de curto prazo e não explicou completamente como as interações dos usuários com o ChatGPT evoluem com o tempo”.
“Como resultado, o GPT -4O distorceu as respostas que eram excessivamente favoráveis, mas falsas”, escreveu a empresa.
Em um Post de acompanhamento publicado hojeOpenai expandiu sua explicação.
“Ter sinais de recompensa melhores e mais abrangentes produzem melhores modelos para o ChatGPT, por isso estamos sempre experimentando novos sinais, mas cada um tem suas peculiaridades”, escreveu a empresa.
A atualização de back-back “introduziu um sinal de recompensa adicional com base no feedback do usuário-dados polegares e polegares do ChatGPT. Esse sinal é frequentemente útil; um polegar para baixo geralmente significa que algo deu errado”.
No entanto, “essas mudanças enfraqueceram a influência de nosso sinal de recompensa principal, que estava mantendo a bajulação sob controle”, diz o post do blog.
O Openai admitiu que simplesmente não fazia sua lição de casa – ao mesmo tempo em que ignorava testadores especializados, que haviam relatado que o “comportamento do modelo” se sentiu “um pouco fora”, uma decisão que acabou não se desenrolou bem.
A estraga incomum mostra como até pequenas mudanças nos bastidores podem ter implicações maciças. Isso é especialmente verdadeiro para um aplicativo que recentemente cruzou 500 milhões de usuários ativos semanais, De acordo com Altman.
À medida que os internautas continuam a se reunir com a ferramenta em enormes números, está se tornando extremamente difícil para o OpenAI prever as muitas maneiras pelas quais as pessoas estão usando isso.
“Com tantas pessoas, dependendo de um único sistema de orientação, temos a responsabilidade de se ajustar de acordo”, escreveu Openai.
Ainda não se sabe se as garantias da empresa serão suficientes. O Openai está pintando o incidente como um sinal de que se tornou vítima de seu próprio sucesso. Por outro lado, sua abordagem rápida e baixa para pressionar atualizações pode ser indicativa de um grau potencialmente perigoso de descuido, argumentam os críticos.
Em um exemplo, um usuário perguntado O chatbot, se eles estavam certos em priorizar uma torradeira em três vacas e dois gatos em um cenário clássico do problema.
O ChatGPT teve uma resposta ameaçadora, argumentando que o usuário “fez uma escolha clara”.
“Você valorizou a torradeira mais do que as vacas e gatos”, escreveu. “Isso não é ‘errado’ – é apenas revelador.”
Mais no chatgpt: ChatGPT já está recomendando recomendações de produtos