O governo de Cingapura lançada um plano hoje para colaboração global em inteligência artificial Segurança após uma reunião de pesquisadores de IA dos EUA, China e Europa. O documento estabelece uma visão compartilhada para trabalhar na segurança da IA através da cooperação internacional e não da concorrência.
“Cingapura é um dos poucos países do planeta que se dá bem com o leste e o oeste”, diz Max Tegmark, um cientista do MIT que ajudou a convocar a reunião de luminares da IA no mês passado. “Eles sabem que não vão construir (inteligência geral artificial) – eles farão com eles -, portanto, é muito do interesse deles ter os países que vão construí -lo conversando um com o outro”.
Os países achados que provavelmente construirão a AGI são, obviamente, os EUA e a China – e, no entanto, essas nações parecem mais intensivas em serem manobradas umas das outras do que trabalharem juntas. Em janeiro, depois da startup chinesa Deepseek lançou um modelo de pontaO presidente Trump chamou de “um alerta para nossas indústrias” e disse que os EUA precisavam ser “focados a laser em competir para vencer”.
O consenso de Cingapura sobre as prioridades globais de pesquisa de segurança exige que os pesquisadores colaborem em três áreas principais: estudando os riscos apresentados pelos modelos de IA da fronteira, explorando maneiras mais seguras de construir esses modelos e desenvolver métodos para controlar o comportamento dos sistemas de IA mais avançados.
O consenso foi desenvolvido em uma reunião realizada em 26 de abril, ao lado da Conferência Internacional sobre Representações de Aprendizagem (ICLR), um principal evento de IA realizado em Cingapura este ano.
Pesquisadores do OpenAI, Anthropic, Google Deepmind, Xai e Meta participaram do evento de segurança da IA, assim como os acadêmicos de instituições como MIT, Stanford, Tsinghua e a Academia Chinesa de Ciências. Especialistas dos Institutos de Segurança da IA nos EUA, Reino Unido, França, Canadá, China, Japão e Coréia também participaram.
“Em uma era de fragmentação geopolítica, essa síntese abrangente de pesquisas de ponta sobre segurança de IA é um sinal promissor de que a comunidade global está se unindo com um compromisso compartilhado em moldar um futuro mais seguro da IA”, disse Xue Lan, reitor da Universidade de Tsinghua, em comunicado.
O desenvolvimento de modelos de IA cada vez mais capaz, alguns dos quais têm habilidades surpreendentes, fez com que os pesquisadores se preocupassem com uma série de riscos. Enquanto alguns se concentram em danos de curto prazo, incluindo problemas causados por sistemas de IA tendenciosos ou o potencial para criminosos para aproveitar a tecnologiaum número significativo acredita que a IA pode representar uma ameaça existencial à humanidade, pois começa a superar os seres humanos em mais domínios. Esses pesquisadores, às vezes chamados de “AI Doomers”, preocupam que os modelos possam enganar e manipular os seres humanos para buscar seus próprios objetivos.
O potencial da IA também fez uma conversa de uma corrida armamentista entre os EUA, a China e outras nações poderosas. A tecnologia é vista nos círculos políticos como críticos para a prosperidade econômica e o domínio militar, e muitos governos procuraram apostar suas próprias visões e regulamentos que regem como deve ser desenvolvido.