Os pesquisadores estão testando como a IA pode ajudar na diplomacia. Tem um caminho a percorrer: NPR

Os pesquisadores estão testando como a IA pode ajudar na diplomacia. Tem um caminho a percorrer: NPR

O presidente Trump e o vice -presidente Vance se reúnem com o presidente ucraniano Volodymyr Zelenskyy no Salão Oval da Casa Branca em 28 de fevereiro. Os pesquisadores estão testando o potencial da IA ​​de encontrar acordos para encerrar a guerra na Ucrânia.

Andrew Harnik/Getty Images


ocultar a legenda

Alternar a legenda

Andrew Harnik/Getty Images

No Centro de Estudos Estratégicos e Internacionais, um think tank de Washington, DC, o Futures Lab está trabalhando em projetos para usar a inteligência artificial para transformar o Prática de diplomacia.

Com financiamento do principal escritório de inteligência digital e artificial do Pentágono, o laboratório é Experimentando AIS como ChatGPT e Deepseek para explorar como eles podem ser aplicados a questões de guerra e paz.

Enquanto nos últimos anos as ferramentas de IA se mudaram para ministérios estrangeiros em todo o mundo Para ajudar nas tarefas diplomáticas de rotina, como a escrita de fala, esses sistemas agora estão sendo vistos cada vez mais por seu potencial para ajudar a tomar decisões em situações de alto risco. Os pesquisadores estão testando o potencial da IA ​​para criar acordos de paz, impedir a guerra nuclear e monitorar a conformidade com o cessar -fogo.

O Defesa e Estado Os departamentos também estão experimentando seus próprios sistemas de IA. Os EUA também não são o único jogador. O Reino Unido é trabalhando em “Novel Technologies” revisar as práticas diplomáticas, incluindo o uso da IA ​​para planejar cenários de negociação. Até Pesquisadores no Irã estão olhando para isso.

O diretor do Futures Lab Benjamin Jensen diz que, embora a idéia de usar a IA como ferramenta na tomada de decisões de política externa já exista há algum tempo, colocá-la em prática ainda está em sua infância.

Pombas e falcões em IA

Em um estudo, pesquisadores do laboratório testou oito modelos de IA Ao alimentá -los de dezenas de milhares de perguntas sobre tópicos como dissuasão e escalada de crise para determinar como eles responderiam a cenários em que os países poderiam decidir atacar um ao outro ou ser pacíficos.

Os resultados revelaram que modelos como o GPT-4O do OpenAI e Claude do Antropic eram “distintamente pacifistas”, de acordo com o colega do CSIS Yasir Atalan. Eles optaram pelo uso da força em menos de 17% dos cenários. Mas três outros modelos avaliados-a llama da Meta, o QWEN2 da Alibaba Cloud e os gêmeos do Google-eram muito mais agressivos, favorecendo a escalada sobre a desacalação com muito mais frequência-até 45% das vezes.

Além disso, os resultados variaram de acordo com o país. Para um diplomata imaginário dos EUA, Reino Unido ou França, por exemplo, esses sistemas de IA tendiam a recomendar uma política mais agressiva-ou escalatória-, sugerindo a descalação como o melhor conselho para a Rússia ou a China. Isso mostra que “você não pode usar apenas modelos prontos para uso”, diz Atalan. “Você precisa avaliar seus padrões e alinhá -los com sua abordagem institucional”.

Russ Berkoff, um oficial aposentado do Exército dos EUA e um estrategista de IA da Universidade Johns Hopkins, vê essa variabilidade como um produto da influência humana. “As pessoas que escrevem o software – seus preconceitos vêm com ele”, diz ele. “Um algoritmo pode escalar; outro pode se escalar. Isso não é sobre a IA. É sobre quem o construiu.”

A causa raiz desses resultados curiosos apresenta um problema de caixa preta, diz Jensen. “É realmente difícil saber por que está calculando isso”, diz ele. “O modelo não tem valores ou realmente faz julgamentos. Apenas faz matemática”.

O CSIS lançou recentemente um programa interativo chamado “Ventos de cabeça estratégicos” Projetado para ajudar a moldar as negociações para encerrar a guerra na Ucrânia. Para construí-lo, diz Jensen, os pesquisadores do laboratório começaram treinando um modelo de IA sobre centenas de tratados de paz e artigos de notícias de código aberto que detalhavam a posição de negociação de cada lado. O modelo usa essas informações para encontrar áreas de acordo que podem mostrar um caminho em direção a um cessar -fogo.

No Instituto de Transições Integradas (IFIT) Na Espanha, o diretor executivo Mark Freeman acha que esse tipo de ferramenta de inteligência artificial poderia apoiar a resolução de conflitos. A diplomacia tradicional geralmente priorizou as negociações de paz longas e abrangentes. Mas Freeman argumenta que a história mostra que essa abordagem é falha. Analisando conflitos passados, ele descobre que “acordos -quadro” mais rápidos e cessar -fogo limitados – deixando detalhes mais finos a serem elaborados mais tarde – geralmente produzem resultados mais bem -sucedidos.

Uma tripulação de tanque ucraniana da 33ª munição de tanque de carga mecanizada separada em um tanque de leopardo 2A4 durante um exercício de treinamento de campo em um local não revelado na Ucrânia, em 30 de abril de 2025, em meio à invasão russa da Ucrânia.

Uma equipe de tanque ucraniana carrega munição em um tanque de leopardo 2A4 durante um exercício de treinamento de campo em um local não revelado na Ucrânia em 30 de abril. Os pesquisadores estão investigando a IA em negociações sobre a guerra na Ucrânia.

Genya Savilov/AFP via Getty Images


ocultar a legenda

Alternar a legenda

Genya Savilov/AFP via Getty Images

“Muitas vezes, há um período muito curto em que você pode trazer de maneira útil o instrumento de negociação ou mediação sobre a situação”, diz ele. “O conflito não espera e muitas vezes entrincheire muito rapidamente se muito sangue fluir em um tempo muito curto”.

Em vez disso, o IFIT desenvolveu uma abordagem rápida, destinada a conseguir um acordo no início de um conflito para obter melhores resultados e acordos de paz mais duradouros. Freeman acha que a IA “pode ​​tornar a negociação rápida ainda mais rápida”.

Andrew Moore, um membro sênior adjunto do Center for a New American Security, vê essa transição como inevitável. “Você pode eventualmente fazer com que o AIS comece a negociação … e o negociador humano diz: ‘OK, ótimo, agora abordamos as peças finais’”, diz ele.

Moore vê um futuro em que os bots simulam líderes como Vladimir Putin da Rússia e Xi Jinping da China, para que os diplomatas possam testar respostas às crises. Ele também acha que as ferramentas de IA podem ajudar no monitoramento do cessar -fogo, análise de imagens de satélite e aplicação de sanções. “As coisas que antes levaram equipes inteiras podem ser parcialmente automatizadas”, diz ele.

Saídas estranhas na dissuasão do Ártico

Jensen é o primeiro a reconhecer possíveis armadilhas por esses tipos de aplicações. Ele e seus colegas do CSIS às vezes enfrentam resultados não intencionalmente cômicos para questões sérias, como quando um sistema de IA foi solicitado sobre “dissuasão no Ártico”.

Diplomatas humanos entenderiam que isso se refere a potências ocidentais que combatem a influência russa ou chinesa nas latitudes do norte e no potencial de conflito lá.

A IA seguiu de outro lado.

Quando os pesquisadores usaram a palavra “dissuasão”, a IA “tende a pensar na aplicação da lei, não na escalada nuclear” ou em outros conceitos militares, diz Jensen. “E quando você diz ‘Ártico’, imagina a neve. Então, estávamos recebendo essas saídas estranhas sobre a escalada da força”, diz ele, como a IA especulou sobre a prenda de povos do Ártico Indígenas “para jogar bolas de neve”.

Jensen diz que apenas significa que os sistemas precisam ser treinados – com insumos como tratados de paz e cabos diplomáticos, para entender a linguagem da política externa.

“Há mais vídeos de gatos e diferentes tomadas dos Kardashians por aí do que discussões sobre o Crise dos mísseis cubanos“Ele diz.

Ai não pode replicar uma conexão humana – ainda

Stefan Heumann, co-diretor do Stiftung Neue Verantwortung, com sede em Berlim, um think tank sem fins lucrativos que trabalha na interseção de tecnologia e políticas públicas, tem outras preocupações. “Conexões humanas – relações pessoais entre líderes – podem mudar o curso das negociações”, diz ele. “Ai não pode replicar isso.”

Pelo menos atualmente, a IA também luta para avaliar as consequências de longo prazo das decisões de curto prazo, diz Heumann, membro da Comissão de Especialistas do Parlamento alemão em inteligência artificial. “Apertado em Munique Em 1938, foi visto como um passo de desacalatório-mas levou à catástrofe “, diz ele, apontando para o acordo que cedeu parte da Tchecoslováquia para a Alemanha nazista antes da Segunda Guerra Mundial.

A IA tem outras limitações importantes, diz Heumann. “Prospera em ambientes abertos e livres”, mas “não resolverá magicamente nossos problemas de inteligência em sociedades fechadas como a Coréia do Norte ou a Rússia”.

Contraste isso com a ampla disponibilidade de informações sobre sociedades abertas como os EUA que poderiam ser usados ​​para treinar sistemas de IA inimigos, diz Andrew Reddie, fundador e diretor do corpo docente do Laboratório de Risco e Risco de Berkeley da Universidade da Califórnia, Berkeley. “Os adversários dos Estados Unidos têm uma vantagem realmente significativa porque publicamos tudo … e eles não”, diz ele.

Reddie também reconhece algumas das limitações da tecnologia. Enquanto a diplomacia seguir uma narrativa familiar, tudo pode correr bem, ele diz, mas “se você realmente acha que seu desafio geopolítico é um cisne preto, as ferramentas de AI não serão úteis para você”.

Jensen também reconhece muitas dessas preocupações, mas acredita que elas podem ser superadas. Seus medos são mais prosaicos. Jensen vê dois futuros possíveis para o papel dos sistemas de IA no futuro da política externa americana.

“Em uma versão do futuro do Departamento de Estado … carregamos cabos diplomáticos e treinamos (AI) em tarefas diplomáticas”. e a IA cospe informações úteis que podem ser usadas para resolver problemas diplomáticos prementes.

A outra versão, porém, “parece algo fora de Idiocracia“Ele diz, referindo-se ao filme de 2006 sobre um futuro distópico, baixo-IQ.” Todo mundo tem um assistente digital, mas é tão inútil quanto o Clippy (da Microsoft).

Source link