Elon Musk é chamado Departamento de Eficiência do Governo (DOGE) opera em um núcleo subjacente à suposição: o Estados Unidos devem ser executados como uma startup. Até agora, isso significou principalmente disparos caóticos e uma ânsia para os regulamentos de rolagem vaporizada. Mas nenhum deck de inclinação em 2025 está completo sem uma overdose de inteligência artificial, e Doge não é diferente.
A IA em si não merece reflexivamente forchforks. Tem usos genuínos e pode criar eficiências genuínas. Não é inerentemente desagradável introduzir a IA em um fluxo de trabalho, especialmente se você está ciente e capaz de gerenciar em torno de seu limitações. Não está claro, porém, que Doge adotou qualquer uma dessas nuances. Se você tem um martelo, tudo parece um prego; Se você tiver mais acesso aos dados mais sensíveis do país, tudo se parece com uma entrada.
Onde quer que Doge tenha ido, a IA está a reboque. Dada a opacidade da organização, muito permanece desconhecido sobre como exatamente ela está sendo usada e onde. Mas duas revelações nesta semana mostram o quão extensa – e potencialmente equivocada – as aspirações da IA são.
No Departamento de Habitação e Desenvolvimento Urbano, um A graduação da faculdade foi encarregada de usar a IA Para descobrir onde os regulamentos do HUD podem ir além da interpretação mais rigorosa das leis subjacentes. (As agências tradicionalmente tinham ampla autoridade interpretativa quando a legislação é vaga, embora a Suprema Corte recentemente mudou esse poder para o ramo judicial.) Esta é uma tarefa que realmente faz algum sentido para a IA, que pode sintetizar informações de documentos grandes muito mais rápido do que um humano. Há algum risco de alucinação – mais especificamente do modelo cuspindo citações que não existem de fato – mas um humano precisa aprovar essas recomendações, independentemente. Este é, em um nível, o que a IA generativa é realmente muito boa agora: fazer um trabalho tedioso de maneira sistemática.
Há algo pernicioso, por pedir a um modelo de IA para ajudar a desmontar o estado administrativo. (Além do fato; sua milhagem varia lá, dependendo de você pensar que a moradia de baixa renda é um bem social ou você está mais em nenhum tipo de quintal.) A IA não “sabe” nada sobre regulamentos ou se eles se compensam ou não com a mais rigorosa leitura possível dos estatutos, algo que até os advogados altamente experientes se dissolverão. Ele precisa ser alimentado com um rápido detalhando o que procurar, o que significa que você pode não apenas trabalhar os árbitros, mas escrever o livro de regras para eles. Também é excepcionalmente ansioso para agradar, a ponto de irá inventar com confiança as coisas em vez de recusar a responder.
Se nada mais, é o caminho mais curto para um estripamento maximalista da autoridade de uma agência de grande agência, com a chance de besteira dispersa em boa medida.
Pelo menos é um caso de uso compreensível. O mesmo não pode ser dito para outro esforço de IA associado ao Doge. Como conectado relatou sexta -feira, Um recrutador da Doge, mais uma vez, está procurando engenheiros, desta vez para “projetar benchmarks e implantar agentes de IA nos fluxos de trabalho ao vivo em agências federais”. Seu objetivo é eliminar dezenas de milhares de posições do governo, substituindo -as por IA agêntica e “libertando” trabalhadores para tarefas ostensivamente “de maior impacto”.