Este homem foi morto há quatro anos. Seu clone de IA acabou de falar no tribunal.

As pessoas simplesmente não conseguem parar Usando ferramentas generativas de IA em procedimentos legaisapesar de repetido pushback de juízes frustrados. Enquanto a IA apareceu inicialmente em tribunais através de Bogus Casos “alucinados” A tendência deu uma guinada – dirigida por ferramentas de vídeo e áudio cada vez mais sofisticadas. Em alguns casos, a IA está sendo usada para aparentemente trazer as vítimas de volta dos mortos.

Nesta semana, a família de uma vítima de crime apresentou um breve vídeo em um tribunal do Arizona, representando uma versão de IA de Chris Pelkey, 37 anos. Pelkey ​​foi baleado e morto em 2021 em um incidente de raiva na estrada. Agora, quatro anos depois, o “clone” gerado pela IA parecia abordar seu suposto assassino no tribunal. O vídeo, relatado pela primeira vez por saída local ABC15parece ser o primeiro exemplo conhecido de um generativo AI Deepfake usado em uma declaração de impacto da vítima.

“Para Gabriel Horcasitas, o homem que atirou em mim, é uma pena que nos encontramos naquele dia nessas circunstâncias”, diz a réplica da AI de Pelkey ​​no vídeo. “Em outra vida, provavelmente poderíamos ter sido amigos.”

O vídeo mostra a versão da IA ​​do Pelkey ​​- um veterano corpulento do Exército barbudo – prendendo um capuz verde e um boné de beisebol cinza. A família de Pelkey ​​criou o vídeo treinando um modelo de IA em vários clipes de Pelkey. Um filtro de “velhice” foi então aplicado para simular como pode ser a Pelkey ​​hoje. No final, o juiz condenou Horcasitas a 10,5 anos de prisão por homicídio culposo, uma decisão que ele disse ter sido pelo menos parcialmente influenciada pela declaração de impacto gerada pela IA.

“Este é o melhor que eu posso lhe dar sobre como eu teria se tivesse se tivesse a chance de envelhecer”, disse o Pelkey ​​Deepfake. “Lembre -se, envelhecer é um presente que nem todo mundo tem, então abraça e pare de se preocupar com essas rugas.”

Um homem de Nova York usou um AI Deepfake para ajudar a discutir seu caso

A declaração de impacto gerada pela IA ocorre apenas um mês depois que um réu no Tribunal do Estado de Nova York, Jerome Dewald, de 74 anos, usou um vídeo de Deepfake para ajudar na entrega de sua própria defesa legal. Quando Dewald apareceu no tribunal por uma disputa de contrato com um ex -empregador, ele apresentou um vídeo mostrando um homem em um suéter e uma camisa azul falando diretamente com a câmera. O juiz, confuso com o vídeo, perguntou a Dewald se a pessoa na tela era seu advogado. Na realidade, era um Deepfake gerado pela IA.

“Eu gerei isso”, disse Dewald De acordo com The New York Times. “Isso não é uma pessoa real.”

https://www.youtube.com/watch?v=ctv4zqrzgba

O juiz não ficou satisfeito e repreendeu Dewald por não divulgar que ele havia usado o software de IA para ajudar sua defesa. Falando com O NYT Após a audiência, Dewald afirmou que não pretendia enganar o tribunal, mas usou a ferramenta de IA como uma maneira de articular mais claramente sua defesa. Ele disse que inicialmente planejava que o Deepfake se pareça, mas mudou para a versão mostrada no tribunal depois de encontrar dificuldades técnicas.

“Minha intenção nunca era enganar, mas sim apresentar meus argumentos da maneira mais eficiente possível”, disse Dewald em uma carta aos juízes.

Relacionado: (Este Ai Chatbot estará jogando advogado em um verdadeiro tribunal dos EUA)

Os dois casos representam os exemplos mais recentes de IA generativa que se infiltra nos tribunais, uma tendência que começou a ganhar tração há vários anos, após a onda de interesse público em chatbots populares como Opic é AAIP. Advogados de todo o país usaram esses grandes modelos de linguagem para Ajude a elaborar registros legais e coletar informações. Isso levou a alguns casos embaraçosos em que os modelos “alucinados” fabricam nomes de casos e fatos que eventualmente chegam aos procedimentos legais.

Em 2023, dois advogados de Nova York foram sancionados por um juiz depois de enviarem um breve contendo seis citações falsas de casos gerado por chatgpt. Michael Cohen, o ex -advogado pessoal do presidente Donald Trump, supostamente enviado casos legais gerados por IA falsos ao seu advogado que acabou em uma moção submetida aos juízes federais. Outro advogado no Colorado foi suspenso após o envio de casos legais gerados pela IA. O Openai até foi processado por um apresentador de rádio da Geórgia que reivindicaram uma resposta de bate -papo o acusou de estar envolvido em um caso de peculato real que ele não tinha nada a ver.

Prepare -se para mais IA nos tribunais

Embora os tribunais tenham punido advogados e réus por usar a IA de maneiras que parecem enganosas, as regras sobre se é aceitável usar essas ferramentas permanecem obscuras. Na semana passada, um painel judicial federal votou 8–1 para procurar comentários públicos sobre uma regra de rascunho Com o objetivo de garantir que as evidências assistidas pela AA atendam aos mesmos padrões que as evidências apresentadas por testemunhas de especialistas em humanos. O juiz chefe da Suprema Corte John Roberts também abordou a questão em seu 2023 Relatório Anualobservando os benefícios potenciais e as desvantagens de permitir IA mais generativa no tribunal. Por um lado, ele observou, a IA poderia facilitar as pessoas com recursos financeiros limitados para se defender. Ao mesmo tempo, ele alertou que a tecnologia corre o risco de “invadir interesses de privacidade e desumanizar a lei”.

Uma coisa parece certa: não vimos o último da IA ​​Deepakes nos tribunais.

Mais negócios, revisões e guias de compra

Mack Degeurin é um repórter de tecnologia que passou anos investigando onde a tecnologia e a política colidem. Seu trabalho apareceu anteriormente em Gizmodo, Insider, New York Magazine e Vice.