El 26 de marzo, durante una audiencia por un conflicto laboral, DeWaard fue duramente reprendido por no informar al juez sobre la inteligencia artificial durante sus argumentos orales. Aunque el tribunal permitió que DeWald presentara el video, la jueza Sallie Manzanet-Daniels quedó confundida cuando apareció en la pantalla un hablante desconocido que claramente no era DeWald.
"Espera un minuto", Manzanette-Daniels interrumpió el vídeo tan pronto como el avatar terminó su primera frase. "¿Es él el abogado defensor en este caso?"
"Yo lo creé", respondió DeWald, "no es una persona real".
El avatar, un "chico alto y guapo" llamado Jim, fue proporcionado por una empresa de avatares de inteligencia artificial llamada Tavus. Dewald dijo que el video fue enviado porque tenía dificultades para hablar, pero el tribunal no sabía que su contenido había sido generado artificialmente.
"Hubiera sido bueno si lo hubiera sabido cuando presentó la solicitud. No me lo dijo, señor, y no me gusta que me engañen", dijo Manzanette-Daniels en respuesta a la admisión de Dewald. "Uno no piensa en este tribunal como el comienzo de su negocio".
Es el último de una serie de errores que han ocurrido cuando las personas intentan combinar procesos legales con tecnología de inteligencia artificial. En 2023, dos abogados y un bufete de abogados fueron castigados por presentar investigaciones legales falsas fabricadas por ChatGPT. A la empresa de "abogados robóticos" DoNotPay también se le ordenó pagar un acuerdo de 193.000 dólares a la Comisión Federal de Comercio en febrero por promover, sin pruebas, que sus servicios de representación legal con inteligencia artificial eran tan buenos como los de los abogados reales.