NUEVO¡Ahora puedes escuchar artículos de Fox News!

Dos jueces de EE. UU. En tribunales federales separados desecharon sus decisiones la semana pasada después de que los abogados los alertaron sobre presentaciones que contenían detalles de casos inexactos o citas aparentemente “alucinadas” que citaban mal citas citadas, lo último en una serie de errores que sugieren el uso creciente de inteligencia artificial en la investigación y presentaciones legales.

En Nueva Jersey, el juez de distrito de los Estados Unidos, Julien Neals, retiró su negación de una moción para desestimar un caso de fraude de valores después de que los abogados revelaron que la decisión se basó en presentaciones con “inexactitudes generalizadas y materiales”.

La presentación señaló “numerosas instancias” de citas inventadas presentadas por abogados, así como tres casos separados en los que el resultado de demandas parecía haber sido confundido, lo que provocó que Neals retirara su decisión.

El plan de tarifa de Trump enfrenta un futuro incierto a medida que las batallas judiciales se intensifican

El uso de IA generativa continúa disparándose en casi todas las profesiones, especialmente entre los trabajadores más jóvenes. (Foto de Jaap Arriens/Nurphoto a través de Getty Images)

En Mississippi, el juez de distrito estadounidense Henry Wingate reemplazó su orden de restricción temporal original del 20 de julio que detuvo la aplicación de una ley estatal que bloquea los programas de diversidad, equidad e inclusión en las escuelas públicas después de que los abogados notificaron al juez de errores graves presentados por el abogado.

Informaron al tribunal que la decisión “relie (d) sobre el supuesto testimonio de la declaración de cuatro personas cuyas declaraciones no aparecen en el registro de este caso”.

Wingate posteriormente emitió una nueva decisión, aunque los abogados para el estado han pedido que su orden original se vuelva a colocar en el expediente.

“Todas las partes tienen derecho a un registro completo y preciso de todos los documentos presentados y las órdenes ingresadas en esta acción, en beneficio de la revisión de apelaciones del Quinto Circuito”, dijo el fiscal general del estado en una presentación.

Una persona familiarizada con la orden temporal de Wingate en Mississippi confirmó a Fox News Digital que la presentación errónea presentada al tribunal había usado AI, y agregó que “nunca antes habían visto algo así” en la corte antes.

Ni la oficina de los jueces ni los abogados en cuestión inmediatamente respondieron a las solicitudes de comentarios de Fox News Digital sobre la orden retraída de Nueva Jersey, informó por primera vez Reuters. No estaba claro de inmediato si AI era la razón de esa presentación de la corte errónea en ese caso.

El juez federal extiende argumentos en el caso de Abrego García, golpea el testigo de hielo que “no sabía nada”

Corte Suprema de los Estados Unidos

La Corte Suprema. (Valerie Plesch/Picture Alliance a través de Getty Images)

Sin embargo, los errores en ambos casos, que fueron marcados rápidamente por los abogados, y llevaron a los jueces a tomar medidas para revisar o redactar sus órdenes, cuando el uso de IA generativo continúa disparándose en casi todas las profesiones, especialmente entre los trabajadores más jóvenes.

En al menos uno de los casos, los errores tienen similitudes con las inexactitudes al estilo AI, que incluyen el uso de citas “fantasmas” o “alucinadas” que se utilizan en archivos, citando casos incorrectos o incluso inexistentes.

Para los abogados admitidos por bares, estas presentaciones de la corte errónea no se toman a la ligera. Los abogados son responsables de la veracidad de toda la información incluida en las presentaciones judiciales, incluso si incluye materiales generados por IA, según la guía de la American Bar Association.

En mayo, un juez federal en California abofeteó a las firmas de abogados con $ 31,000 en sanciones para usar IA en presentaciones judiciales, diciendo En el momento que “ningún abogado razonablemente competente debe superar la investigación y la escritura de esta tecnología, particularmente sin ningún intento de verificar la precisión de ese material”.

La semana pasada, un juez federal en Alabama sancionó a tres abogados por presentar presentaciones judiciales erróneas que luego se reveló que fue generada por ChatGPT.

Jueces v Trump: Aquí están las batallas de la corte clave que detienen la agenda de la Casa Blanca

Un edificio de la corte federal

El Palacio de Justicia de E. Barrett Prettyman en Washington, DC, en la mañana del 10 de diciembre de 2024. (David Ake/Getty Images)

Entre otras cosas, las presentaciones en cuestión incluyeron el uso de la cita generada por IA “Alucinaciones”, dijo la jueza de distrito de los Estados Unidos, Anna Manasco, en su orden, que también remitió a los abogados en cuestión al Colegio de Abogados del Estado para obtener más procedimientos disciplinarios.

“Fabricar la autoridad legal es una mala conducta grave que exige una sanción grave”, dijo en la presentación.

Nuevos datos del Centro de Investigación Pew subraya el aumento de herramientas de IA entre los usuarios más jóvenes.

Haga clic aquí para obtener la aplicación Fox News

Según una encuesta de junio, aproximadamente el 34% de los adultos estadounidenses dicen que han usado ChatGPT, el chatbot de inteligencia artificial, aproximadamente el doble del porcentaje de usuarios que dijeron lo mismo en el mismo punto hace dos años, en 2023.

La proporción de adultos empleados que usan ChatGPT para el trabajo se ha reducido en la friolera de 20 puntos porcentuales desde junio de 2023; Y entre los adultos menores de 30 años, la adopción está aún más extendida, con una mayoría del 58% que dice que han usado el chatbot.

Enlace fuente