Un juez de California ha impuesto sanciones por valor de 31.000 dólares (aproximadamente 28.500 euros) a dos bufetes de abogados tras descubrir que presentaron un escrito con numerosas citas y referencias legales falsas generadas por inteligencia artificial. El magistrado Michael Wilner calificó el material como "investigación falsa generada por IA" y advirtió que "ningún abogado razonablemente competente debería externalizar la investigación y la redacción" a sistemas de inteligencia artificial.
La investigación legal que nunca existió
En su resolución emitida la semana pasada, el juez Wilner relató cómo, tras recibir un escrito complementario para un caso civil contra State Farm, revisó las autoridades legales citadas y descubrió algo alarmante: no existían.
"Leí su escrito, me persuadieron (o al menos me intrigaron) las autoridades que citaron, y busqué las decisiones para saber más sobre ellas, solo para descubrir que no existían", escribió el juez Wilner. "Eso es aterrador. Casi condujo a un resultado aún más aterrador (desde mi perspectiva) de incluir esos materiales falsos en una orden judicial".
El magistrado señaló que "al menos dos de las autoridades citadas no existen en absoluto". Cuando pidió aclaraciones a K&L Gates, uno de los bufetes implicados, estos volvieron a presentar el escrito, pero según el juez, contenía "considerablemente más citas y referencias falsas más allá de los dos errores iniciales".
El proceso detrás del error y las sanciones impuestas
Según se detalla en la resolución judicial, un representante legal del demandante en una demanda civil contra State Farm utilizó IA para generar un esquema para un escrito complementario. Sin embargo, este esquema contenía "investigación falsa generada por IA" cuando se envió a un bufete separado, K&L Gates, que incorporó la información al escrito final sin verificarla.
"Ningún abogado o miembro del personal de cualquiera de los dos bufetes aparentemente verificó o revisó esa investigación antes de presentar el escrito", señaló el juez Wilner.
Tras descubrir las irregularidades, el juez emitió una Orden para Mostrar Causa, lo que resultó en que los abogados prestaran declaraciones juradas confirmando el uso de IA. El abogado que creó el esquema admitió haber utilizado Google Gemini, así como las herramientas de investigación legal con IA en Westlaw Precision with CoCounsel.
Como consecuencia, el juez impuso sanciones por valor de 31.000 dólares contra los bufetes de abogados implicados, una medida severa que refleja la gravedad con que el tribunal consideró esta conducta profesional.
Un patrón preocupante en el ámbito legal
Este incidente no es un caso aislado. Como señala la fuente de The Verge, la utilización de IA en el ámbito legal sin la debida verificación se está convirtiendo en un patrón preocupante.
Entre los casos más notorios, se encuentra el del ex abogado de Trump, Michael Cohen, quien citó casos judiciales inventados en un documento legal después de confundir Google Gemini (entonces llamado Bard) con "un motor de búsqueda potenciado" en lugar de un chatbot de IA.
En otro caso, un juez descubrió que abogados que demandaban a una aerolínea colombiana incluyeron en su escrito una serie de casos falsos generados por ChatGPT.
Los profesores de derecho Eric Goldman y Blake Reid destacaron este caso en Bluesky, demostrando la creciente preocupación en el ámbito académico legal sobre el uso inadecuado de la IA.
Advertencia al sector legal
El juez Wilner no escatimó palabras al advertir sobre los peligros de utilizar IA sin la debida diligencia en el ámbito legal. En su resolución, fue especialmente crítico con la falta de transparencia y el riesgo que supone para la integridad del sistema judicial.
"El uso inicial y no divulgado de productos de IA para generar el primer borrador del escrito fue totalmente incorrecto", escribió el juez Wilner. "Y enviar ese material a otros abogados sin revelar sus dudosos orígenes de IA puso a esos profesionales en peligro de manera realista".
Este caso plantea importantes cuestiones sobre la responsabilidad profesional en una era donde la IA se vuelve cada vez más accesible y sofisticada. El mensaje del tribunal es claro: la tecnología puede ser una herramienta útil, pero no puede reemplazar la diligencia profesional ni la responsabilidad ética de verificar la información.
Implicaciones para el futuro de la profesión legal
El caso refleja los desafíos que enfrenta la profesión legal con la creciente implementación de herramientas de IA. Si bien estas tecnologías prometen aumentar la eficiencia y reducir costos, este incidente subraya los riesgos potenciales cuando se confía demasiado en ellas sin una supervisión humana adecuada.
La imposición de sanciones económicas significativas envía un mensaje contundente a los profesionales legales: el uso de IA debe ser transparente, supervisado y verificado. La tecnología debe complementar, no reemplazar, el juicio y la diligencia profesional.
Para los clientes y el sistema judicial en general, las consecuencias pueden ser graves cuando se presentan argumentos legales basados en precedentes falsos, potencialmente socavando la integridad del proceso judicial y la confianza pública en el sistema legal.
La lección para los profesionales del derecho es clara: si bien la IA puede ofrecer ventajas significativas, la responsabilidad última de la exactitud y veracidad de los argumentos legales recae en los abogados, no en las herramientas que utilizan.
A medida que la IA continúa evolucionando y se integra más profundamente en la práctica legal, casos como este probablemente llevarán a la creación de nuevas normas éticas, reglas profesionales y expectativas judiciales sobre cómo se debe utilizar y divulgar el uso de la inteligencia artificial en los procedimientos legales.






