El Tribunal Superior de Inglaterra y Gales ha emitido una contundente advertencia a los profesionales del derecho sobre las "severas" consecuencias que podrían enfrentar si presentan citas legales falsas o inventadas generadas mediante herramientas de inteligencia artificial (IA). Esta amonestación surge a raíz de una reciente sentencia que aborda dos casos en los que se descubrió el uso de este tipo de información errónea, subrayando la creciente preocupación por la integridad de la investigación jurídica en la era digital.
La Inteligencia Artificial Generativa: Una Herramienta de Doble Filo en la Investigación Jurídica
En el centro de la controversia se encuentran las herramientas de IA generativa, como el conocido ChatGPT. Si bien estas tecnologías ofrecen capacidades impresionantes para redactar textos y responder preguntas de manera aparentemente coherente, su fiabilidad en el ámbito de la investigación legal ha sido puesta en tela de juicio.
La jueza Victoria Sharp, en una sentencia que unifica dos casos recientes, fue categórica al afirmar que estas herramientas de IA "no son capaces de realizar investigaciones jurídicas fiables". Según informó TechCrunch el 7 de junio de 2025, la jueza Sharp destacó en su escrito: "Dichas herramientas pueden producir respuestas aparentemente coherentes y plausibles a las indicaciones, pero esas respuestas coherentes y plausibles pueden resultar ser completamente incorrectas". Añadió que "las respuestas pueden hacer afirmaciones seguras que son simplemente falsas".
Este fenómeno, a menudo denominado "alucinaciones" de la IA, donde el sistema inventa información con gran convicción, representa un riesgo significativo si no se maneja con la debida diligencia. La advertencia del tribunal no prohíbe el uso de la IA en la investigación legal, pero sí enfatiza la responsabilidad ineludible del abogado. La jueza Sharp señaló que los letrados tienen el deber profesional "de verificar la exactitud de dicha investigación haciendo referencia a fuentes autorizadas, antes de utilizarla en el curso de su trabajo profesional".
Casos Concretos que Encendieron las Alarmas Judiciales
La sentencia de la jueza Sharp se fundamenta en dos incidentes específicos que ilustran claramente los peligros del uso no verificado de la IA en la práctica legal.
En uno de los casos bajo escrutinio, un abogado que representaba a un hombre en una demanda por daños y perjuicios contra dos bancos presentó un escrito que contenía 45 citas. Un análisis posterior reveló una alarmante realidad: 18 de esos casos citados simplemente no existían. Además, muchas de las citas restantes "no contenían las citas que se les atribuían, no respaldaban las proposiciones para las que fueron citadas y no tenían ninguna relevancia para el tema de la solicitud", detalló la jueza Sharp.
El segundo caso involucró a una abogada que representaba a un hombre desalojado de su vivienda en Londres. En su escrito judicial, la letrada citó cinco casos que, tras una revisión, tampoco parecían existir. Curiosamente, la abogada negó haber utilizado directamente la IA para generar estas citas. Sin embargo, sugirió que las referencias erróneas podrían haber provenido de resúmenes generados por IA que aparecieron en búsquedas de "Google o Safari". Aunque el tribunal decidió en esta instancia no iniciar un proceso por desacato contra la abogada, la jueza Sharp advirtió enfáticamente que esta decisión "no es un precedente".
Estos ejemplos ponen de manifiesto cómo la confianza ciega en la información proporcionada por sistemas de IA, o incluso en resúmenes potencialmente generados por IA encontrados en motores de búsqueda, puede llevar a la presentación de argumentos basados en fundamentos inexistentes, minando la credibilidad del proceso judicial.
Responsabilidad Profesional y la Necesidad de Reforzar las Guías Existentes
La proliferación de estos incidentes, no solo en el Reino Unido sino también en otras jurisdicciones –incluyendo un caso en Estados Unidos donde abogados que representaban a importantes plataformas de IA citaron falsedades generadas por IA, según TechCrunch–, sugiere que las directrices actuales sobre el uso de estas tecnologías necesitan ser reforzadas y su cumplimiento, vigilado más de cerca.
La jueza Sharp indicó que el creciente número de estos errores "sugiere que se necesita hacer más para garantizar que se siga la guía y que los abogados cumplan con sus deberes ante el tribunal". Como medida concreta, anunció que su sentencia sería remitida a organismos profesionales clave del sector legal británico, incluyendo el Bar Council (órgano representativo de los barristers en Inglaterra y Gales) y la Law Society (órgano representativo de los solicitors). Esta acción busca fomentar una mayor concienciación y, posiblemente, la implementación de protocolos más estrictos dentro de la profesión.
La responsabilidad última, insiste la judicatura, recae en el profesional del derecho. La comodidad o eficiencia que pueda ofrecer la IA no exime al abogado de su deber fundamental de presentar información veraz y debidamente fundamentada ante los tribunales.
Sanciones Severas y un Abanico de Medidas Disciplinarias
La advertencia de la jueza Sharp no se quedó en meras palabras. Fue explícita sobre las consecuencias para aquellos que no cumplan con sus obligaciones profesionales en este sentido. "Los abogados que no cumplan con sus obligaciones profesionales a este respecto se arriesgan a una sanción severa", recalcó.
El tribunal posee un amplio espectro de poderes para hacer frente a estas faltas. Estos pueden variar desde una "amonestación pública", que afectaría la reputación del profesional, hasta la imposición de costas, lo que implicaría una carga financiera. En casos más graves, se podrían iniciar procesos por desacato al tribunal, una ofensa seria que puede acarrear multas significativas e incluso prisión. Finalmente, en situaciones de extrema negligencia o mala conducta, el tribunal podría considerar la "remisión a la policía".
En los dos casos que motivaron esta sentencia, se informó que ambos abogados fueron remitidos, o se auto-remitieron, a los organismos reguladores profesionales correspondientes para que se evalúe su conducta. Esta derivación a los entes disciplinarios es un paso estándar cuando se detectan posibles incumplimientos de los códigos de conducta profesional.
Un Desafío Global: La Integridad Profesional en la Era de la IA
El problema de las "citas fantasma" o la información legal fabricada por IA no es exclusivo del Reino Unido. Como se mencionó, incidentes similares han surgido en otros países, reflejando un desafío global para la profesión legal a medida que la inteligencia artificial se integra más profundamente en las herramientas de trabajo cotidianas.
La facilidad con la que se pueden generar textos y la aparente autoridad con la que la IA presenta la información pueden llevar a una falsa sensación de seguridad. Sin embargo, la naturaleza misma de los modelos de lenguaje actuales, entrenados con vastas cantidades de datos de internet, significa que no "comprenden" la veracidad o el contexto legal de la misma manera que un humano experto. Su objetivo principal es generar texto plausible basado en patrones, lo que puede incluir la invención de casos o la atribución incorrecta de argumentos legales.
La sentencia del Tribunal Superior de Inglaterra y Gales sirve como un recordatorio crucial: la tecnología es una herramienta, y su uso responsable depende del criterio y la diligencia del profesional. La verificación humana, el cotejo con fuentes primarias autorizadas y un escepticismo saludable hacia los resultados generados automáticamente son, y seguirán siendo, indispensables en la práctica del derecho.
En conclusión, la advertencia emitida por la jueza Victoria Sharp resuena como un llamado a la cautela y a la reafirmación de los principios éticos fundamentales en la abogacía. A medida que la inteligencia artificial continúa su avance, la integridad, la precisión y la responsabilidad profesional deben permanecer como pilares inamovibles para garantizar la justicia y la confianza en el sistema legal.






