Lawyer in the Loop: La supervisión jurídica humana como requisito estructural en sistemas de IA legal
Ignacio Muñoz Casquero es un abogado especializado en derecho tecnológico que ha desarrollado su actividad profesional en entidades financieras y despachos especializados. En este artículo aborda la integración de la IA generativa en la práctica legal y defiendo el modelo Lawyer in the Loop, donde un abogado supervisa y valida los contenidos generados por IA.
- Ignacio Muñoz Casquero se define su blog Lex In The Loop como ‘Abogado, pacense residiendo en Madrid’.
- Especializado en derecho tecnológico, ha desarrollado su actividad profesional en entidades financieras y despachos especializados, asesorando en materias relacionadas con tecnología, propiedad intelectual e industrial, contratación tecnológica, protección de datos, comercio electrónico y regulación digital europea, participando en proyectos digitales de alta complejidad.
- Hay que destacar su expertise en IA, blockchain, DLT, y seguimos de cerca los pasos que está dando en el mundo financiero y fintech.
- En su primer artículo en Derecho Práctico, aborda la integración de la IA generativa en la práctica legal, defendiendo el modelo Lawyer in the Loop, donde un abogado supervisa y valida los contenidos generados por IA.
- Debido a que los sistemas de lenguaje pueden producir errores o «alucinaciones legales», la revisión humana es esencial para garantizar la validez jurídica, la responsabilidad profesional y el cumplimiento ético, permitiendo usar la IA para optimizar tareas sin reemplazar el juicio del abogado.

(Ignacio Muñoz Casquero, abogado especializado en derecho tecnológico y autor del artículo)
La integración de sistemas de inteligencia artificial en la práctica jurídica ya no es una hipótesis, es una realidad que tiene lugar en los despachos de abogados y asesorías jurídicas corporativas de todo el mundo, independientemente de la rama de ejercicio o del sector.
Sin embargo, la utilización de modelos generativos en el sector jurídico ha puesto de manifiesto diversos riesgos derivados de su arquitectura técnica. En este sentido el enfoque lawyer in the loop, entendido como supervisión jurídica humana formal y documentada del output, constituye un requisito indispensable desde la perspectiva técnica, ética y de responsabilidad profesional.
Este enfoque nace del concepto human in the loop, ampliamente utilizado en ingeniería de sistemas, aprendizaje automático y gobernanza algorítmica para describir aquellos modelos en los que la intervención humana forma parte estructural del ciclo de decisión automatizada. Se emplea especialmente en entornos de alto riesgo y sirve para garantizar el control y corrección de los resultados generados por el sistema, incorporando una validación humana experta allí donde la automatización presenta límites técnicos, incertidumbre estadística o un potencial impacto crítico.
La transformación digital de la práctica jurídica
La digitalización del sector legal ha evolucionado desde herramientas de gestión documental hasta sistemas avanzados de generación lingüística capaces de producir borradores contractuales, informes jurídicos y escritos procesales en cuestión de segundos. Los modelos de lenguaje de gran escala (LLMs), especialmente cuando se integran con mecanismos de retrieval-augmented generation (RAG), permiten combinar bases documentales con generación textual aparentemente coherente y estructurada.
Como podemos extraer del informe Inteligencia artificial generativa en servicios profesionales (2025), publicado por Thomson Reuters, la aceptación de esta tecnología, así como su utilización, aumenta de manera significativa año tras año.

Diversos estudios académicos han analizado el rendimiento de los LLMs en tareas de investigación jurídica y han detectado tasas significativas de generación de información incorrecta o inventada (entre el 17 % y el 33 % en determinados entornos de prueba a fecha de 2024) fenómeno denominado legal hallucination. Estos datos evidencian que la sofisticación lingüística del sistema no equivale a fiabilidad jurídica.
Fundamento técnico y límites cognitivos de los LLMs
Desde un punto de vista técnico, la IA generativa basada en arquitecturas transformer opera mediante la predicción probabilística del siguiente token en una secuencia textual. El modelo no posee acceso conceptual a normas, principios ni jerarquías del ordenamiento jurídico; su entrenamiento se basa en la identificación de patrones estadísticos en grandes volúmenes de datos. La coherencia que produce es resultado de correlaciones matemáticas en espacios vectoriales de representación semántica, no de comprensión normativa.
Esta característica implica que el sistema no “razona” en sentido jurídico. No distingue entre fuentes primarias y secundarias, no verifica vigencia normativa y no evalúa consecuencias procesales. Puede generar textos formalmente convincentes, pero materialmente incorrectos, atribuir precedentes inexistentes o extrapolar criterios doctrinales sin advertir contradicciones. La arquitectura está optimizada para lograr una gran verosimilitud lingüística, no para validez jurídica.
La supervisión humana no responde, por tanto, a una desconfianza frente a la tecnología, sino a una necesidad derivada del funcionamiento técnico del propio sistema.
Materialización del riesgo: responsabilidad y sanciones
La problemática no es meramente teórica. Estos últimos años se han documentado numerosos casos en los que escritos judiciales generados por sistemas de IA sin verificación adecuada citan artículos incorrectos o leyes inexistentes.
A modo de ejemplo, recientemente el Tribunal Superior de Justicia de Canarias (TSJC) ha impuesto una multa de 420 euros a un abogado como autor de una actuación contraria al deber de veracidad y a las reglas de la buena fe con abuso del servicio público de la Justicia, producida al incluir 48 citas de jurisprudencia falsas, generadas por IA, en un recurso de apelación.
Las sanciones por este tipo de comportamientos también han tenido lugar en Estados Unidos, Colombia, Reino Unido, Alemania, etc.
Los riesgos de su utilización sin supervisión también serían las interpretaciones legales erróneas de hechos y textos normativos, la presentación ante autoridades de documentos incompletos, etc.
Más allá de las sanciones económicas, estos precedentes consolidan un principio fundamental, la responsabilidad profesional no se desplaza a la herramienta tecnológica. El abogado conserva íntegramente el deber de diligencia, veracidad y competencia técnica.
Gobernanza y estándares emergentes
La respuesta institucional ha consistido en la elaboración de directrices orientadas a encauzar el uso responsable de la IA en la abogacía. Organizaciones colegiales y asociaciones internacionales han enfatizado la necesidad de control humano efectivo, evaluación de riesgos y trazabilidad en el uso de sistemas automatizados. Las recomendaciones convergen en una idea común: la utilización de IA no exime del deber de verificación independiente de fuentes ni del cumplimiento de estándares deontológicos tradicionales.
Desde la perspectiva de la gobernanza tecnológica, esta exigencia se traduce en la implementación de protocolos internos que integren mecanismos de revisión humana en los procesos de generación de contenido realizados por IA.
En esta línea, el pasado mayo de 2025, la Solicitors Regulation Authority (SRA) autorizó a Garfield.Law Ltd como el primer despacho en Inglaterra impulsado estructuralmente por inteligencia artificial para la tramitación de reclamaciones de deudas en small claims. No obstante, lejos de permitir una autonomía plena del sistema, la autorización se condicionó a la existencia de controles estrictos de calidad, verificación de outputs y supervisión activa frente a posibles alucinaciones del modelo, exigiendo que cada actuación sea revisada por un abogado, quien asume la responsabilidad última y cuenta con seguro profesional obligatorio. Este precedente regulatorio demuestra que incluso en modelos altamente automatizados la innovación solo resulta aceptable cuando se integra formalmente la supervisión humana en el ciclo operativo, reforzando la tesis de que la IA puede optimizar procesos legales, pero no sustituir el juicio profesional ni desplazar la responsabilidad jurídica del abogado.
El modelo “Lawyer in the Loop” como estándar operativo
El enfoque lawyer in the loop debe entenderse como un modelo estructural y operativo de integración de la supervisión humana en el ciclo de generación de contenido asistido por IA. No se trata de una revisión superficial ex post, sino de un proceso en el que el abogado asume responsabilidad activa sobre la validación del output, la comprobación de las fuentes y la realización de las correcciones necesarias.
Desde el punto de vista organizativo, este modelo permite mitigar riesgos sistémicos, asegurar trazabilidad en eventuales auditorías y preservar el cumplimiento de los deberes de diligencia profesional. La supervisión se convierte en un componente del diseño del sistema, no en una práctica informal dependiente de la discrecionalidad individual.
Este enfoque permite aprovechar la IA para reducir tiempos de elaboración y eliminar tareas repetitivas
Conclusión
La IA generativa representa una herramienta de gran potencial para aumentar la eficiencia en la práctica jurídica. Sin embargo, sus limitaciones técnicas impiden que pueda sustituir el juicio jurídico humano.
El modelo Lawyer in the Loop no debe concebirse como una medida conservadora frente a la innovación, sino como una medida operativa y estructural para su legitimidad. En un entorno donde la automatización avanza rápidamente, la responsabilidad profesional permanece inalterada. La IA puede asistir en la elaboración del discurso jurídico, pero la responsabilidad sobre su corrección y consecuencias continúa siendo, inevitablemente, humana.