Pedro Juez: «La IA no razona como un ser humano: identifica patrones matemáticos en grandes cantidades de datos”
Recientemente tuvo lugar en la madrileña Fundación Ortega y Gasset el programa «Inteligencia Artificial en el ámbito jurídico», iniciativa auspiciada por la boutique legal Summa Iuris y Tirant lo Blanch, con el apoyo de Broseta, eactivos.com y Trademat. Nuestro compañero Marcos Iglesias, estudiante de Derecho y Periodismo en la URJC, plasma en esta crónica sus impresiones sobre la sesión «Entendiendo el funcionamiento de la Inteligencia Artificial», impartida por Pedro Juez Martel, abogado e Ingeniero Informático especialista en computación e Inteligencia Artificial.
En la sede madrileña de la Fundación José Ortega y Gasset‑Gregorio Marañón tuvo lugar una conferencia singularmente oportuna en el contexto actual de transformación tecnológica del Derecho. El ponente, Pedro Juez Martel, fue presentado como un perfil poco frecuente: profesor titular, ingeniero informático especializado en inteligencia artificial y abogado ejerciente. La combinación de estas disciplinas permitió un enfoque transversal, casi renacentista, sobre una materia que suele analizarse de forma fragmentaria.
Su intervención no pretendía enseñar a programar ni a utilizar herramientas concretas, sino responder a una pregunta previa y más relevante para el jurista: cómo entender realmente el funcionamiento de la inteligencia artificial para poder regularla, utilizarla y controlarla jurídicamente.
Comprender antes de regular: el problema epistemológico de la IA
El ponente partió de una premisa clara: el Derecho corre el riesgo de legislar sobre conceptos que no comprende. Según expuso, buena parte del debate público sobre IA oscila entre el alarmismo y la banalización porque se habla de “inteligencia” en sentido humano, cuando en realidad los sistemas actuales operan sobre correlaciones estadísticas a gran escala.
La idea central fue reiterada durante la conferencia: ”La IA no razona como un ser humano; identifica patrones matemáticos en grandes cantidades de datos”.
Desde esta perspectiva, la responsabilidad jurídica cambia: no se trata de imputar voluntad ni conciencia al sistema, sino de analizar cadena de diseño, entrenamiento, despliegue y supervisión humana.
Cómo funciona realmente un modelo de IA
Juez Martel explicó el funcionamiento de los sistemas modernos de forma accesible para juristas, estructurándolo en cinco fases:
- Recopilación de datos: La materia prima son grandes conjuntos de información (textos, imágenes, registros).
- Preprocesamiento: Limpieza, clasificación y normalización del dato.
- Entrenamiento del modelo: Ajuste matemático de millones de parámetros para minimizar error.
- Validación: Comprobación de fiabilidad y sesgos.
- Despliegue y aplicación.
Subrayó que el punto jurídicamente crítico no es solo la respuesta del sistema, sino las decisiones previas de diseño: selección de datos, objetivos del entrenamiento y supervisión humana.
El ponente dedicó una parte relevante a desmontar la idea de “caja mágica”. Explicó que las redes neuronales profundas no son más que modelos matemáticos compuestos por capas de cálculo que ajustan probabilidades.
Particular atención merecieron los modelos generativos (LLM). Según explicó:
- No almacenan conocimiento como una base de datos.
- No comprenden el significado.
- Predicen la siguiente palabra estadísticamente más probable.
De ahí derivó una consecuencia jurídica esencial: La respuesta del sistema no es una afirmación fáctica, sino una inferencia probabilística.
Esto afecta directamente a la prueba digital, la diligencia profesional del abogado y la responsabilidad por uso automatizado.
RAG, bases de conocimiento y adaptación jurídica
Uno de los puntos más relevantes para el ámbito jurídico fue la explicación del sistema denominado Retrieval Augmented Generation (RAG).
Se trata de conectar el modelo a una base documental externa (por ejemplo, legislación o jurisprudencia) sin modificar el modelo subyacente.
Para el jurista esto implica: mayor trazabilidad, reducción de alucinaciones y una mayor posibilidad de auditoría.
A raíz de esto, Juez Martel destacó que el futuro del uso jurídico de la IA no estará en “preguntar a un modelo general”, sino en integrarlo en ecosistemas documentales controlados.
La IA en el Derecho: entre herramienta y sujeto de regulación
El ponente abordó posteriormente el impacto normativo europeo, señalando que el legislador comunitario ha optado por un enfoque basado en el riesgo:
- sistemas prohibidos
- alto riesgo
- riesgo limitado
- riesgo mínimo
La clave, según explicó, es que la regulación no se centra en la tecnología en abstracto, sino en el uso y sus efectos sobre derechos fundamentales.
Particularmente relevantes para la práctica jurídica: Los sistemas predictivos judiciales, los scoring de riesgos, los análisis automatizados de contratos y los asistentes legales.
En todos ellos, insistió, la obligación principal recae en la supervisión humana significativa (human in the loop).
No obstante, también hay que poner en alza que una de las advertencias más repetidas fue evitar la antropomorfización.
El ponente rechazó comparaciones con conciencia, intención o autonomía decisoria real. ”La IA amplifica la capacidad humana de procesar información, pero no sustituye el juicio jurídico», subrayó Pedro. Esto desde el punto de vista jurídico, esto implica que: la responsabilidad sigue siendo humana, el operador jurídico conserva el deber de verificación y que la diligencia profesional se redefine, no desaparece.
El abogado que utilice IA no queda exonerado; al contrario, adquiere un deber reforzado de comprobación.
Implicaciones para la práctica jurídica
La conferencia concluyó con una reflexión práctica dirigida a juristas: el profesional del Derecho no necesita aprender a programar, pero sí debe comprender: qué puede hacer la IA, qué no puede hacer, dónde falla y cómo auditarla. La competencia técnica mínima se convertirá, según afirmó, en parte de la diligencia debida profesional.
La intervención de Pedro Juez Martel destacó por su capacidad de traducir conceptos técnicos complejos al lenguaje jurídico sin simplificaciones engañosas. Frente al discurso habitual de fascinación tecnológica o temor existencial, propuso una tercera vía: comprensión técnica como presupuesto de regulación eficaz.
Su tesis final puede resumirse en una idea de notable relevancia jurídica: la inteligencia artificial no plantea un problema de sustitución del jurista, sino de redefinición de su responsabilidad.
En un momento en el que la práctica forense empieza a convivir con herramientas predictivas y generativas, la conferencia constituyó menos una advertencia que un criterio metodológico. Antes de discutir los límites jurídicos de la IA, el jurista debe entender su naturaleza matemática.
Solo así, vino a sugerir, el Derecho podrá cumplir su función histórica: ordenar la realidad sin quedar superado por ella.
Marcos Iglesias