La inteligencia artificial como secretario jurídico digital en despachos de abogados (Parte 2)
Nuestro colaborador David Tejedor explora un caso práctico de uso de la IA: la de asumir tareas de secretariado digital del despacho. En este capítulo segundo, David establece una comparativa entre modelos de IA: GPT-4/5, Claude, Llama 3, Harvey, Legora…, comparte unos tips avanzados de prompting para este caso de uso y cierra con unas conclusiones alrededor de la madurez tecnológica, los beneficios y los límites.
Comparativa entre modelos de IA: GPT-4/5, Claude, Llama 3, Harvey, Legora…
El mercado de IA ofrece múltiples opciones de modelos y herramientas para encarnar a nuestro “asistente legal digital”. La elección del modelo o plataforma adecuada es clave para obtener buenos resultados, pues cada tecnología tiene sus fortalezas y limitaciones. A grandes rasgos, así se comparan las alternativas más destacadas:
- Modelos generalistas GPT-4/GPT-5: GPT-4 de OpenAI se ha consolidado como uno de los LLM más potentes en comprensión del lenguaje jurídico y capacidad de contexto (maneja hasta unas 25.000 palabras aprox., ideal para textos largos)[38][39]. Su sucesor GPT-5 (en desarrollo para 2025) promete incluso más contexto y mejor razonamiento. Estas versiones premium destacan en calidad de respuestas y versatilidad: un mismo modelo puede redactar un email formal, resumir un contrato o entablar una conversación telefónica simulada, con muy pocas indicaciones. Sin embargo, su uso pleno suele implicar costos más altos (pago por token en la API) y consideraciones de privacidad ya comentadas. Un modelo general como GPT-3.5 (más económico o gratuito) podría quedarse corto: se ha observado que GPT-3.5 a veces falla en matices legales o “alucina” contenido con más frecuencia[40][41], por lo que para un rol crítico es aconsejable GPT-4 en adelante. En cualquier caso, los modelos de OpenAI son multilingües y han demostrado un desempeño sólido también en español jurídico, aunque su entrenamiento sea mayoritariamente en inglés.
- Modelos alternativos (Claude de Anthropic): Claude 2, del laboratorio Anthropic, es otro LLM generalista emergente. Su punto fuerte es un contexto masivo (100.000 tokens), lo que le permite ingerir volúmenes enormes de texto (varios cientos de páginas) en una petición. Esto podría ser útil para analizar bases documentales enteras o largos historiales de email de una sola vez. Además, Anthropic publicita a Claude como más enfocado en minimizar sesgos y comportamientos no deseados, gracias a su entrenamiento centrado en principios de IA ética. En la práctica, Claude ha mostrado buena comprensión en inglés; en español también funciona pero su entrenamiento en nuestro idioma es algo menor que el de GPT, pudiendo resultar en alguna respuesta menos refinada en contextos muy locales. Aun así, es un competidor a considerar y varias empresas evalúan a Claude por su relación costo/beneficio y mayor longitud de entrada útil para contextos complejos.
- Modelos de código abierto (Llama 2, Llama 3, etc.): Meta (Facebook) lanzó Llama 2 en 2023 y Llama 3 en 2024/2025 como familias de modelos abiertos y descargables. Llama 3, por ejemplo, llegó a incluir versiones de hasta 405.000 millones de parámetros según Meta, convirtiéndose en uno de los modelos abiertamente disponibles más potentes[42][43]. La ventaja de estos modelos es que pueden desplegarse internamente, evitando enviar datos a terceros, y además se pueden adaptar mediante fine-tuning sin restricciones de licencia. No obstante, al compararlos con GPT-4/5, su rendimiento out of the box suele ser menor en tareas complejas: un Llama2 de, digamos, 70B parámetros puede ir bien para conversar genéricamente, pero en un asunto jurídico intrincado tiende a perder precisión o confundir referencias cruzadas[38][39]. Su fuerte está en que, con ajustes, pueden cumplir roles específicos a bajo costo (por ejemplo, un Llama entrenado solo para clasificar tipos de documentos del despacho). En resumen, los modelos open-source son ideales para implementaciones locales y personalizadas, pero requieren más trabajo de calibración y tal vez combinar varios modelos pequeños en lugar de uno todoterreno.
- Herramientas especializadas para el sector legal: Además de los LLM genéricos, han surgido plataformas construidas específicamente para abogados, muchas ya analizadas en este medio y que tenéis disponibles. Harvey, por ejemplo, es un asistente legal basado en GPT-4 pero afinado con conocimiento jurídico y diseñado con una interfaz adaptada a despachos. Su enfoque reduce la probabilidad de respuestas disparatadas (‘menos riesgo de desvaríos’) y orienta al modelo a las necesidades típicas legales[38][44]. Grandes firmas internacionales (Allen & Overy, PwC, Cuatrecasas, Garrigues, etc.) ya anunciaron colaboraciones con Harvey[45]. Legora, por su parte, es una legaltech europea que combina un LLM de última generación con bases de datos jurídicas actualizadas (como la de Tirant lo Blanch) para dar respuestas fundamentadas, y garantiza operar en un entorno seguro y confidencial[23][24]. Más que modelos en sí, estas soluciones integrales ofrecen features adicionales: por ejemplo, Harvey se integra con herramientas como Outlook o Word, Legora aporta recuperación de jurisprudencia in-app, etc. La contra puede ser la dependencia de un proveedor específico y menos flexibilidad para casos de uso fuera de lo previsto.
- Otros modelos y futuras generaciones: Vale mencionar que hay desarrollos en IA jurídica local en español, como IberIA (un LLM entrenado principalmente con textos jurídicos en español) o iniciativas académicas de jurimetría. Estos modelos locales podrían comprender mejor algunas sutilezas del lenguaje jurídico español que uno entrenado mayormente en inglés[40][41]. Sin embargo, suelen estar uno o dos pasos por detrás en capacidad general frente a los gigantes comerciales. De cara al futuro, se espera que la competencia entre OpenAI, Meta, Anthropic, Google, etc. siga propiciando mejoras. Google con su modelo PaLM 2 (y próximamente PaLM 3) también juega un rol, integrándose en productos como Google Workspace (p. ej. para generar borradores en Gmail o resúmenes en Docs). Para un despacho ya vinculado al ecosistema Google, esas herramientas nativas podrían ser la forma más sencilla de aprovechar IA en tareas diarias, aunque su especialización legal sea limitada por ahora.
En síntesis, la comparativa nos muestra que no existe un único “mejor” modelo para todas las funciones de secretaria jurídica digital. Probablemente la solución óptima combine varios: un GPT-4 o similar para redacción y conversación compleja, modelos ligeros entrenados in-house para clasificación/archivo, y herramientas especializadas para ciertas funciones de alto nivel (p.ej., análisis de contratos con Harvey o búsqueda jurisprudencial con Legora). Lo importante es garantizar que cualquiera que sea la mezcla elegida, se integre bien y opere bajo los estándares de privacidad y fiabilidad que el despacho requiera. Muchos despachos optan por una estrategia híbrida: comenzar experimentando con modelos generalistas en tareas no sensibles, e ir migrando a versiones privadas o especializadas a medida que validan los casos de uso y la inversión lo justifica.
Tips avanzados de prompting para este caso de uso
Lograr que una IA desempeñe eficazmente el papel de secretaria jurídica digital depende en buena medida de cómo le damos las instrucciones, lo que se conoce como prompting. A continuación, algunos consejos avanzados para interactuar con estos modelos y obtener resultados óptimos en las tareas descritas:
- Establecer el contexto y el rol de entrada: Es recomendable iniciar el prompt indicando a la IA quién es y qué tarea va a realizar. Por ejemplo: “Eres un asistente virtual jurídico encargado de gestionar la bandeja de entrada de un despacho. Vas a analizar correos y proponer respuestas.”[46]. Con esto, el modelo entiende desde el principio su marco de actuación y tono. Añade detalles del estilo o preferencias: “Responde siempre con un tono cortés y profesional, y en castellano neutro, usando tratamiento de ‘usted’.” Cuanto más contexto proporcionemos (sin llegar a sobrecargarlo), más ajustada será la respuesta de la IA a nuestras expectativas[47][46].
- Desglosar peticiones complejas en pasos: Si necesitamos que la IA haga varias cosas, conviene ir por partes. En lugar de soltar: “Por favor, revisa todos estos correos, extrae las tareas, priorízalas y contéstalos”, podríamos empezar con: “Lee el siguiente correo y resume su contenido en un punto”. Luego en otro prompt: “Identifica si hay alguna solicitud o tarea para el abogado; si la hay, señala la prioridad (alta, media, baja).” Y finalmente: “Sugiere un borrador de respuesta breve para este correo.” Dividir la tarea ayuda a que el modelo no se abrume y cubra sistemáticamente cada aspecto[48][49]. Podemos automatizar esta secuencia con un programa que vaya alimentando al modelo paso a paso, o hacer las preguntas manualmente en iteraciones.
- Utilizar ejemplos y formatos de salida predefinidos: Las IA responden mejor cuando saben exactamente cómo formatear la información. Podemos indicarle: “Al resumir un correo, responde en una viñeta de máximo 20 palabras.” O bien: “Clasifica los correos en formato de lista, indicando remitente – asunto – prioridad.”[50][51]. Si queremos un estilo específico (por ejemplo, un email de confirmación de reunión), podemos dar un ejemplo: “Ejemplo de respuesta deseada: ‘Estimada María, Gracias por su email…’. Los modelos generativos aprenden del ejemplo y lo imitan. Siempre que sea posible, proporcionar un esqueleto o sample de la salida deseada mejora la consistencia del resultado[50][51].
- Incluir terminología y detalles relevantes: En la medida de lo posible, formula tus indicaciones con el lenguaje específico del contexto. Si estás tratando con la agenda procesal, en vez de decir “plazo límite” di “vencimiento procesal” o menciona la norma (p. ej. “según la LEC”). Para clasificación de documentos, usa los nombres exactos de categorías que maneje tu despacho: “identifica si es una demanda, contestación, recurso, escrito de trámite u otrosí”. Incluir términos jurídicos precisos en español facilita que el modelo los reconozca en el texto y evita ambigüedades[52][53]. Por ejemplo, si un correo menciona “providencia”, la IA sabrá que es algo relativo a un procedimiento judicial y no lo confundirá con el sentido coloquial de “previsión”.
- Realizar prompts de verificación y control cruzado: No nos quedemos con la primera respuesta de la IA, especialmente en asuntos delicados. Podemos hacer preguntas de seguimiento para cubrir puntos ciegos. Por ejemplo, tras que la IA priorice los correos, preguntarle: “¿Hay algún correo del que debamos confirmar recepción aunque no sea urgente?” o “¿Olvidaste mencionar algún adjunto importante en los resúmenes?”. Otra táctica útil es pedirle que revise con otro enfoque: “Ahora, dime si en alguno de estos correos se solicita explícitamente acción del abogado antes de mañana”. Esta validación cruzada fuerza al modelo a re-evaluar el contenido y a menudo destapa detalles que pudo haber pasado por alto inicialmente[54][55]. Es replicar el método humano de “segunda revisión”, pero con la misma IA u otra complementaria.
- Mantener interacciones conversacionales cuando sea útil: Las IAs generativas tienen memoria de la conversación (dentro de ciertos límites de contexto). Podemos aprovecharlo encadenando una conversación tipo chat. Por ejemplo: “IA: Listo, he resumido el correo. Abogado: Gracias. Ahora, ¿puedes proponer una respuesta?”. Este flujo conversacional permite afinar peticiones sin reescribirlo todo de nuevo. Sin embargo, hay que tener cuidado de no asumir que la IA recuerda algo si el hilo ya es muy largo (podría “olvidar” detalles anteriores si supera su ventana de contexto). En esos casos, es mejor resumirle lo necesario de nuevo o empezar un nuevo prompt autónomo si se teme confusión.
- Verificación humana y herramientas tradicionales al final: Aunque la IA agilice muchísimo el trabajo, no se debe omitir la revisión final humana[56][57]. La mejor práctica es adoptar una mentalidad de “doble control”: el abogado o asistente humano comprueba que las tareas extraídas por la IA coinciden con su propia lectura rápida de los correos importantes, coteja que las respuestas sugeridas no contengan ninguna metedura de pata (un nombre mal escrito, un tono inapropiado, una información incorrecta) y verifica datos sensibles. Por ejemplo, antes de enviar una factura generada por IA, chequear que los números cuadran; antes de archivar automáticamente un documento, asegurarse de que quedó en la carpeta correcta. Con el tiempo, es posible que la confianza en la IA crezca, pero incluso entonces, establecer controles aleatorios (auditar esporádicamente algunas semanas de acciones de la IA) ayuda a garantizar que todo marcha bien. Recordemos siempre: la IA es potente, pero no infalible; su valor se maximiza cuando trabaja en tándem con la supervisión experta del humano[58].
Siguiendo estos tips de prompting, convertiremos la interacción con la IA en un proceso fluido y seguro. La IA quiere que le digamos claramente qué hacer y cómo lo esperamos, casi como un empleado en formación: entre más precisos y estructurados sean nuestros “encargos”, mejores resultados nos entregará. Un buen prompt es la diferencia entre una respuesta útil y una confusa; es, en definitiva, el arte de saber pedirle las cosas a nuestra asistente virtual para aprovechar al máximo su potencial.
Conclusiones: madurez tecnológica, beneficios y límites.
La figura de la inteligencia artificial como secretaria jurídica digital ya no es ciencia ficción ni una promesa vaga de futuro: es una realidad incipiente pero tangible en el mundo legal de 2025. Hemos visto cómo, mediante la conjunción de LLMs avanzados, automatización y buenas prácticas de implementación, un despacho puede lograr mejoras sustanciales en eficiencia y calidad de vida profesional. ¿Está la tecnología lo suficientemente madura? En gran medida, sí. Los modelos actuales (GPT-4, Claude, Llama 3, etc.) poseen ya la capacidad lingüística para entender y producir textos con un alto grado de sofisticación, organizar información y aprender patrones con mínima intervención. Las experiencias prácticas lo demuestran: ocho de cada diez abogados en Europa afirman usar IA generativa al menos una vez a la semana en su trabajo, y la mitad la usan a diario, con impactos positivos en productividad[59][60]. Herramientas especializadas adaptadas al sector legal, como Harvey o Legora, han irrumpido y se han ganado la confianza de firmas relevantes, lo cual indica que el ecosistema legaltech se mueve rápido para ofrecer soluciones a medida.
Los beneficios de adoptar un asistente digital de este tipo son difíciles de ignorar: libera tiempo de los abogados para las tareas estratégicas, reduce el riesgo de que algo importante se pase por alto, agiliza la comunicación con clientes (que perciben una respuesta más rápida y diligente) y puede traducirse en ahorros de costes y mejora de la rentabilidad. Además, contar con estos sistemas puede ser un factor de ventaja competitiva; en un mercado legal donde priman la rapidez y precisión, los profesionales que sepan apoyarse en IA estarán un paso adelante. Incluso en términos de bienestar, delegar la “pesada mochila” administrativa en una IA puede aliviar estrés y ayudar a equilibrar un poco esa balanza entre horas facturables y no facturables que históricamente ha gravitado en contra del abogado[3]. Como se mencionó antes, la IA permite que el abogado brille en lo que es insustituible – el juicio humano, la creatividad jurídica, la empatía con el cliente – sin que la burocracia lo asfixie[17].
Ahora bien, existen límites y cautelas que no podemos soslayar. En cuanto a la tecnología, si bien es poderosa, no es infalible: puede cometer errores de interpretación, puede generar contenido no deseado si el prompt es ambiguo, o fallar ante casos no previstos (situaciones nuevas para las que no fue entrenada). Los modelos de IA pueden “alucinar” respuestas convincentes pero incorrectas si se aventuran fuera de su conocimiento; esto obliga a mantener siempre una validación crítica de su output. También enfrentan dificultades con algunos documentos muy específicos (por ejemplo, un manuscrito escaneado con mala calidad podría desafiar su OCR, o jerga interna del despacho que haya que enseñarle). En términos de implantación, no todas las firmas disponen aún de la infraestructura o recursos para integrar estas soluciones de manera óptima. Algunas barreras son culturales: hay resistencia al cambio en sectores tradicionales, y abogados que recelan de confiar en “máquinas” para tareas que llevan décadas haciendo a mano. Superar esa curva de adopción requiere liderazgo, formación y demostración de pequeños triunfos que construyan confianza.
Desde la óptica legal y ética, ya lo repasamos: se deben poner límites claros para que la IA opere bajo supervisión y con respeto absoluto a la confidencialidad. Un descuido en este aspecto – como introducir datos sensibles en un sistema no seguro – puede traer consecuencias graves. Igualmente, habrá que monitorizar el efecto en el rol de personal de apoyo: la IA no busca reemplazar asistentes humanos, pero inevitablemente transformará sus funciones. Idealmente, liberará a los paralegales y secretarios para tareas de mayor valor (coordinación, trato personal con clientes, etc.), pero es crucial gestionar esa transición con transparencia y recalificación profesional.
En términos de madurez tecnológica, podemos decir que estamos en una fase avanzada pero no final. Es decir, la tecnología ya funciona y aporta valor, pero seguirá evolucionando. Lo que hoy es un asistente que aún requiere bastante configuración y vigilancia, quizá en pocos años sea mucho más autónomo y fiable, gracias a mejoras continuas en los modelos (mayor comprensión de contexto, aprendizaje continuo con feedback humano, etc.). El AI Act y regulaciones venideras terminarán de fijar el marco de juego, lo que seguramente impulsará estándares de calidad y seguridad en estas herramientas – haciéndolas más confiables aún, pero también imponiendo posiblemente requisitos de certificación o documentación que los despachos deberán cumplir.
Para concluir, la IA como secretaria jurídica digital representa uno de esos casos de uso donde la tecnología muestra su faceta más pragmática y útil en la abogacía: no para reemplazar el intelecto jurídico, sino para quitar ruido y fricción en las operaciones diarias. Es una pieza más en el camino hacia el despacho 4.0, eficiente y centrado en lo esencial. Sus beneficios ya se están materializando en quienes se atreven a adoptarla tempranamente, mientras que sus límites, bien gestionados, no son mayores que los de cualquier herramienta nueva. Como todo, requiere dosis de entusiasmo e inteligencia en la implementación. Pero visto el ritmo de adopción actual, es muy posible que en pocos años hablemos de estos asistentes de IA con la misma naturalidad con la que hoy hablamos del correo electrónico o de la ofimática: como algo cotidiano, imprescindible y que nos costaría imaginar trabajar sin ello.
Fuentes y enlaces recomendados:
[1] [3] [4] [5] Las horas no facturables pasan factura económica y mental a los abogados
[2] [8] [15] [18] Asistencia jurídica para abogados: 7 consejos profesionales – LEGALPROD
[6] [7] ¿Es la inteligencia artificial una amenaza para el sector legal?
[9] 5 Mejores Herramientas de IA para Secretarias Jurídicas: Agilice las tareas administrativas en 2025
[10] Casos de uso de IA generalista: Anonimización inteligente de documentos jurídicos con IA generativa | Derecho Práctico
[11] [12] [13] [16] [19] [20] [31] [32] [36] [37] [38] [39] [40] [41] [44] Casos de uso de IA generalista: Análisis inteligente de riesgos contractuales con IA generativa | Derecho Práctico
[14] [17] [59] [60] Ocho de cada diez abogados ya usan IA para preparar sus casos, y casi la mitad lo hace a diario. – Periódico del Talento
[21] [22] [29] [30] Legaltech e IA: cómo abordar los retos reales del sector legal con una arquitectura basada en middleware – OpenSistemas
[23] [24] [45] Leya, la herramienta de IA jurídica que busca destronar a Harvey, aterriza en España
[33] [34] [35] Sam Altman, CEO de OpenAI: “Si hablas con un abogado, un psicólogo o un médico sobre tus problemas, hay confidencialidad y secreto profesional, pero con ChatGPT aún no hemos encontrado la manera”
[42] Introducing Llama 3.1: Our most capable models to date – AI at Meta
[43] What Meta’s Latest Llama Release Means for LLM Builders in 2025
- https://www.runpod.io/articles/guides/what-metas-latest-llama-release-means-for-llm-builders-in-2025
[46] [47] ChatGPT para Abogados: Cómo Empezar y Sacarle el Máximo Provecho | Association of Corporate Counsel (ACC)
- https://www.acc.com/resource-library/chatgpt-para-abogados-como-empezar-y-sacarle-el-maximo-provecho
David Tejedor