Entrevistas

Ferran Sala, Director General vLex Europa: «La IA generativa es el inicio de un nuevo mundo para las bases de datos jurídicas»

El autor del post  Josep Mª Fernández Josep Mª Fernández
- de lectura

Hace unos días vLex anunció el lanzamiento de tres nuevos agentes basados en tecnología de inteligencia artificial para su asistente Vincent AI. Gracias a estos nuevos agentes, Vincent AI es ahora capaz de responder preguntas en diferentes jurisdicciones, construir argumentos jurídicos a favor y en contra y comparar una determinada problemática jurídica entre diferentes jurisdicciones. Se trata del lanzamiento progresivo de una herramienta en la que, al menos en esta primera fase, parece que va a prevalecer la seguridad jurídica frente a la velocidad. Esta propuesta de vLex pasa por ofrecer factores diferenciales como los de la transparencia, la seguridad, la multijurisdicción, el control del usuario y la adaptación a las formas de consulta del usuario. Otro detalle a tener en cuenta: no trabajan únicamente con un LLM, sino con diferentes, en lo que se conoce como arbitraje de LLM’s. Por todo ello, le propusimos a Ferran Sala, Director General Europa en vLex, que compartiera con nosotros este nuevo proyecto y que, ya metidos en harina, nos permitiera conocer a través de una demo cómo funciona Vincent AI. No te pierdas lo que nos dijo y lo que nos mostró, porque tal como nos dijo, quizás no sea el principio del fin de las bases de datos jurídicas tradicionales, pero sí que es el inicio de un nuevo mundo para estas herramientas de investigación legal.

(Demo de Vincent AI con Ferran Sala, Director General Europa en vLex)

Vuestro asistente virtual Vincent, que en su día innovó la forma de realizar búsquedas al hacerlas a través de documentos y asistidas por IA, ha evolucionado Vincent AI, empoderado con toda la potencia de la IA generativa. ¿Qué ha supuesto para vosotros el lanzamiento de Vincent AI? ¿Por qué habéis preservado la marca Vincent?

Innovar en nuestras soluciones es algo habitual en vLex. Lo que sí es cierto es que con la irrupción de los famosos LLM, los modelos de lenguaje extensivo, nos podemos plantear ir más allá como empresa. Es una tecnología que te permite dar un salto como hasta ahora no habíamos podido dar. Pasar de hacer búsquedas que te ofrezcan miles de resultados, ordenados con más o menos acierto, al modelo de tú me haces una pregunta y yo te doy una respuesta, que era nuestro sueño, nuestra razón de ser, ahora ya es posible. Hemos pensado que valía la pena mantener el legado de la marca Vincent para este producto que, en realidad, es una combinación de tres agentes que resuelven tres aspectos concretos: responder una pregunta, construir un argumento y comparar jurisdicciones. Se trata de dar continuidad a algo que construimos hace tiempo, ahora bajo el paraguas de la IA generativa que nos permite ir más allá de lo que hasta ahora habíamos ido.

Vuestra base de datos es excelente, Vincent y vLex Cloud aportaban valor, pero la IA generativa es otra cosa, un fenómeno que va a impactar formidablemente en las herramientas de investigación legal.

Totalmente. Es una tecnología que tiene la capacidad de transformar completamente el modelo de negocio tradicional de los editores de contenido jurídico. Estoy seguro de que al principio tendrá un impacto positivo porque los productos que se diseñen resolverán muy bien las dudas de los abogados. Pero lo cierto es que va a suponer un gran cambio en un negocio que hasta ahora era muy estable, muy conservador.

¿Es el principio del fin de las bases de datos jurídicas tradicionales?

Creo que es el inicio de un nuevo mundo para las bases de datos jurídicas. Continuarán consultándose en el mundo académico, en el ámbito gubernamental, incluso algunos profesionales seguirán trabajando con los productos de toda la vida, que realmente aportan valor, como se ha demostrado hasta ahora. Pero a medida que se vayan desplegando servicios basados en tecnologías como la IA generativa veremos cómo se produce un cambio progresivo.

Ponéis mucho énfasis en el tema de la seguridad, de las famosas ‘alucinaciones’, una mala fama que ha heredado esta tecnología por algunos casos de malas prácticas de ChatGPT. ¿Qué medidas habéis tomado al respecto? Creo que vuestro caso, además, es especial, porque vuestros productos engloban a muchísimas jurisdicciones.

Lo que nos hemos planteado al lanzar esta nueva línea de productos es crear una tecnología que esté lista para ser usada por abogados, diferente a lo que el mercado ofrece actualmente, y me refiero a los servicios, gratuitos o no, de ChatGPT, Google, los que vengan de Amazon y otros. ¿Y por qué decimos esto? En primer lugar, hay que pensar que el uso de esta tecnología, a veces, tiene el efecto caja negra, en la que en ocasiones no se sabe muy bien el tipo de respuestas que te proporciona. Por ello, intentamos aportar transparencia para que el usuario tenga muy claro qué documentos se han incorporado al proceso de valoración de respuestas por parte del algoritmo. Es decir, tenemos muy claro que el profesional debe entender por qué a partir de su pregunta recibe una determinada respuesta. En segundo lugar, y apuntando a lo que decías antes, está la necesidad de crear unos guardarraíles, que eviten que el algoritmo no se salga, para que no dé respuestas falsas ni genere alucinaciones. Por todo ello, utilizamos exclusivamente el contenido que tenemos en nuestra base de datos, apalancando nuestro valor editorial y creando sobre nuestra propuesta de contenidos relevantes y actualizados esta plataforma tecnológica.

Después hay otra cosa que creo que es muy importante, que es diferencial respecto al uso de ChatGPT y tecnologías similares. Queremos que el abogado esté en todo en momento en control, en el sentido de que puede indicar que está de acuerdo en la selección de contenido que ha hecho el algoritmo de Vincent AI, puede optar por quedarse con un contenido y rechazar otros. De este modo, el profesional puede incidir en el resultado.

Supongo que con lo que explicas te refieres a la trazabilidad del contenido...

Es eso precisamente. El usuario puede ver qué contenidos o parte de los mismos son usados como base para la argumentación. Es ofrecer transparencia. Volviendo a la pregunta anterior, también hay dos elementos que son diferenciales. Uno es la visión global que nosotros tenemos desde nuestro inicio, como bien sabes, y nuestros productos tienen que responder a eso: toda esta nueva familia de soluciones debe trabajar de forma irrenunciable en un entorno multijurisdicción. Como verás en la demo que vamos a hacer, cualquier pregunta que haga el usuario se puede formular para la jurisdicción española, la del Reino Unido, la irlandesa y la de Estados Unidos, que son las que en estos momentos tenemos disponibles, y que iremos ampliando de aquí al final de año.

Ferran, Word es la herramienta, junto al correo electrónico, que posiblemente más utilizan los profesionales jurídicos. Vemos que Vincent AI también está disponible como plugin para MS Word.

Básicamente, vLex ya tiene una extensión para Word integrada en Vincent. Esa extensión se va a actualizar para que se pueda utilizar Vincent AI, de modo y manera que estando en Word podrás hacerle las preguntas a la IA generativa. Es decir, vamos a darte la respuesta en el entorno en el que estés trabajando.

Háblanos de la usabilidad de Vincent AI. Nos decís que profesionales que han testado la herramienta, como Scott Rechtschaffen, socio y Chief Knowledge Officer de Littler, han asegurado que “es fácilmente entendible por parte de los abogados y no tienen apenas curva de aprendizaje”. Es fundamental que la curva de aprendizaje en cualquier legaltech de hoy en día sea lo más corta posible.

Totalmente. Son servicios que son muy intuitivos, y hoy en día es irrenunciable el uso del lenguaje natural. Cuando creas herramientas digitales basadas en IA, esa idea del tesauro de toda la vida desaparece y los profesionales interactúan empleando el lenguaje natural, que no deja de ser otra cosa que su propia capacidad de relacionarse.

Además de la experiencia del usuario, cuando se crean productos digitales cada vez es más habitual pensar que el usuario los va a consumir de manera diferente. Otro de los factores que creemos diferenciales, además de los ya mencionadas (la transparencia, la seguridad, la multijurisdicción y el control del usuario), es que esta tecnología está pensada para que alguien la pueda utilizar desde vLex, pero otro la querrá usar desde el Word a través del plugin que tiene vLex, otro lo querrá hacer vía API… Somos conscientes de que son servicios que el usuario puede querer combinar con otros servicios o documentos internos. Por lo tanto, cuando creas este servicio tienes que prever que el consumo de esta tecnología de la forma en el que cliente realmente necesite.

¿Empleáis como tecnología subyacente la de Open AI?

Lo que hacemos es lo que se llama un arbitraje de LLM’s. Es decir, trabajamos con diferentes LLM’s que son óptimos en diferentes etapas. Cada modelo (ChatGPT, Bard, etc.), en función de sus capacidades y de su disponibilidad, funcionan mejor en un momento u otro.

Vuestro CEO, Lluís Faus, afirma que “las herramientas de IA son tan buenas como lo son los contenidos que se usan para entrenarlas”. Volvemos a la importancia que tiene trabajar con un repositorio propio, bien indexado y categorizado.

Los modelos fundacionales algo saben de derecho. Quien ha usado ChatGPT ve que ha estado expuesto a contenidos jurídico, y lo mismo ocurre con la IA de Google. Pero en el ámbito profesional, cuanto mejor sea la calidad del contenido, los resultados serán más óptimos. Con los guardarraíles que mencionaba antes, lo que queremos es crear contexto. Es decir, el usuario busca, nosotros extraemos nuestro mejor contenido, le hacemos entender al algoritmo de qué va ese contenido y luego realizamos todo el proceso de generar una respuesta narrativa a partir de ese contexto. Te pongo un símil culinario. Como abogado tú eres el cocinero, pero nosotros te ayudamos a cocinar, aportamos los mejores ingredientes, te calentamos el horno, sabemos cuáles son las proporciones, pero, al final, tú eres el cocinero y serás el que sirva el plato. Cuanto mejor sea la materia prima que empleemos en la cocina, mejor será el resultado.

Nuestra apuesta no es que este servicio sea el más rápido del mundo, sino que prevalezca la seguridad jurídica. No apostamos por la fast food, sino por un proceso de cocción que, en nuestro caso, es a fuego lento, para asegurarnos de que el contenido es relevante, que el algoritmo lo está entendido todo correctamente. Este proceso puede tardar dos o tres minutos, frente a la inmediatez que tiene ChatGPT, por ejemplo. Si el profesional no quiere esperar ese tiempo, le podemos enviar los resultados por e-mail.