Análisis

DAS Seguros advierte sobre cómo actuar ante los potenciales riesgos legales del ChatGPT en el ámbito empresarial

El autor del post  Redacción Redacción
- de lectura

Cyborg hand 3D background, technology of artificial intelligence
  • Los expertos de DAS Seguros, compañía que auspicia DAS Innovation Lab, programa de aceleración de startups legaltech, advierten que sistemas de Inteligencia Artificial (IA) como el ChatGPT pueden suponer un riesgo para el ámbito empresarial, y aconsejan cómo protegernos en esos casos
  • Los derechos de autor, la propiedad intelectual y los fraudes o ciberataques son algunas de las problemáticas a las que las empresas pueden verse enfrentadas

La revolución de la inteligencia artificial (IA) continúa irrumpiendo con fuerza, tanto en la sociedad como en el ecosistema empresarial. Concretamente, el ChatGPT, y sus diferentes iteraciones, es el sistema que ha impactado al público en mayor medida, suscitando fanatismos a la par que oponentes mientras las grandes corporaciones tecnológicas integran esta tecnología en sus soluciones. Y es que, el amplio alcance de la herramienta puede entrañar riesgos potenciales que muchos usuarios desconocen.

Ante el creciente uso y desarrollo de herramientas basadas en la IA, el equipo de expertos de DAS Seguros ha analizado estos modelos, y en concreto, el novedoso ChatGPT, con el fin de advertir sobre su uso inapropiado y los riesgos legales a los que se expondrían las empresas.

El ChatGPT (Generative Pretrained Transformer) es un prototipo de chatbot de inteligencia artificial desarrollado por la compañía OpenAI con capacidad de responder a preguntas y mantener conversaciones o generar materiales en tiempo real, dando respuesta en cuestión de segundos. El modelo de lenguaje utilizado permite que éste continúe aprendiendo a través de la interacción de los usuarios, quedando registrada toda la información que se aporte. Esto supone un riesgo implícito, especialmente para las organizaciones que hacen uso de esta herramienta.

Aunque actualmente se desconoce si la información almacenada puede ser accesible para otros usuarios a través de nuevas consultas, compartir información interna o confidencial podría conllevar graves consecuencias para las organizaciones. Entre los diversos riesgos de seguridad y privacidad que esta herramienta podría comportar, los expertos de DAS destacan la protección de datos, los derechos de autor y la propiedad intelectual: “Estos sistemas se nutren de todo tipo de contenidos publicados en Internet sin contrastar y sin citar a las fuentes. Esto no sólo puede generar desinformación, sino que puede exponer a las empresas ante reclamaciones por competencia desleal o fraude empresarial”, señala Natalia Mañas, abogada especialista del Centro de Asistencia Jurídica de DAS Seguros.

En ese sentido, desde hace más de un año, la Unión Europea trabaja en una propuesta para regular el uso de la inteligencia artificial de forma efectiva y proteger a los usuarios de esta tecnología, estableciendo límites y clasificando los riesgos de forma clara y transparente para otorgar seguridad jurídica, promoviendo el uso seguro de la tecnología.

Mientras no dispongamos de una regulación clara, será complicado determinar cuándo un sistema de Inteligencia Artificial como el ChatGPT infringe las normas, ya que la regulación actual en Europa contempla, principalmente, los derechos de contenido creado por humanos. No obstante, ante la falta de regulación actual en este ámbito y los crecientes riesgos que presenta el rápido desarrollo de la IA, desde DAS Seguros aconsejamos a las empresas que elaboren un plan de prevención y establezcan políticas claras que eviten posibles conflictos legales por el uso de las tecnologías”, recomienda Mañas

Con el desarrollo de la tecnología han proliferado también los ciberataques dirigidos a empresas y particulares. Mediante actividades de phishing o difusión de malware, que se ocasionan a partir de mensajes que pueden contener archivos o enlaces maliciosos, las empresas se ven expuestas a mayores amenazas de seguridad que podrían derivar en fraude o el robo de datos.

Además, la experta recuerda que “ni los usuarios ni las empresas de ningún tamaño están exentos de esta violación de derechos”. De hecho, las pymes y los autónomos presentan una mayor vulnerabilidad en estos casos, y es la compañía la que se presenta responsable a nivel jurídico de cualquier problemática interna en este ámbito. Por tanto, la abogada recomienda a todo tipo de organizaciones avanzarse a la regulación comunitaria y advertir a los trabajadores y a los ciudadanos del uso de los contenidos: “Sin una normativa clara en el área, cualquier acción debe respetar los límites de la legalidad vigente, así que es útil formar a los equipos y elaborar guías de actuación para evitar que el desarrollo tecnológico nos perjudique más de lo que nos favorezca”.

En conclusión, mientras ChatGPT recalca que la responsabilidad del uso del contenido pasa por el uso que hacen los propios usuarios, desde DAS recuerdan que es importante concienciar a las compañías y sus equipos de los diversos riesgos que podría conllevar y establecer una guía de actuación. Y es que no se puede olvidar que las compañías son las responsables a nivel jurídico de cualquier violación de derechos que la actividad de un empleado pueda suponer.