Análisis

Inteligencia Artificial en el ámbito penal y policial

Isabel Moral Zamorano
- de lectura

Para concluir este hilo de artículos del Congreso de Inteligencia Artificial y Derechos Humanos organizado por la UNED, como estudiante de Derecho, pero también de Criminología, me gustaría poner el broche de oro enfocándome en la Inteligencia Artificial dentro del ámbito del Derecho Penal y de las prácticas policiales, para acabar con unas pinceladas relativas a la industria legaltech en el ámbito de la abogacía, mi vocación.

En relación con la Inteligencia Artificial en torno al Derecho Penal, la mayor y principal de las cuestiones que podemos plantearnos es si tienen estas tecnologías personalidad jurídica propia, distinta a la de las personas físicas o no, o si deberían tenerla en el futuro. Destaco la intervención de la letrada Nayra Cordero Lozano quien manifestaba que, a su parecer, esto era lo más probable. En este sentido, el reconocimiento de personalidad jurídica a determinadas tecnologías implica la posibilidad de que la Inteligencia Artificial pueda ser autora de delitos por las acciones o decisiones que adoptan en el seno de su actividad autónoma, así como víctima de ellos. Es cierto que Nayra hablaba de las enormes limitaciones o deficiencias que plantea esta idea, al menos en la actualidad, pero como dije en el primero de los artículos, el hecho de plantear preguntas e hipótesis, sean posibles éstas o no, nos ayuda a avanzar y a sacar determinadas conclusiones. En este caso, resultaba innegable concluir que los robots habrán de tener un marco legal propio cuyo desarrollo vendrá determinado por el desarrollo propio de su ciencia.

Una cuestión de interés, en este sentido, la constituye el fenómeno de la Inteligencia Artificial en ciertos medios de comunicación, donde las noticias son elaboradas íntegramente por robots, como es el caso de Heliograf , un androide de The Washington Post que redacta noticias sobre política y eventos deportivos. Pues bien, en estos supuestos cabe preguntarnos cuál será el marco legal en relación con los delitos de injurias y calumnias que pudiera perpetrar el dispositivo inteligente en el ámbito de su autonomía. Sin duda se trata de un tema controvertido a la par que cautivador para cualquier jurista.

Por otro lado, el Doctor Fernando Ibáñez nos habló sobre las herramientas de Inteligencia Artificial que están utilizando las Fuerzas y Cuerpos de Seguridad del Estado en distintos países europeos e incidió sobre la afectación a los derechos fundamentales que suponían ciertas prácticas. Partimos de la idea de que esta tecnología se nutre de información masiva sobre tipos de delitos, horas del día y zonas en que se cometen para generar los llamados hotspots o “mapas criminales” orientados a la prevención , así como a la intervención efectiva y eficiente de los profesionales de la seguridad. No obstante, existen posicionamientos críticos respecto de algunos de estos dispositivos que, además de la información a la que me he referido, se nutren de datos personales de individuos ya fichados, con la finalidad de evitar que cometan delitos (por ejemplo, el X-Law en Italia). Ello suscita recelos por parte de los defensores de los Derechos Humanos quienes se postulan reacios al manejo de esta información que, sin duda, estigmatiza a determinados individuos con antecedentes penales. Además de esta postura crítica, es importante el cuestionamiento sobre qué tipos de delitos son los que se mapean y quién decide seleccionar aquellos y no otros: ¿Puede suponer esto un modo de estigmatizar o criminalizar según qué barrios o clases sociales? Además, tal y como apuntaba el Doctor Fernando, ¿no pueden consistir estas herramientas en dispositivos de los que se valga la delincuencia para localizar la presencia policial?

Por otro lado, habló sobre los usos de la Inteligencia Artificial en los órganos jurisdiccionales haciendo referencia a los algoritmos COMPAS (EEUU) y HART (en el Reino Unido, acrónimo en inglés de Herramienta de Evaluación de Riesgo de Daños). Ambos se habían diseñado para determinar el riesgo de reincidencia de un concreto sospechoso. ¿Cuál es el problema? Se ha demostrado que ambos favorecían a según qué tipo de sujetos y perjudicaban a otros con características diferentes (personas blancas frente a personas negras, o personas ricas frente a personas pobres o de barrios pobres, respectivamente). Por este motivo se alude a la necesidad de que los algoritmos sean desde su diseño y programación, hasta su utilización, transparentes.

Finalmente, quiero destacar que la Inteligencia Artificial está incidiendo notoriamente sobre el ejercicio de la abogacía, así nos lo hicieron saber José María Fernández Comas, Alberto Cabello y Manuel Díaz Martínez, Decano de la Facultad de Derecho de la UNED. Se trata de una realidad que el modelo de prestación de servicios de los abogados ha cambiado: ahora el cliente constituye el eje vertebrador de todo el proceso y las nuevas tecnologías se erigen como un aliado indispensable y fundamental para la fidelización de los clientes y la diferenciación en el mercado: el exponencial crecimiento de la industria legaltech así lo evidencia. Junto con ello, proliferan en el mercado herramientas de análisis predictivo que facilitan la toma de decisiones y el desarrollo de determinadas estrategias en los procesos y que pronostican las eventuales decisiones de los tribunales sobre la base de según qué argumentos.

He de concluir con que al respecto de la profecía sobre la automatización de la profesión del abogado o abogada y su posterior desaparición, los ponentes lo dejaron claro: “No será la Inteligencia Artificial la que quite el trabajo a los abogados, sino que se lo quitarán aquellos abogados que se lleven mejor con la Inteligencia Artificial”.

Agradecer a la Facultad de Derecho de la Universidad Nacional de Educación a Distancia y a Derecho Práctico la oportunidad de acudir a un evento tan enriquecedor que tantos conocimientos y perspectivas nuevas me ha aportado.