Aprecian carencias en protección de datos y posibles sesgos hacia víctimas no españolas y personas con problemas de salud mental o adicciones
VALÈNCIA, 9 (EUROPA PRESS)
Especialistas en Derecho, Matemáticas y Estadística de la Universitat de València (UV) y la Politècnica de València (UPV) alerta de riesgos en el uso de tres herramientas predictivas utilizadas en la gestión policial y en la clasificación penitenciaria, tanto para los derechos fundamentales de los ciudadanos como en posibles discriminaciones que podrían derivarse para colectivos vulnerables.
El equipo ha analizado herramientas que funcionan con Inteligencia Artificial (IA) o algoritmos. Se trata de VioGén, empleada por la policía en España para evaluar el riesgo de revictimización de las mujeres que han denunciado situaciones de violencia de género; RisCanvi, utilizada por el sistema de prisiones catalán como apoyo para la toma de decisiones en materia de régimen y tratamiento, y VeriPol, una herramienta de IA de que dispone la policía española para detectar denuncias falsas de robo por medio de su contraste con patrones de lenguaje natural.
El estudio, dirigido por la profesora de Derecho Penal de la UV Lucía Martínez Garay, constata algunas carencias generales comunes a las tres herramientas en lo que se refiere a su adecuación al marco jurídico vigente en materia de protección de datos, detalla la UV.
También se aprecian déficits en la transparencia de estos sistemas, tanto en lo que se refiere a la información que está a disposición de la ciudadanía en general, como en cuanto a la información concreta respecto de los usos que se dan en cada caso y sus exactas implicaciones y consecuencias. La situación difiere para cada herramienta, con RisCanvi como la más transparente y Veripol como la más opaca.
Según el estudio, en el marco de la próxima entrada en vigor del Reglamento europeo sobre Inteligencia Artificial (RIA), será preciso un mayor esfuerzo en estos dominios, especialmente cuando las exigencias del RIA pasen a ser obligatorias también para las herramientas de IA empleadas por los poderes públicos y en lo que se refiere a la evaluación de sus efectos sobre los derechos fundamentales.
Respecto de posibles sesgos o discriminaciones, el informe subraya que el problema más grave es la dificultad para estudiar esta cuestión de forma sistemática, completa y exhaustiva, debido a la ausencia de datos e información suficiente públicamente accesible que permita una evaluación y contraste externos.
Aunque las conclusiones han de tomarse “con cautela” al haber tenido que trabajar con información incompleta, el estudio apunta a la posible existencia de sesgos que perjudican en ocasiones a algunos colectivos: VioGén parece proteger de forma algo menos eficaz a las mujeres víctimas que son de origen no español y RisCanvi parece ser más severo con colectivos como personas con problemas de salud mental o de adicciones, o personas con una situación socioeconómica muy desfavorable, al asignarles un riesgo de reincidencia violenta más alto que a quienes no se encuentran en estas circunstancias, y más alto también de lo que correspondería de acuerdo con los datos disponibles sobre su reincidencia real.
¿HASTA QUÉ PUNTO ES LEGÍTIMO UTILIZAR INFORMACIÓN SENSIBLE?
Por otro lado, el informe cuestiona hasta qué punto puede resultar legítimo, y proporcionado al fin de la prevención de delitos, utilizar información personal muy sensible para estimar riesgos de reincidencia sobre los que se van a apoyar decisiones restrictivas de derechos.
En cuanto a la capacidad predictiva de estas herramientas, la información disponible para hacer una evaluación rigurosa es muy dispar –hay más sobre RisCanvi, mucha menos sobre VioGén y “prácticamente ninguna” en el caso de VeriPol–, lo que dificulta el análisis externo.
Con los datos disponibles, los especialistas concluyen que, en general, estos sistemas detectan mejor los casos de riesgo bajo que los de riesgo alto. Pero subrayan la necesidad de tener en cuenta el fin para el que se va a utilizar la información: un mismo porcentaje de acierto en las predicciones podría considerarse suficientemente bueno para ciertas decisiones, pero no para otras, según cómo de intensa sea la restricción de derechos fundamentales que pretende apoyarse en esa información.
- Te recomendamos -