MADRID, 19 (SERVIMEDIA)
Un total de 17 organizaciones sociales, coaligadas bajo el nombre de IA Ciudadana, exigieron este miércoles al Gobierno que la trasposición al ordenamiento jurídico español del Reglamento Europeo de Inteligencia Artificial (AI Act) se lleve a cabo “con más luces que sombras” con el objetivo de garantizar “el mayor nivel de protección posible para la ciudadanía”.
Lo hicieron en un acto organizado ante la sede del Ministerio de Transformación Digital y de la Función Pública, donde instalaron enormes cajas transparentes en las que se podía leer “transparencia”, “participación”, “igualdad” o “supervisión y control”, según informó Amnistía Internacional.
También entregaron una carta en el registro del departamento dirigido por José Luis Escrivá en la que piden que se tenga en cuenta su conocimiento y experiencia para la aplicación del antedicho reglamento y para el desarrollo de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia).
La coalición IA Ciudadana plantea las cuatro siguientes peticiones: prohibir el reconocimiento biométrico en lugares de acceso público en tiempo real y ‘a posteriori’ y el reconocimiento de emociones en todas sus formas; desarrollar un registro de algoritmos y ampliar los supuestos obligatorios en los que el uso de aquellos debe registrarse en la base de datos de acceso público, cuyo “alcance es limitado”; garantizar un marco de igualdad para todas las personas en los sistemas de inteligencia artificial para que “no se conviertan en una herramienta que discrimine a ningún sector de la población”; e incorporar la participación efectiva de la sociedad civil en la gobernanza de la inteligencia artificial y en los estudios de evaluación de impacto sobre los derechos fundamentales y en la definición de políticas públicas de inteligencia artificial.
En su intervención en el acto, la portavoz de la coalición, Paula Guerra, aseveró que “el reconocimiento de los rasgos faciales y de las emociones debe ser prohibido sin excepciones en todos los ámbitos”, ya que “es una intromisión innecesaria al derecho a la intimidad y un abuso de poder que además no tiene evidencia científica y contribuye a la sociedad de la vigilancia”.
También atestiguó que “la sociedad civil, y especialmente los grupos de personas afectadas por el uso de la inteligencia artificial, deben tener derecho a supervisar estos sistemas, a exigir el ceso de su uso si se demuestra que éstos están reproduciendo discriminaciones y a solicitar reparación para las víctimas”.
Puso como ejemplo de lo anterior lo sucedido en Países Bajos, donde un algoritmo denegó subvenciones para cuidados infantiles basándose en perfiles raciales; en Serbia, donde personas con discapacidad no recibieron asistencia social por “una automatización del sistema nada inocente”; o en Reino Unido, donde una cámara de vigilancia asociada a un sistema de reconocimiento facial identificó erróneamente a un cliente como ladrón reincidente.
Denunció que en España se han puesto en marcha estos sistemas en el ámbito policial y en los servicios sociales y “no se consigue la información para poder estudiar su impacto”.
La coalición IA Ciudadana está conformada por las siguientes organizaciones: Algorace, Algorights, Civio, Federación de Consumidores y Usuarios CECU, Digital Fems, Éticas, Institut de Drets Humans de Catalunya, Iridia, Komons, Lafede.cat, Novact, Oxfam Intermón, Political Watch y Observatorio Trabajo, Algoritmos y Sociedad. Forman parte de ella como observadoras Amnistía Internacional, Fundación Secretariado Gitano y Xnet.
- Te recomendamos -