MADRID, 02 (SERVIMEDIA)
La Federación de Consumidores y Usuarios CECU considera que la aplicación, desde este domingo, de las prohibiciones recogidas en el Reglamento europeo de Inteligencia Artificial “es un paso adelante, con muchas lagunas por cubrir”.
Así lo precisó en un comunicado en el que subrayó que este domingo marcará “uno de los primeros hitos relevantes” de la regulación de la Inteligencia Artificial (IA) en la Unión Europea con la aplicación de las prohibiciones establecidas en el Reglamento de IA.
CECU “celebra” estas medidas al entender que “buscan salvaguardar los derechos fundamentales de las personas frente al uso indebido de tecnologías avanzadas”.
En este contexto, valoró que el Reglamento de IA establece la prohibición de sistemas de IA que representan un “riesgo inaceptable” para la sociedad.
Entre las prácticas tecnológicas “vetadas” y que podrían afectar a las personas consumidoras se encuentran, según recordó, los sistemas de IA destinados a “manipular” el comportamiento de las personas de manera que puedan generarles “perjuicios significativos”.
‘DEEPFAKES’ Y ‘BOTS’ FALSOS
“Esto podría incluir, por ejemplo, ‘deepfakes’ que sirvan para estafar a las personas o ‘bots’ falsos que fomenten la desinformación”, abundó.
En paralelo, mencionó los sistemas de IA que “exploten vulnerabilidades” de las personas, como las condiciones socioeconómicas y que puedan causar “daños significativos”. “Podría ser el caso, por ejemplo, de una IA que determine mayores intereses a la hora de pedir un crédito o un seguro por la situación económica de una persona”, explicó.
Por último, hizo referencia a sistemas de IA que clasifiquen socialmente a las personas, como podría ser un banco que utilice los datos de las redes sociales para hacer una evaluación crediticia de una persona.
“De todas formas, saber qué sistemas entrarán efectivamente dentro de las prohibiciones requerirá de interpretación por parte de las autoridades de aplicación o de los tribunales”, apostilló.
Junto a ello, resaltó que se establecen otras prohibiciones, aunque de forma “limitada”, lo que, subrayó, “ha sido criticado en reiteradas oportunidades por la sociedad civil”, como el caso del reconocimiento biométrico en tiempo real por parte de autoridades públicas (con amplias excepciones y excluyendo de tal prohibición a actores privados) o el reconocimiento de emociones únicamente en el ámbito educativo y laboral, dejando “completamente desprotegidos” a los consumidores frente a sistemas que pretendan “explotar sus estados emocionales”.
“Basta pensar, por ejemplo, en técnicas de marketing orientadas a “interpretar” las emociones de las personas”, especificó.
DESAFÍOS
Según su punto de vista, “el panorama no está exento de desafíos” y volvió a criticar la “complejidad técnica” con la que la norma ha definido qué se considera “sistema de IA”, ya que, según su criterio, “podría dejar afuera a muchas decisiones algorítmicas que ya han demostrado afectar a las personas, como el famoso ‘caso Syri’ en Países Bajos o el software Bosco, que determina quién tiene acceso a bono social de electricidad”.
“Asimismo, las prohibiciones que entran en vigor requerirán de interpretación administrativa y judicial”, prosiguió, al tiempo que incidió en que la Comisión Europea trabaja en unas directrices sobre la definición de sistemas de IA y sobre las prácticas prohibidas, para lo que lanzó una consulta pública el pasado diciembre y que, según su punto de vista, “deben priorizar la protección de los derechos fundamentales”.
Por su parte, las estructuras de gobernanza necesarias para supervisar y garantizar el cumplimiento del Reglamento en los Estados miembro no estarán operativas hasta agosto de 2025.
“Este desfase temporal podría comprometer la aplicación efectiva de las prohibiciones y abrir espacios para potenciales incumplimientos”, advirtió, para señalar que España ya cuenta con la Agencia Española de Supervisión de la IA (Aesia), que aún no está “totalmente constituida” y ha anunciado que lanzará próximamente los Sanboxes de IA que pretenden elaborar guías para facilitar el cumplimiento con la norma.
UN PASO IMPORTANTE
En este contexto, la responsable de derechos digitales de CECU, Anabel Arias, puntualizó que la entrada en vigor de las prohibiciones del Reglamento de IA “es un paso importante que busca garantizar que la IA se desarrolle de manera responsable y respetuosa con los derechos fundamentales”.
“Sin embargo, aún persisten muchas dudas sobre qué sistemas entrarán bajo esas prohibiciones”, reiteró, al tiempo que juzgó “necesaria” una interpretación “amplia y efectiva” de la norma, “sin que los tecnicismos o las lagunas jurídicas que presenta dejen desprotegidas a las personas consumidoras”.
Por último, estimó que la UE “debe mantener una postura firme incluso frente a los cambios geopolíticos que se están produciendo, con Trump revocando, como una de sus primeras medidas, la orden ejecutiva de Biden que buscaba reducir los riesgos que la IA”.
- Te recomendamos -