Inicio España Los consumidores están advirtiendo que si el operador de ChatGPT afirma que...

Los consumidores están advirtiendo que si el operador de ChatGPT afirma que no es de “alto riesgo”, podría evitar las nuevas limitaciones

0

MADRID, 11 (EUROPA PRESS)

La Federación de Consumidores y Usuarios (CECU) ha lamentado que el Parlamento Europeo “haya rebajado la aplicabilidad” del Reglamento Europeo de Inteligencia Artificial “al limitar la definición de sistemas de IA e introducir limitaciones adicionales para clasificar a los sistemas de alto riesgo”.

Esto, según ha advertido la experta en derechos digitales de CECU Anabel Arias en un comunicado, “podría permitir que los operadores de IA puedan eludir las reglas del reglamento simplemente diciendo que sus servicios no son de alto riesgo”.

No obstante, CECU ha celebrado “el paso dado hoy” para la mejora del reglamento, en referencia a la votación de los comités del Parlamento Europeo encargados del Reglamento de Inteligencia Artificial, aunque ha mostrado su preocupación “por la ausencia de prohibición de algunos sistemas de reconocimiento de emociones y sus riesgos para las personas consumidoras”.

El Parlamento Europeo ha dado este jueves el primer paso para negociar con los Veintisiete las primeras leyes para regular la Inteligencia Artificial, unas normas europeas que serán las primeras del mundo en el sector y con las que los eurodiputados quieren que el chatbot de OpenAI, ChatGPT, y otros sistemas similares adviertan con transparencia de que sus contenidos han sido creados por la Inteligencia Artificial.

Así consta en el mandato negociador que han aprobado las comisiones de Mercado Interior y de Libertades Civiles, Justicia e Interior y que está aún pendiente de adopción formal por el pleno de la Eurocámara en la próxima sesión de junio.

En cuanto a las mejoras introducidas, CECU ha aplaudido que se haya ampliado el listado de prácticas prohibidas, habiéndose incorporado expresamente la prohibición del uso de identificación biométrica por parte de autoridades públicas y entidades privadas en espacios de acceso público, tanto en tiempo real como ‘ex post’; o que se hayan reconocido derechos en favor de las personas consumidoras, como el derecho a presentar una reclamación ante autoridades públicas, el derecho a acceder a un recurso judicial, el derecho a solicitar reparaciones o medidas cautelares colectivas y el derecho a ser informados cuando se está sujeto a una decisión de un sistema de IA de alto riesgo.

La organización también ha destacado que se ha ampliado el listado de sistemas de IA alto riesgo (aquellos sobre los que recaen la mayoría de las obligaciones del Reglamento), incorporando los sistemas de recomendación utilizados por grandes plataformas (según se encuentran definidas en la Ley de Servicios Digitales) y algunos sistemas que se utilicen en el sector de seguros.

Sin embargo, considera negativo que se haya adoptado una definición “limitada” de qué se entiende por sistema de IA, en comparación con la propuesta original de la Comisión; o que se ha “debilitado” la clasificación de sistemas de alto riesgo, al permitir que empresas o autoridades evalúen por sí mismas si su sistema califica como de alto riesgo o no.

Al respecto, la organización ha afirmado que esto podría “resultar fácilmente en evaluaciones erróneas sobre si un sistema es de alto riesgo y daría a los desarrolladores demasiada discreción para decidir ello”. Además, indica que los comités “no han presionado para que un tercero certifique si el sistema se ajusta o no al reglamento”.

Por último, ha criticado que no se prohíba el reconocimiento de emociones cuando se usa en las personas consumidoras, lo que, a su juicio, “puede conducir a graves intrusiones en la privacidad y afectar la capacidad de tomar decisiones autónomas, más si se tiene en cuenta que estos sistemas carecen de evidencia científicas certeras”.


- Te recomendamos -