MADRID, 14 (SERVIMEDIA)
La Federación de Consumidores y Usuarios CECU “apoya” y juzga “positiva” la decisión de la Agencia Española de Protección de Datos (AEPD) de iniciar de oficio actuaciones de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa.
Así lo defendió en un comunicado en el que recordó que la inteligencia artificial se ha desarrollado “enormemente” durante los últimos años y que, “desde hace un tiempo”, ChatGPT “ha acaparado nuestra atención”. “No solo por su repentino uso masivo, sino por distintas noticias de las que hemos ido tomando conocimiento”, abundó, para señalar cómo en Bélgica una persona se ha quitado la vida “aparentemente” tras hablar de forma “intensiva” con un chatbot.
En paralelo, subrayó que “distintas personalidades académicas” también han llamado a la “acción urgente” por los “riesgos” que “conllevan” estas tecnologías y que, a ello, se “suma” la carta abierta firmada por expertos y ejecutivos del sector para pedir una pausa “inmediata” de seis meses en el avance de los sistemas de inteligencia artificial “más potentes” que ChatGPT-4.
“Hace unas semanas Italia se convirtió en uno de los primeros en tomar cartas en el asunto, en tanto su autoridad de protección de datos bloqueó la utilización de ChatGPT”, puntualizó, para aseverar que, con la decisión de la AEPD, “España da un paso adelante para afrontar los riesgos que plantean estas tecnologías”.
En este punto, la federación indicó que, si bien la Unión Europea “trabaja a contrarreloj” en una propuesta de Reglamento de Inteligencia Artificial, este “no entrará en vigencia hasta dentro de varios años”.
“Ahora bien, como hemos visto, los riesgos a los que se encuentran expuestas las personas consumidoras, como la manipulación y la desinformación, son actuales”, espetó, convencida de que existe “una ausencia de regulación, por lo que resulta necesaria la actuación de las autoridades públicas”.
En este contexto, la experta en derechos digitales de CECU Anabel Arias sostuvo que un sistema de inteligencia artificial como el ChatGPT “ha generalizado su uso de manera demasiado rápida”. “Sin embargo, no hay un marco regulatorio ni un análisis de riesgos que proteja a las personas consumidoras”, añadió, para advertir de que “ya no podemos esperar a que se apruebe el Reglamento de Inteligencia Artificial”.
De este modo, urgió a las administraciones a “actuar proactivamente para protegernos y aplicar el principio de precaución” y coincidió en que el hecho de que la AEPD inicie una investigación “es un primer paso para garantizar mayor control y protección para todos, pero es necesario un debate profundo con implicación de la sociedad civil antes de generalizar estas tecnologías”.
- Te recomendamos -