Inicio Galicia El director de la Aesia advierte sobre multas de hasta 35 millones...

El director de la Aesia advierte sobre multas de hasta 35 millones de euros por mal uso de la IA

0

SANTIAGO DE COMPOSTELA, 23 (EUROPA PRESS)

El director general de la Agencia Española de Supervisión de la Inteligencia Artificial (Aesia), Ignasi Belda, advierte de que las sanciones por usar la Inteligencia Artificial (IA) en “ámbitos prohibidos” pueden alcanzar los 35 millones de euros.

En una entrevista en la Cadena Ser recogida por Europa Press, Belda ha remarcado que la comunidad gallega es una “privilegiada” en albergar la primera agencia europea de supervisión de la IA.

El uso de la IA está prohibida en diferentes ámbitos, tal y como establece el Reglamento de Inteligencia Artificial que entró en vigor en agosto de 2024 y cuya aplicación se realiza “de forma escalda”, por ello la Aesia se encarga de supervisar el uso en las “categorías de riesgo” marcadas por la ley.

Así, esa prohibición se centra en ocho entornos y algunos de ellos, según nombró Belda, son: policía predictiva, no se puede usar para prevenir delitos; reconocer emociones en puestos de trabajo o centros educativos; y, entre otros, la manipulación subliminal.

Leer más:  Sumar solicita al Gobierno que fomente la valoración de los militares republicanos que sufrieron durante la época del franquismo

El mal uso de la IA tendrá como consecuencia diferentes sanciones, pero “no entra en vigor” hasta agosto de este año, por lo que, actualmente, si detectan que alguna persona utiliza la IA en un ámbito prohibido deben avisarla.

La sanciones van desde “cuantías pequeñas” hasta los 35 millones de euros para sanciones “realmente graves”. “A partir de agosto, si el que lo está utilizando de forma fraudulenta persiste en ello, pues entonces tendremos ya que tomar cartas en el asunto. Pero de momento, digamos, las prohibiciones están en vigor, pero no las sanciones”, ha explicado.

Además, a partir de agosto de 2026 la agencias tienen la obligación de habilitar un canal de denuncias para que cualquier ciudadano pueda transmitir una inquietud o denunciar un sistema de inteligencia artificial que haya detectado que “potencialmente pueda ser de los prohibidos o de los de alto riesgo”.

“TODA TECNOLOGÍA TIENE EFECTOS POSITIVOS Y NEGATIVOS”

El director de la Aesia, consultado sobre los miedos que trae consigo el desarrollo de la IA, remarca que “toda tecnología” tiene sus “efectos positivos y negativos”, por lo que incide en que se “debe ser conscientes” de las oportunidades que ofrece la tecnológica y “limitar sus riesgos”.

Leer más:  La Diputación ofrece talleres, presentaciones literarias y jazz como parte de las actividades para la Semana Blanca

“Las oportunidades en el ámbito laboral son muchísimas y lo que pretendemos, también desde el Gobierno, es que las empresas abracen esta tecnología y la incorporen en sus procesos productivos para ser más productivas y poder competir a escala global con nuevas herramientas”, indicó.

Ignasi Belda ha subrayado que, para él, el desafío más importantes “es la humanización de la tecnología”. “Corremos le riesgo de que estas tecnologías adopten un cariz propio y que nadie las entienda”, ha advertido.

Por ello, “hay que trabajar” en una materia que se llama inteligencia artificial autoexplicable, es decir, que se pueda trabajar con la IA en “toda su potencia”, pero cuando se le pida explicaciones “las pueda dar”.


- Te recomendamos -