Inicio España Solicitan auditorías para abordar los sesgos relacionados con el uso de la...

Solicitan auditorías para abordar los sesgos relacionados con el uso de la IA en la toma de decisiones públicas

0

SANTA CRUZ DE TENERIFE, 6 (EUROPA PRESS)

La profesora y doctora en Ciencias de la Computación de la Universidad de La Laguna, Carina Soledad González, ha defendido este jueves en unas jornadas de igualdad en el Parlamento canario procesos de “auditoría y de certificación” que hagan frente a “los sesgos de género” que implica la Inteligencia Artificial, utilizada en algunas tomas de decisiones públicas, como en la concesión de ayudas.

González ha participado este jueves en la II Jornada ‘Parlamento e Igualdad’ celebrada en el Parlamento regional. En el acto se ha contado con la participación de su presidenta, Astrid Pérez, diferentes representantes políticos y mujeres destacadas en diferentes ámbitos profesionales.

En declaraciones a los medios, la doctora en Ciencias de la Computación ha ahondado en cómo de “sesgados” están los datos con los que trabajan los algoritmos, toda vez que son introducidos por los programadores o desarrolladores de las tecnologías, sin olvidar, además, que esa herramienta tecnológica se utiliza “desde hace bastante tiempo” en la toma de decisiones públicas.

Leer más:  Feministas piden en Madrid una agenda abolicionista global por el 8M y protestan contra la pornografía

“Desde hace ya bastante tiempo estamos siendo asesorados, recomendados, por algoritmos. ¿Qué está pasando? Que muchas veces en esas decisiones tomadas, incluso para temas de puestos laborales, se producen errores y también, por ejemplo, en el ámbito de la violencia de género”, ha alertado la experta.

Así, ha ejemplificado en cómo el uso de estos algoritmos “sesgados” pueden llegar a ‘discriminar’, erróneamente, en el ámbito de las ayudas públicas. Así, ha abogado por la transparencia, que pasa por informar a la ciudadanía sobre el “porcentaje de decisiones que están siendo tomadas por un algoritmo y por el porcentaje de las que no” en este tipo de procesos.

En ese contexto, la experta ha reivindicado la determinación de políticas públicas que hagan frente al problema, como la implantación de auditoría y certificación en el uso de los algoritmos. “Ya tenemos ahora una ley europea de inteligencia artificial, entró en vigor el 2 de febrero de 2025, pero tenemos que ver que efectivamente se cumpla”, ha dicho.

Leer más:  Más de 5.000 personas salen a la calle en Santander para reivindicar la igualdad real

Además de abordar esa esfera política, la experta ha subrayado el daño emocional que también incluye la afección de la Inteligencia Artificial, especialmente a través de las redes sociales. Ha sido ahí cuando ha alertado del uso actual de la tecnología ‘Deepfake’, que incluye un vuelco de imágenes personales y datos, que implica incluso al peligro de pornografía creada por IA.


- Te recomendamos -