Inicio España La ONU advierte sobre los peligros de la Inteligencia Artificial

La ONU advierte sobre los peligros de la Inteligencia Artificial

0

MADRID, 31 (EUROPA PRESS)

La ONU ha advertido este jueves sobre los peligros que conlleva el uso de la Inteligencia Artifical (IA) y ha pedido a las empresas que sean responsables.

“Pienso que es muy preocupante (…). La IA es una tecnología que puede traer grandes beneficios en educación y ciencias. Sin embargo, las empresas deben responsabilizarse en la forma que esta información se publica porque se puede hacer un mal uso de ella”, ha declarado en una rueda de prensa el portavoz de la Secretaría General de Naciones Unidas, Stéphane Dujarric.

Dujarric ha expresado sus preocupaciones en referencia a programas de inteligencia artificial como ChatGPT, que han conseguido alterar imágenes, replicar voces y crear textos de forma que pueden aumentar “la violencia y la desinformación”.

Ejemplo de ello son las fotos creadas por la propia IA del Papa Francisco llevando un chaquetón y unas zapatillas deportivas blancas, o la creación de unas imágenes de Donald Trump siendo detenido.

El portavoz ha opinado que uno de los problemas radica en que el sector tecnológico opera fuera de los controles gubernamentales de forma mayoritaria, y ha explicado que la ONU ha organizado reuniones entre los gobiernos, el sector privado y la sociedad civil para intentar garantizar que no se abuse de esta tecnología a la par que se pueda aprovechar el “inmenso potencial positivo” que puede traer.

Además, ha asegurado que el secretario general de Naciones Unidas, António Guterres, lleva tiempo advirtiendo al respecto.

“La inteligencia artificial viene con la promesa de mejorar el acceso a la sanidad, a acelerar el desarrollo económico y otras beneficios. Pero también podemos ver los peligros: un mundo con menos privacidad, menos intervención y responsabilidad humana y donde la desigualdad de ingresos se amplía y el acceso al trabajo se reduce para millones personas”, declaró Guterres en mayo de 2019.


- Te recomendamos -