MADRID, 28 (EUROPA PRESS)
El Vaticano ha advertido del riesgo de buscar en la Inteligencia Artificial (IA) un “sustituto de Dios” y de que los seres humanos se conviertan en “esclavos de su propia creación”, por lo que recomienda que solo se utilice como “herramienta complementaria de la inteligencia humana”.
“Al buscar en ella (la IA) un ‘Otro’ más grande con quien compartir la propia existencia y responsabilidad, la humanidad corre el riesgo de crear un sustituto de Dios. En definitiva, no es la IA quien es divinizada y adorada, sino el ser humano, para convertirse, de este modo, en esclavo de su propia obra”, advierte el Vaticano.
Así se puede leer en una Nota sobre la relación entre Inteligencia Artificial e Inteligencia Humana titulada ‘Antiqua et nova’ (Antigua y nueva), publicada por los Dicasterios para la Doctrina de la Fe y para la Cultura y la Educación del Vaticano, con la aprobación del Papa Francisco.
El documento, estructurado 117 parágrafos, pone de relieve los retos y las oportunidades del desarrollo de la IA en los ámbitos de la educación, la economía, el trabajo, la salud, las relaciones y la guerra.
En concreto, varios párrafos del texto están dedicados a la distinción entre IA e inteligencia humana y señala que es “engañoso” utilizar la propia palabra “inteligencia” para referirse a la IA porque no es “una forma artificial de inteligencia”, sino “uno de sus productos”.
Así, añade que como cualquier producto del ingenio humano, la IA también puede orientarse hacia “fines positivos o negativos” y, por tanto, introducir “innovaciones importantes” o agravar situaciones de discriminación, pobreza, brecha digital o desigualdades sociales.
También indica que plantea preocupaciones “éticas” el hecho de que “la mayor parte del poder sobre las principales aplicaciones de la IA se concentra en manos de unas pocas y poderosas empresas”, de modo que esta tecnología acaba siendo “manipulada” para “ganancias personales o empresariales”.
En referencia a la guerra, el Vaticano subraya que los sistemas de armas autónomas y letales capaces de “identificar y atacar objetivos sin intervención humana directa” son un “serio motivo de preocupación ética”. De hecho, el Papa pidió que se prohibiera su uso.
Estas tecnologías, según advierte, confieren a la guerra “un poder destructivo fuera de control, que afecta a muchos civiles inocentes, incluidos los niños”.
En cuanto a las relaciones humanas, el documento señala que la IA puede conducir a un “aislamiento perjudicial” y que representar a la IA como una persona es “una grave violación ética” si se utiliza con fines fraudulentos. Asimismo, añade que utilizar la IA para engañar en contextos como la educación, las relaciones, la sexualidad, es “poco ético y requiere una cuidadosa vigilancia”.
En el ámbito laboral, señala que, mientras que, por un lado, la IA tiene “potencial” para aumentar las competencias y la productividad, por otro, puede “desespecializar a los trabajadores, someterlos a una vigilancia automatizada y relegarlos a tareas rígidas y repetitivas”.
La nota también dedica un amplio espacio a la cuestión de la sanidad y aunque destaca el enorme potencial de diversas aplicaciones en el ámbito médico, advierte de que si la IA llegara a sustituir la relación médico-paciente, se correría el riesgo de “empeorar” la soledad que suele acompañar a la enfermedad. También avisa del peligro de reforzar una “medicina para ricos”, en la que las personas con medios económicos se benefician de herramientas avanzadas, mientras que otras no tienen acceso ni siquiera a los servicios básicos.
Además, ‘Antigua y nueva’ enumera los riesgos en el ámbito de la educación y precisa que si se utiliza con prudencia, la IA puede mejorar el acceso a la educación y ofrecer “información inmediata” a los estudiantes. El problema, según puntualiza, es que muchos programas “se limitan a proporcionar respuestas en lugar de empujar a los estudiantes a encontrarlas por sí mismos, o a escribir textos por sí mismos”, a lo que se suma la “información distorsionada”.
El documento advierte asimismo sobre el riesgo de que la IA genere ‘fake news’ (noticias falsas) que se difunden para “engañar o hacer daño” y hace un llamamiento a tener siempre cuidado de comprobar la veracidad de lo que se divulga y evitar, en cualquier caso, “compartir palabras e imágenes que degraden al ser humano”, excluyendo “lo que alimenta el odio y la intolerancia” o envilece “la intimidad de la sexualidad humana”.
En cuanto a la intimidad y privacidad, la nota señala que ciertos tipos de datos pueden llegar a tocar “incluso la propia conciencia”, con el peligro de que todo se convierta en “una especie de espectáculo que puede ser espiado”. “La vigilancia digital puede utilizarse para ejercer un control sobre la vida de los creyentes y la expresión de su fe”, alerta.
Sobre el cuidado del planeta, indica que las aplicaciones de la IA para mejorar la relación con la “casa común” se consideran “prometedoras” pero advierte de que los modelos actuales de IA requieren “grandes cantidades de energía y agua y contribuyen significativamente a las emisiones de CO2, además de ser intensivos en recursos”.
- Te recomendamos -