MADRID, 14 (EUROPA PRESS)
El fraile franciscano Paolo Benanti, teólogo, presidente de la Comisión sobre Inteligencia Artificial (IA) del Gobierno italiano y consultor del Vaticano para temas de IA, ha indicado que la “línea roja” en la aplicación de la IA debe ser “la dignidad humana” y ha asegurado que la IA puede ayudar a hacer “mejores” médicos, abogados, ingenieros y sacerdotes.
“Quien aplica la inteligencia artificial debe saber que hay una línea roja, no traspasable, que es la línea de la dignidad humana. Todo lo que vaya más allá de esta línea es absolutamente inaceptable”, ha señalado Benanti, en una entrevista con Europa Press.
El sacerdote franciscano se encuentra en Madrid con motivo de su participación este martes en un coloquio con la copresidenta del Comité Asesor de IA de la ONU, la española Carme Artigas, en la Fundación Pablo VI. Además, recientemente, ha publicado el libro ‘La era digital. Teoría del cambio de época: persona, familia y sociedad’ (Ediciones Encuentro).
Benanti ha comparado la IA con un palo utilizado en una cueva hace 60.000 años. “El garrote podría haber sido una herramienta para abrir más cocos o una herramienta como un arma para abrir más cráneos. Así que no hay arma que no pueda convertirse en herramienta y no hay herramienta que no pueda convertirse en arma”, ha ejemplificado.
Por ello, ha invitado a abordar la inteligencia artificial desde una postura de ética, en lugar de hacerlo desde el miedo. “La ética busca el bien, busca cuál es el máximo bien que podemos hacer. Entonces, evidentemente, si abordamos la inteligencia artificial de una manera ética, podemos empezar a buscar cómo la inteligencia artificial puede ayudarnos a ser más humanos, es decir, cómo la inteligencia artificial puede ayudarnos a ser mejores médicos, mejores abogados, mejores jueces, mejores ingenieros, ampliando nuestras capacidades”, ha afirmado.
En este sentido, ha señalado que la IA puede ayudar también a formar a mejores sacerdotes y religiosos. “Imaginemos que la inteligencia artificial sirve como interfaz para llegar a todos los contenidos de todos los textos de fe, puede ayudar al sacerdote a prepararse mejor, así que al menos teóricamente la respuesta es sí”, ha puntualizado.
En todo caso, Benanti ha advertido de que la IA podría convertirse en un “arma” si reemplaza al ser humano o fuerza su libertad. “Un algoritmo de creación de perfiles y sugerencia de contenidos puede obligarnos a ver el mundo en una determinada dimensión, puede cambiar nuestra libertad forzándola hacia elecciones manipuladoras que no son las nuestras. Así que no podemos tener la garantía de que no haya peligro, pero debemos preguntarnos primero cómo maximizar los beneficios y minimizar los riesgos”, ha matizado.
“EL PROBLEMA NUNCA ES LA CIENCIA EN SÍ”
Si bien, ha insistido en que no es un problema de desarrollo sino de aplicación de la IA. “El día en que tal vez se la utilice para hacer daño a alguien, bueno, eso sí será un problema. Y hay que reconocer la diferencia, el problema nunca es la ciencia en sí, sino la ciencia aplicada. Y entonces la aplicación de la inteligencia artificial debe ser siempre respetuosa de lo que es el valor principal, que es el ser humano”, ha remarcado.
Por ello, ha apostado por ponerse de acuerdo en unos “principios” universales que se conviertan en “guardarraíles” éticos. “Supongamos que tenemos un coche que se conduce solo. ¿Podríamos estar todos de acuerdo en que en caso de accidente debe tratar de minimizar los daños?”, ha planteado.
En el ámbito religioso, el ingeniero y fraile, ha asegurado que la IA puede ayudar a evangelizar en la medida en que se puede utilizar para que los textos estén disponibles en todos los idiomas.
Por otro lado, preguntado por ChatGPT y su uso en los colegios, Benanti ha aclarado que este tipo de herramientas son “una especie de gran demo” y que quienes las utilizan para la educación “están tergiversando su naturaleza” porque “no son fiables” y existe “gran posibilidad de que haya cosas inventadas”.
En todo caso, ha explicado que la IA puede ayudar a cambiar el enfoque para que la educación no sea como una cadena de montaje sino que se adapte a las necesidades de cada alumno.
“Podemos pasar de una educación que es una especie de cadena de montaje fordista, como en una fábrica donde cada alumno es la pieza que recibe los mismos golpes, a una educación que realmente se adapte a las necesidades y recursos de cada alumno”, ha añadido.
- Te recomendamos -