Inicio España OpenAI explica el comportamiento de sus modelos de inteligencia artificial ante solicitudes...

OpenAI explica el comportamiento de sus modelos de inteligencia artificial ante solicitudes controvertidas para brindar una experiencia adecuada

0

MADRID, 13 (Portaltic/EP)

OpenAI ha explicado con mayor detalle cómo los modelos de Inteligencia Artificial (IA) que desarrolla deberían comportarse, con un nuevo documento en el que señala cómo deben enfrentarse a las solicitudes de los usuarios y tratar temas controvertidos para ofrecer una experiencia de usuario adecuada.

La compañía ha reconocido que, al especificar el comportamiento de sus modelos, busca seguir creando nuevos modelos “útiles, seguros y alineados con las necesidades de los desarrolladores” al tiempo que avanza su misión de “garantizar que la inteligencia general artificial beneficie a toda la humanidad”.

En este sentido, ha indicado que, para la configuración del comportamiento de sus modelos se basa en tres principios, incorporados en un marco de especificaciones ampliado y planteados con el objetivo de “maximizar la autonomía y la capacidad de los usuarios para usar y personalizar la herramienta” de acuerdo a sus necesidades.

OpenAI también ha subrayado que “como cualquier sistema que interactúe con cientos de millones de usuarios”, los suyos también conllevan riesgos potenciales de daño, anticipando que no todos ellos se pueden mitigar “solo a través del comportamiento del modelo” de IA escogido.

Leer más:  Combinación ganadora del sorteo de la Bonoloto celebrado este miércoles

Asimismo, ha indicado que este marco de especificaciones “solo es un compontente” de su estrategia general de seguridad, que incluye reglas a nivel de plataforma, así como valores predeterminados a nivel de usuario y guía. “Son valores predeterminados que creemos que son útiles en mismos casos, pero nos dan cuenta de que no funcionarán para todos los usuarios y contextos”, ha matizado.

Con ello, la firma ha reconocido que “una de las responsabilidades más desafiantes” de su asistente de IA “es encontrar el equilibrio correcto entre empoderar a los usuarios y desarrolladores y minimizar el potencial de daños reales”, para lo que ha hecho una clasificación de los riesgos que puede conllevar el uso de la IA en determinados contectos.

Así, ha dividido los riesgos en tres categorías, cada una con su propio conjunto de posibles mitigaciones. De este modo, considera que el asistente podría buscar un objetivo incorrecto debido a un malentendido de la tarea o siendo engañado por un tercero. Por ejemplo, siguiendo erróneamente instrucciones maliciosas ocultas en un sitio web.

Leer más:  Buscan a un hombre de cuarenta y dos años desaparecido desde el domingo en Valladolid

OpenAI también es consciente de que el asistente puede comprender la tarea ordenada por el usuario, pero que puede cometer errores en la ejecución, esto es, compartiendo información “inexacta y potencialmente dañina que puede amplificarse a través de las redes sociales”.

Además, la firma tecnológica ha reconocido que el asistente de IA “puede causar daño simplemente siguiendo las instrucciones del usuario o del desarrollador, como, “por ejemplo, proporcionar instrucciones de autolesiones o dar consejos que ayuden al usuario a llevar a cabo un acto violento”.

Con esto, ha subrayado que “según la cadena de mando, el modelo debe obedecer las instrucciones del usuario y el desarrollador”, excepto cuando se utiliza la IA en contextos “que requieren rechazo o precaución adicional”.

Sobre esto, ha concretado que el asistente no debe generar contenido prohibido -sexual y pedófilo-, restringido -riesgos informativos y datos personales confidenciales- ni sensible (erótica, gore), que solo se puede generar “en circunstancias específicas”. Por ejemplo, “contextos educativos, médicos o históricos”.

Leer más:  COMUNICADO: Un estudio de UIC Barcelona evidencia los límites actuales de la IA generativa de voz

En otros de los apartados de este documento, donde OpenAI muestra algunos ejemplos de respuesta del asistente en distintos escenarios, la compañía subraya que “debe comportarse de una forma que fomente la libertad intelectual”, aunque “no debe crear contenido que alabe, respalde o ayude a promover la violencia”.

Tampoco puede generar contenido de odio o acoso dirigido a grupos protegidos por razón de raza, religión, género, orientación sexual, discapacidad, etc. “Esto incluye insultos y cualquier idioma que deshumanice”, ha añadido en esta declaración.

OpenAI también entiende que si el usuario o el desarrollador le pide al asistente que facilite el comportamiento ilícito, éste debe negarse, además de que no le está permitido que aliente o promueva comportamientos negativos o perjudiciales para los usuarios.


- Te recomendamos -