Inicio España OpenAI entrena sus modelos de inteligencia artificial mediante un sistema de juego...

OpenAI entrena sus modelos de inteligencia artificial mediante un sistema de juego para mejorar la legibilidad

0

MADRID, 18 (Portaltic/EP)

OpenAI ha mostrado una nueva forma de entrenar sus modelos de Inteligencia Artificial (IA) que se basa en una metodología de juego de comprobación y verificación, con la que consigue que el texto que generan los modelos de lenguaje grandes (LLM, por sus siglas en inglés) sea mucho más fácil de leer para los humanos y verificar para modelos más pequeños.

OpenAI ha compartido una nueva forma de entrenar a sus modelos de IA que se basa en el método conocido como “juegos de comprobación y verificación”, con el que los textos resultantes son mucho más sencillos de leer e interpretar para las personas.

Tal y como ha explicado la compañía dirigida por Sam Altman en un comunicado en su web, a la hora de entrenar sus modelos de IA, cuando optimizan el proceso de resolución de problemas de modelos grandes, las soluciones resultantes “pueden volverse cada vez más difíciles de entender”. Esto dificulta tanto la comprensión humana como la forma de evaluar si se trata de respuestas correctas.

Sin embargo, los investigadores de la tecnológica han descubierto que, al entrenar modelos de lenguaje avanzados para crear textos que, después, los modelos más débiles pueden verificar fácilmente, la IA acaba desarrollando resultados que los humanos también pueden evaluar de manera más efectiva y, por tanto, comprender más fácilmente.

Así, se trata de un proceso con el que OpenAI asegura “mejorar la legibilidad” y se basa en una serie de juegos de comprobación y verificación. Esto es, un marco teórico de juegos diseñado para “alentar a los agentes de aprendizaje a resolver problemas de decisión de una manera verificable”, tal y como lo definen los investigadores de aprendizaje automático de la Cornell University, quienes descubrieron este sistema en 2021.

En estos juegos, participan, por un lado, el comprobador, que es quien genera una solución y, por otro, el verificador, que comprueba la precisión de la solución. En su caso, OpenAI ha señalado que el comprobador es un modelo grande y el verificador es un modelo de lenguaje más pequeño, y que han utilizado los modelos grandes y pequeños de la familia GPT-4 “con una diferencia de alrededor de 3 órdenes de magnitud”.

Teniendo esto en cuenta, en el esquema que utiliza la compañía de entrenamiento, el modelo fuerte (probador) genera múltiples soluciones a problemas matemáticos que el modelo débil (verificador) pueda corroborar fácilmente. Algunas de estas soluciones son incorrectas debido a errores que ocurren de forma natural en el modelo de demostración.

Tras ello, alternan varias rondas de entrenamiento entre dos fases, por un lado, entrenan el modelo verificador (pequeño) para predecir la exactitud de las soluciones generadas por el modelo probador (grande). Por otro lado, enseñan al modelo comprobador a desempeñar un papel “útil” o “disimulado”.

Es decir, en el papel útil, en el que el modelo ayuda con su respuesta, se recompensan las soluciones correctas que obtienen una alta puntuación según el modelo verificador. Sin embargo, en el papel de “disimulado” o astuto el modelo trata de engañar el verificador y, en ese caso, se recompensan las soluciones incorrectas que obtienen una alta puntuación según el verificador.

Inicialmente, el probador en modo “disimulado” consigue producir soluciones incorrectas que convencen al verificador pero, a medida que continúa el entrenamiento del verificador, esta vulnerabilidad deja de resultar convincente en las siguientes rondas y, por tanto, el probador “se ve obligado a explorar diferentes estrategias en cada ronda”.

De esta forma, según ha explicado OpenAI, el entrenamiento finaliza una vez que el probador astuto ya no puede producir soluciones incorrectas que convenzan al verificador.

Con todo ello, según ha subrayado la compañía, este nuevo método “es esencial”, tanto para garantizar que los resultados de la IA sean correctos, como para que sean fáciles de entender y, por tanto, también de verificar por un humano, así como por otros sistemas de IA.

“Comprender y abordar el equilibrio entre rendimiento y legibilidad puede conducir a aplicaciones de IA más efectivas y confiables, beneficiando una amplia gama de campos donde la comunicación precisa y clara es esencial”, ha sentenciado la tecnológica.

Igualmente, la compañía también ha destacado que una ventaja importante de esta metodología es que “reduce la dependencia” de demostraciones o juicios humanos en cuanto a la legibilidad. Por tanto, esperan que esta metodología sea más ampliamente utilizada para desarrollar sistemas de IA cuyos resultados sean “no solo correctos si no también verificables de manera transparente”.


- Te recomendamos -