Inicio España Descubren un enfoque revolucionario que ofrece soluciones mil veces más rápidas que...

Descubren un enfoque revolucionario que ofrece soluciones mil veces más rápidas que las ecuaciones convencionales

0

MADRID, 5 (EUROPA PRESS)

Analizar y simular el flujo de fluidos es un problema matemático desafiante que afecta a varios escenarios, incluidos los motores de videojuegos, el modelado de corrientes oceánicas y la previsión de huracanes, y, ahora, investigadores de Estados Unidos han utilizado un enfoque novedoso que puede proporcionar soluciones precisas 1000 veces más rápido que los solucionadores de ecuaciones tradicionales.

El núcleo de este desafío radica en resolver las ecuaciones de Navier-Stokes, un conjunto de ecuaciones clásicas que describen la dinámica de fluidos. Recientemente, el aprendizaje profundo ha surgido como una herramienta poderosa para acelerar la resolución de ecuaciones.

El estudio, publicado en ‘Intelligent Computing’, probó su método en un problema de flujo de cavidad impulsado por tapa de tres variables en un dominio computacional grande de 512. En el experimento, realizado en un sistema de escritorio de consumo con un procesador Intel Core i58400, su método logró latencias de inferencia de solo 7 milisegundos por entrada, una gran mejora en comparación con los 10 segundos requeridos por los métodos tradicionales de diferencias finitas.

Además de ser rápido, el nuevo enfoque de aprendizaje profundo también es de bajo costo y altamente adaptable, por lo que podría usarse para hacer predicciones en tiempo real en dispositivos digitales cotidianos. Integra la eficiencia de las técnicas de aprendizaje supervisado con la física necesaria de los métodos tradicionales.

Aunque otros modelos de aprendizaje supervisado pueden simular y predecir rápidamente las soluciones numéricas más cercanas a las ecuaciones de Navier-Stokes, su desempeño está limitado por los datos de entrenamiento etiquetados, que podrían carecer del tamaño, la diversidad y la información física fundamental necesarias para resolver las ecuaciones.

Para sortear las limitaciones de los datos y reducir la carga computacional, el equipo entrenó una serie de modelos etapa por etapa de una manera poco supervisada. Inicialmente, solo se utilizó una cantidad mínima de datos de “calentamiento” precalculados para facilitar la inicialización del modelo. Esto permitió que los modelos base se adaptaran rápidamente a la dinámica fundamental del flujo de fluidos antes de avanzar a escenarios más complejos y eliminó la necesidad de conjuntos de datos etiquetados extensos.

Todos los modelos se basan en una arquitectura U-Net convolucional, que el equipo adaptó para problemas complejos de dinámica de fluidos. Como autocodificador modificado, el U-Net consta de un codificador que comprime los datos de entrada en representaciones compactas y un decodificador que reconstruye estos datos en resultados de alta resolución. El codificador y el decodificador están conectados a través de conexiones de salto, que ayudan a preservar características importantes y mejorar la calidad de los resultados.

Para garantizar que los resultados cumplan con las restricciones necesarias, el equipo también desarrolló una función de pérdida personalizada que incorpora componentes basados en datos e información física.

Al igual que los métodos tradicionales, el enfoque del equipo utiliza una matriz 2D para representar el dominio computacional, que establece las restricciones determinantes de los problemas de dinámica de fluidos. Las restricciones incluyen restricciones geométricas como el tamaño y la forma del dominio, restricciones físicas como las características físicas del flujo y las leyes físicas aplicables, y condiciones de contorno que definen los problemas matemáticamente.

Este formato permite que las variables desconocidas se integren directamente en las restricciones como parte de los datos de entrada para que los modelos entrenados puedan manejar varias condiciones de contorno y geometrías, incluidos casos complicados no vistos.


- Te recomendamos -