Inicio España Google, OpenAI y Nvidia colaboran para asegurar un ambiente de inteligencia artificial...

Google, OpenAI y Nvidia colaboran para asegurar un ambiente de inteligencia artificial seguro por diseño y guiar a sus desarrolladores

0

MADRID, 19 (Portaltic/EP)

Grandes tecnológicas como Google, Microsoft, OpenAI, Nvidia o Intel se han unido para crear la Coalición para una Inteligencia Artificial Segura (CoSAI), una iniciativa de código abierto creada para brindar a los profesionales y desarrolladores de esta tecnología la orientación y las herramientas que necesitan para crear sistemas seguros por diseño.

Este grupo de líderes de la industria, académicos y otros expertos fomentará un ecosistema colaborativo para compartir metodologías de trabajo y marcos estandariizados para “abordar el panorama fragmentado de la seguridad de la IA”, tal y como han indicado en una nota de prensa.

CoSAI, que es una iniciativa para mejorar la confianza y la seguridad en el uso y la implementación de esta tecnología, está fundado por Google, IBM, Intel, Microsoft, Nvidia y Paypal. Además, cuenta con otros patrocinadores fundadores como Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI y Wiz.

La Coalición ha explicado que su alcance incluye la construcción, integración, implementación y operación segura de sistemas de IA, “centrándose en mitigar riesgos como el robo de modelos, el envenenamiento de los datos, la inyección rápida, el abuso a escala y los ataques de inferencia”.

Asimismo, esta asociación de grandes tecnológicas tiene como objetivo desarrollar medidas de seguridad integrales que aborden los riesgos clásicos y únicos de los sistemas de IA para alcanzar prácticas estandarizadas que mejoren la seguridad de la IA.

Por el momento, CoSAI se ha planteado formar tres grupos de trabajo, auqnue tiene previsto sumar más con el tiempo, tal y como ha confirmado en esta publicación. El primero de ellos buscará dar más seguridad a la cadena de suministro de ‘software’ para sistemas de IA, con la mejora del seguimiento de su composición y procedencia, a fin de proteger las aplicaciones de IA.

Otro de los grupos de trabajo formados se encargará de preparar a los defensores para un panorama “cambiante” de ciberseguridad, analizando las inversiones y los desafíos de integración en IA y sistemas clásicos. Por último, un tercer equipo desarrollará mejores prácticas y marcos de evaluación de riesgos para la seguridad de la IA.


- Te recomendamos -