Inicio España DeepSeek tiene una mayor tendencia al ‘jailbreak’ para crear contenidos inapropiados que...

DeepSeek tiene una mayor tendencia al ‘jailbreak’ para crear contenidos inapropiados que otros chatbots

0

MADRID, 10 (Portaltic/EP)

Expertos en seguridad e Inteligencia Artificial (IA) coinciden en que la herramienta DeepSeek, impulsada por esta tecnología, es más propensa a ofrecer información potencialmente peligrosa resultado del ‘jailbreak’ (traducido como ‘fuga de cárcel’), según ha publicado recientemente The Wall Street Journal.

DeepSeek es un asistente de IA de origen chino que se ofrece bajo una modalidad de uso gratuito y permite responder preguntas en un formato conversacional, puede navegar por la red para ofrecer respuestas actualizadas, resumir documentos de texto y emplear el razonamiento para resolver problemas complejos.

A comienzos de este año, esta aplicación, que ejecuta ‘software’ de código abierto, se colocó entre los servicios más descargados de las tiendas de aplicaciones (App Store primero y después Google Play Store), compitiendo con el ‘chatbot’ más popular desde hace dos años, ChatGPT, desarrollado por OpenAI.

Su creciente popularidad en Estados Unidos empujó a expertos en ciberseguridad a poner el foco en las medidas de seguridad y protección que ofrece a los usuarios, así como el modo en que trata sus datos sensibles. Investigadores de Wiz Research, por su parte, advirtieron una base de datos relacionada con el ‘chatbot’, que expuso la información de las personas que lo habían utilizado, así como el historial del chat, metadatos operativos y detalles del ‘backend’.

Leer más:  La semana comienza con un aumento de las temperaturas mínimas

The Wall Street Journal ha señalado ahora que, si bien DeepSeek está planteado para tomar algunas precauciones básicas para proteger a los usuarios -por ejemplo, reconoce que el Holocausto fue “profundamentre perjudicial”-, pero tiene algunas fugas, tal y como ha compribado este periódico y distintas firmas de ciberseguridad.

Investigadores de la unidad Unit 42, de Palo Alto Networks, han reconocido que DeekSeep es “más vulnerable al ‘jailbreaking’ que otros modelos de inteligencia artificial”, en palabras del vicepresidente senior de la división de inteligencia sobre amenazas y respuesta a incidentes, Sam Rubin.

El ‘jailbreaking’ consiste en romper algunas de las limitaciones del sistema operativo para poder controlarlo. Esta técnica, por tanto, permite a los ciberdelincuentes modificar el ‘software’ de los servicios de un dispositivo a su conveniencia, para ejecutar campañas maliciosas y producir contenido ilícito o peligroso.

“Logramos ‘jailbreaks’ a un ritmo mucho más rápido, señalando la ausencia de barreras mínimas diseñadas para evitar la generación del contenido malicioso”, ha añadido el experto, que ha investigado el modo en que este ‘chatbot’ trabaja con el modelo R1 en comparación con sus principales competidores estadounidenses. Esto es, ChatGPT (desarrollado por OpenAI), Gemini (Google) y Claude (Anthropic).

Leer más:  El Ayuntamiento de Madrid niega cualquier implicación en el 'caso mascarillas' a un día del inicio del juicio

En sus pesquisas, Unit 42 también pudo hacer ‘jailbreak’ sobre DeepSeek para obtener instrucciones detalladas sobre cómo hacer un cóctel molotov. Otra firma de ciberseguridad como Kela, incluso, pudo convencer a DeepSeek para que produjera ‘malware’.

Estas declaraciones se han hecho en paralelo a una investigación impulsada por el propio WSJ, que ha advertido que DeepSeek es capaz de ofrecer un manifiesto en defensa del dictador Adolf Hitler, en el que se incluían citas de su libro ‘Mein Kampf’ e, incluso, desarrollar una campaña de redes sociales para promover las autolesiones entre los adolescentes.

Asimismo, este periódico ha sido capaz de convencer al modelo chino para que proporcione las instrucciones necesarias para ejecutar un ataque de armas biológicas o crear un correo electrónico de ‘phishing’ con un código de ‘malware’.

WSJ ha recordado que las empresas desarrolladoras de modelos de IA dedican equipos de investigadores a probar sus modelos e intentan parchear aquellas vulnerabilidades que impulsen los ‘jailbreaks’ y se ofrecen recompensas por parchear estas fallas, tal y como hace Anthropic.

Leer más:  La ESA ha encontrado un anillo de luz alrededor de una galaxia cercana a la Tierra, describiéndolo como "impresionante"

No obstante, ejecutivos e inversores de Silicon Valley creen que el éxito de DeepSeek impulsará a otras firmas a crear nuevos modelos de código abierto, lo que acelerará los riesgos que conlleva el uso de este ‘software’, que se puede manipular para crear versiones comprometidas o introducir puertas traseras bajo la apariencia de herramientas para usar la API de DeepSeek.


- Te recomendamos -