Expertos en seguridad destrozan DeepSeek que incluso enseña a fabricar bombas y no aplicar filtros (salvo la censura del PC Chino)

 

 

Mario Romero.- A una semana que la herramienta de I.A DeepSeek, desarrollada en China irrumpiera en el mercado y arrasando con el valor bursátil del fabricante estadounidense NVIDIA, las respuestas que ha recibido la compañía asiática no se han dejado esperar.

Si acaso es una campaña del terror o simplemente una verdad ineludible, solo lo demuestran los hechos.

Lo que sí es totalmente indesmentible, es el hecho que DeepSeek está censurada y aplica el criterio del Gobierno del PC Chino, evitando y eludiendo respuestas sobre democracia o libertad de prensa.

Por su parte, las  pruebas realizadas por investigadores de seguridad de la firma Adversa en Occidente, así como el medio Wired, revelaron que DeepSeek falló literalmente en todos los requisitos de protección para un sistema de IA generativo, siendo engañado incluso por las técnicas de jailbreak  (proceso de forzar la entrada a la estructura de códigos internos) más básicas.

Esto significa que puede ser engañado trivialmente para responder preguntas que deberían bloquearse, desde recetas de bombas hasta orientación sobre la piratería de bases de datos gubernamentales…

Según se explica en diversos artículos sobre el tema, los sistemas generativos de IA tienen un conjunto de salvaguardas destinadas a evitar que hagan cosas generalmente consideradas dañinas y es para asegurarse de que no emitan discurso de odio hasta bloquear solicitudes de ayuda con cosas como hacer bombas.

Hay varias técnicas para tratar de derrotar estas protecciones, y tanto el chatbot de ChatGPT como el chatbot de Bing fueron rápidamente víctimas de varias de ellas.

Please follow and like us:
0
fb-share-icon0
Tweet 44