Millones de programadores en el mundo, y cada vez más en Chile y América Latina, utilizan asistentes de inteligencia artificial para escribir código más rápido. Pero una investigación reciente acaba de revelar el lado oscuro de esa comodidad: estas herramientas pueden estar exponiendo en internet las contraseñas, claves de acceso y credenciales privadas de las empresas, sin que nadie haya dado permiso para ello y, en muchos casos, sin que nadie lo sepa.
El hallazgo fue documentado por Lakera, empresa de seguridad de inteligencia artificial que forma parte del grupo Check Point Software Technologies .
Los investigadores analizaron más de 46.500 paquetes de software publicados en un registro de acceso público y encontraron que cerca de 430 de ellos contenían archivos internos del asistente de programación Claude Code, de la empresa Anthropic. De esos archivos, 33 tenían credenciales reales y activas, entre ellas contraseñas escritas en texto plano, claves para acceder a repositorios de código, tokens de servicios en la nube y credenciales de plataformas de inteligencia artificial.
Dicho de otro modo: una de cada trece veces que ese archivo llegó a internet, traía consigo información que no debía salir de la empresa.
Cómo ocurre sin que nadie lo note
El problema no está en un error de programación ni en un ataque externo. Está en el funcionamiento normal de la herramienta. Cuando un desarrollador trabaja con Claude Code y le pide ejecutar ciertos comandos, el asistente solicita autorización. Si el usuario elige la opción «permitir siempre», el comando queda guardado de manera permanente en un archivo de configuración dentro del proyecto. Si ese comando incluía una contraseña o una clave de acceso, esa información queda escrita ahí, sin ninguna advertencia visible.
El problema se agrava cuando ese proyecto de software se publica en un registro público, algo habitual en el mundo del desarrollo. Ese archivo de configuración sale junto con el código, con las credenciales adentro, expuesto a cualquiera que lo descargue.
Para Steve Giguere, Principal AI Security Advocate de Check Point Software, la investigación pone en evidencia un problema que va más allá de este caso puntual: «Los asistentes de código con IA están introduciendo formas completamente nuevas de crear, almacenar y exponer accidentalmente información sensible. Incluso cuando estas salvaguardas son generadas por la propia IA, el sistema aún no entiende cómo protegerse de sí mismo».
«No basta con que parezca seguro»
La advertencia de los expertos apunta directamente a las organizaciones que han incorporado estas herramientas en sus equipos de desarrollo, un fenómeno que crece aceleradamente en el sector tecnológico, financiero y de servicios en toda la región. El riesgo no está solo en la filtración puntual de una contraseña: una credencial expuesta puede abrir la puerta a sistemas críticos, bases de datos de clientes o infraestructura de nube.
Giguere lo resume con una advertencia directa para los equipos de seguridad corporativos: «Para las organizaciones, la conclusión es simple: no asuman que las configuraciones generadas por IA son correctas solo porque parecen correctas. Cualquier archivo creado con propósitos de seguridad debe tener una persona que valide que realmente hace lo que se espera de él».
El agravante es que, una vez que un paquete de software es publicado en internet, no desaparece. Aunque se retire de la circulación oficial, las copias ya descargadas permanecen. Esto significa que cualquier credencial que haya viajado en uno de esos archivos debe considerarse comprometida desde el momento en que salió, independientemente de cuándo se detecte el problema.
