Sin categoría

La paradoja de la seguridad con IA: por qué usar ChatGPT o DeepSeek para crear contraseñas puede ponerte en riesgo 

Modelos de inteligencia artificial como ChatGPT, Llama y DeepSeek generan contraseñas que parecen seguras, pero que en realidad siguen patrones predecibles. Un análisis de Kaspersky reveló que hasta el 88 % de estas claves pueden ser vulneradas por ataques automatizados en menos de una hora. La falsa sensación de protección podría estar debilitando la primera línea de defensa digital de millones de usuarios. 

Imagen: Kaspersky

En la era de la inteligencia artificial generativa, no es raro que usuarios recurran a modelos como ChatGPT o DeepSeek para resolver tareas cotidianas. Desde redactar un correo hasta programar, las herramientas basadas en modelos de lenguaje han demostrado su utilidad. Pero en ciertos contextos, su uso puede ser más peligroso que beneficioso. 

Un reciente estudio de Kaspersky, empresa global de ciberseguridad, advierte que generar contraseñas con inteligencia artificial puede ser un error crítico. Aunque estas claves parecen aleatorias y complejas a simple vista, siguen patrones lingüísticos y estadísticos que pueden ser descifrados rápidamente por atacantes que usan las mismas herramientas o algoritmos derivados. 

¿Por qué no son tan seguras como parecen? 

Expertos de Kaspersky, liderados por Alexey Antonov, realizaron una prueba generando mil contraseñas con ChatGPT, Llama (Meta) y DeepSeek (China). Los hallazgos fueron preocupantes: 

  • DeepSeek y Llama tendieron a usar palabras de diccionario con sustituciones previsibles, como “P@ssw0rd1” o “B@n@n@7”. 
  • ChatGPT generó contraseñas que parecían más aleatorias, pero contenían patrones frecuentes, como la repetición del número 9 o el uso desproporcionado de ciertos caracteres (x, p, L). 
  • En general, entre el 87 % y 88 % de las contraseñas creadas por Llama y DeepSeek fueron consideradas vulnerables, y podrían ser descifradas por fuerza bruta o ataques de predicción en menos de una hora. 
  • ChatGPT mostró un mejor desempeño, pero aún así, un 33 % de sus contraseñas no resistieron pruebas de seguridad avanzadas. 

La razón de fondo, explican los investigadores, es que los modelos de lenguaje no generan aleatoriedad verdadera, sino que predicen texto a partir de probabilidades basadas en datos anteriores. Esto los vuelve excelentes para completar frases… pero no para crear claves realmente seguras. 

Ataques más rápidos, contraseñas más débiles 

A medida que los ciberdelincuentes adoptan herramientas similares a las que usan los usuarios comunes, pueden entrenar modelos para identificar estos patrones y anticipar estructuras de contraseñas generadas por IA. 

Esto reduce drásticamente el tiempo necesario para ejecutar un ataque de fuerza bruta. En lugar de probar todas las combinaciones posibles (“aaa”, “aab”, “aac”…), los atacantes ahora pueden empezar directamente por las combinaciones más probables que suelen aparecer en estas claves generadas. 

“El 60 % de las contraseñas analizadas podían romperse en menos de una hora con una GPU moderna o mediante servicios en la nube”, advirtió Antonov. 

El error de la confianza ciega: IA no es sinónimo de seguridad 

El estudio resalta un fenómeno creciente: la falsa sensación de seguridad que produce la IA. Muchas personas asumen que porque una clave fue generada por una herramienta sofisticada, debe ser segura por defecto. 

Pero los expertos advierten que no basta con que una contraseña luzca compleja. Si tiene patrones estructurales, es vulnerable. Y si además es usada en múltiples cuentas —una práctica común— el riesgo se multiplica. 

¿Qué hacer en lugar de usar IA para contraseñas? 

La recomendación de Kaspersky es clara: no uses ChatGPT ni ningún otro modelo de IA generativa para crear tus contraseñas. En su lugar, sugiere: 

Utilizar un gestor de contraseñas confiable, como Kaspersky Password Manager: 

  • Genera claves criptográficamente aleatorias. 
  • Evita repeticiones o estructuras predecibles. 
  • Almacena las claves en una bóveda cifrada, accesible con una única contraseña maestra. 
  • Ofrece autocompletado seguro y monitoreo de brechas de datos. 

Estas soluciones no solo fortalecen la seguridad, sino que simplifican la gestión de múltiples cuentas y protegen contra prácticas de riesgo como la reutilización de contraseñas o el uso de claves simples. 

En ciberseguridad, el camino fácil rara vez es el correcto 

El uso de la IA generativa puede ser una herramienta poderosa… pero no es una varita mágica. En temas sensibles como la gestión de contraseñas, la búsqueda de atajos puede abrir puertas a riesgos innecesarios. 

“Una contraseña débil no es solo una amenaza personal. Puede convertirse en una vía de entrada para comprometer empresas, plataformas y redes enteras”, recordó Antonov. 

En tiempos de ciberataques cada vez más sofisticados y automatizados, la protección empieza por hábitos conscientes, herramientas adecuadas y educación digital. 

Facebook
Twitter
Instagram
Whatsapp
LinkedIn