Sin categoría

Deepfakes y fraudes visuales: crece el riesgo de estafas con inteligencia artificial y así lo puede prevenir

Una alerta internacional advirtió este lunes sobre el aumento significativo de estafas que utilizan imágenes y contenidos generados con inteligencia artificial (IA), en un contexto marcado por la creciente sofisticación de estas herramientas.

Según la advertencia, el desarrollo de sistemas capaces de producir imágenes y videos sintéticos casi indistinguibles de los reales ha facilitado la expansión de fraudes visuales y deepfakes, lo que ha llevado a distintas plataformas y organizaciones a reforzar sus protocolos de verificación de identidad bajo esquemas de “confianza cero”.

Además de la manipulación de imágenes, los atacantes estarían empleando agentes autónomos basados en IA para ejecutar campañas de phishing y desarrollar malware de forma automatizada y persistente, ampliando el alcance y la complejidad de las amenazas digitales.

En este escenario, la seguridad informática se ha convertido en una prioridad para las empresas. Compañías del sector como Palo Alto Networks se encuentran en el centro de la atención del mercado, ya que sus resultados financieros de esta semana son considerados un indicador del nivel de inversión corporativa en soluciones de defensa frente a riesgos asociados a la IA.

Ante la dificultad de identificar a simple vista contenidos manipulados, especialistas recomiendan combinar medidas preventivas personales con herramientas tecnológicas. En el ámbito individual, se aconseja verificar la identidad de quienes soliciten dinero o información urgente mediante llamadas o mensajes, especialmente si provienen de números desconocidos. Establecer palabras clave o realizar preguntas personales puede ayudar a confirmar la autenticidad del interlocutor.

También se sugiere analizar con atención posibles inconsistencias en videos o imágenes, como fallas en el parpadeo o en la sincronización de labios, características que aún pueden delatar algunos deepfakes. Limitar la información personal disponible en redes sociales y ajustar la configuración de privacidad son otras recomendaciones para reducir el material que podría ser utilizado en fraudes.

En el plano técnico, expertos insisten en activar la autenticación de dos factores (2FA) o multifactor (MFA) en cuentas sensibles, preferiblemente mediante aplicaciones de autenticación y no solo por mensajes SMS. Asimismo, se están desarrollando herramientas de detección y análisis forense para rastrear contenido sintético y apoyar investigaciones.

Finalmente, la formación continua y la actualización sobre nuevas modalidades de fraude se consideran elementos clave para enfrentar una amenaza que evoluciona al ritmo de los avances en inteligencia artificial.

Facebook
Twitter
Instagram
Whatsapp
LinkedIn