La Unidad de Hackers Éticos de Thales, en colaboración con la Agencia de Innovación de Defensa Francesa (AID), ha desarrollado un metamodelo avanzado para detectar imágenes falsas generadas por inteligencia artificial, enfrentando así los desafíos de la desinformación.
La proliferación de imágenes y videos generados por inteligencia artificial (IA) plantea serios riesgos en términos de desinformación y suplantación de identidad. En este contexto, la Unidad de Hackers Éticos de Thales ha respondido al desafío planteado por la Agencia de Innovación de Defensa Francesa (AID) creando un metamodelo innovador para detectar deepfakes. Este avance se enmarca en el esfuerzo más amplio para combatir el uso malicioso de la IA en el ámbito digital.
El metamodelo desarrollado por Thales combina varios enfoques tecnológicos. Cada modelo dentro del metamodelo evalúa la autenticidad de las imágenes mediante un sistema de puntuación que determina si son reales o manipuladas. Esta metodología es crucial, dado que se estima que el 20% de los ciberataques en 2023 involucraron contenido deepfake, según Gartner.
Desarrollo del Metamodelo
Es importante mostrar que el metamodelo utiliza técnicas avanzadas como aprendizaje automático, árboles de decisión y análisis exhaustivo de las fortalezas y debilidades de cada modelo. Entre los métodos destacados se encuentran:
- CLIP (Contrastive Language-Image Pre-training): Este método conecta imágenes y texto, permitiendo identificar incoherencias visuales al comparar imágenes con sus descripciones textuales.
- DNF (Diffusion Noise Feature): Utiliza modelos de difusión para estimar el ruido necesario para generar imágenes, ayudando a detectar aquellas creadas artificialmente.
- DCT (Discrete Cosine Transform): Analiza las frecuencias espaciales en las imágenes para identificar artefactos ocultos que son típicos en deepfakes.
- Christophe Meyer, experto sénior en IA y director tecnológico del acelerador cortAIx, destaca que este metamodelo aborda problemas críticos relacionados con la suplantación de identidad y técnicas de morphing.
Este enfoque multidimensional no solo mejora la autenticidad visual, sino que también refuerza la seguridad en sistemas que requieren verificación biométrica.
Los Hackers éticos de Thales
Con la creciente sofisticación en la creación de deepfakes tiene implicaciones significativas para la seguridad digital. Las herramientas desarrolladas por Thales no solo están diseñadas para detectar fraudes, sino también para proteger sistemas críticos ante ataques adversarios. El equipo detrás del metamodelo forma parte del acelerador cortAIx, que cuenta con más de 600 investigadores dedicados a la IA.
Además, el equipo ha creado BattleBox, una suite diseñada para evaluar la robustez de los sistemas basados en IA frente a ataques específicos. Esto incluye medidas avanzadas como desaprendizaje y marcas de agua digitales para fortalecer los modelos existentes.
Con este trabajo conjunto entre Thales y AID no solo representa un avance tecnológico notable, sino que también establece un estándar en la lucha contra las amenazas emergentes en el ciberespacio. A medida que las tecnologías continúan evolucionando, iniciativas como estas son esenciales para salvaguardar la integridad digital y combatir la desinformación.
Así, el metamodelo creado por Thales es un paso significativo hacia un futuro más seguro en el ámbito digital. La colaboración con AID resalta la importancia del trabajo conjunto entre sectores público y privado para enfrentar los desafíos tecnológicos actuales.
Le puede interesar: Pronostico de Kasperesky para 2025