Especialistas revelan nuevas estafas de phishing con Inteligencia Artificial; imitan voz, cara y huellas dactilares
La Inteligencia Artificial facilita un robo de identidad más preciso mediante la clonación de voz y rostro, lo que abre una nueva etapa para el phishing global.
Erika Mendoza y Alejandro Ruiz de Identy.io, expertos en ciberseguridad, alertaron que sistemas avanzados de Inteligencia Artificial (IA) permiten crear copias de voz, rostro y patrones biométricos. El fenómeno ya se reportó en Estados Unidos, Europa y Latinoamérica durante 2025. La expansión ocurre por modelos capaces de aprender la identidad de una persona con solo unos segundos de audio o pocas fotografías.
Estafadores usan IA para robar tu dinero, pero así puedes detectar el fraude y proteger tus datos
En época de compras y descuentos, los estafadores recurren a herramientas de Inteligencia Artificial para crear fraudes digitales convincentes y personalizados.
Suscríbete a nuestro canal de Telegram y lleva la información en tus manos.
Con una sola foto de tu perfil de LinkedIn, Instagram o Facebook y herramientas gratuitas o de bajo costo, cualquiera puede convertirse en ti en cuestión de minutos,
-explicó Alejandro Ruiz.
Los especialistas señalaron, en exclusiva para adn Noticias, que el robo de identidad aumenta debido a estas herramientas. Los atacantes usan la IA para:
- Entrar a cuentas bancarias
- Suplantar identidades en videollamadas
- Generar documentos falsos
El proceso sucede con rapidez y sin necesidad de conocimientos técnicos complejos.
Hace menos de un año este tipo de software [de deepfake] ya lo puedes conseguir y comprar, y no necesito ser un hacker experimentado para conseguir una cara de internet y poder hacer este tipo de ataques,
-destacó Alejandro Ruiz.
Biometría falsa que burla sistemas de seguridad
Los especialistas revelaron a adn Noticias como la IA reproduce rostros hiperrealistas, replica imágenes de huellas dactilares con emuladores y voz con programas especiales. La técnica preocupa porque algunos sistemas de autenticación aceptan estos patrones como reales. Esto sucede en dispositivos domésticos y en plataformas de verificación digital.
Esto es una aplicación que permite hacer juegos, crear videos sintéticos a partir de información que tú puedas conseguir en internet. Esta es la versión gratuita, la puedes descargar en internet gratis. No es algo que un una persona con bastante necesite ingresar a Deep Web o algo por el estilo,
-explicó Alejandro Ruiz.
El avance representa un riesgo para trámites financieros y gubernamentales. Especialistas prevén un aumento en fraudes si no se adopta una combinación de seguridad multifactor y análisis de comportamiento.
Phishing impulsado por voz y video clonados
El phishing evoluciona con mensajes que incluyen audios y videos generados por IA. Los delincuentes realizan llamadas donde imitan a familiares o ejecutivos. El objetivo es engañar a empleados y usuarios para entregar códigos de acceso o mover dinero.
Hace alrededor de 3 años necesitabas prácticamente acceso a la Deep Web para poder conseguir este tipo de software. Actualmente, en menos de 1 año, este tipo de software ya lo puedes conseguir y comprar,
-puntualizó Alejandro Ruiz.
Empresas tecnológicas recomiendan desconfiar de solicitudes urgentes. La combinación de IA y biometría falsificada produce un entorno donde el engaño suena y parece completamente legítimo.
Mercados clandestinos de identidades digitales
La venta de identidades completas en foros clandestinos crece. Estos paquetes incluyen:
- Voz clonada
- Modelos faciales
- Documentos generados por IA
Su precio es más alto que el de bases de datos tradicionales porque permiten fraudes más sofisticados. Los analistas estiman que en 2026 habrá una mayor regulación internacional. Los gobiernos plantean normas que limiten la creación y distribución de modelos que reproduzcan rasgos biométricos sin consentimiento.
Con el uso de inteligencia artificial yo puedo abrir ChatGPT y crear un video apócrifo de alguien (…) La llegada de la inteligencia artificial hizo que este tipo de ataques sean más accesibles a personas que no necesariamente tienen ni el expertise tecnológico para hacer los ataques que antes se podían hacer,
-alertó Alejandro Ruiz.
Nuevas defensas para un riesgo creciente
Compañías de ciberseguridad desarrollan detectores de contenido sintético. Estos sistemas analizan microseñales imperceptibles para identificar videos y voces artificiales. Funcionan como una capa adicional en bancos, aseguradoras y plataformas de identidad digital.
Alertan por estafas a través de una app
Los expertos coinciden en que la educación digital será clave. Usuarios y empresas deben actualizar protocolos y verificar identidades por canales alternos para reducir el impacto del robo de identidad.
adn Noticias. Te Hablamos con la verdad. Suscríbete a nuestro canal de WhatsApp y lleva la información en la palma de tu mano.