Los ciberataques están a la orden del día, y los amigos de lo ajeno siempre están buscando formas de estafarnos. Ahora un nuevo informe de seguridad nos pone en alerta ante un peligro en alza: los deepfakes.
O esto es lo que se desprende del informe IA Security Report 2025 elaborado por Check Point Research, que advierte sobre el grado de madurez que ha alcanzado esta tecnología y su papel fundamental en campañas de fraude, suplantación de identidad y ataques de ingeniería social a gran escala.
Videos editados y agentes autónomos: las estafas deepfake son más sofisticadas
Como vemos en el informe publicado por Check Point Research, las manipulaciones de vídeos han evolucionado. Al punto de que han creado un nuevo concepto: “Deepfake Maturity Spectrum”, que clasifica la evolución de estos ataques en tres niveles: generación offline (contenido pregrabado), generación en tiempo real (modulación de voz e imagen en directo) y generación autónoma, en la que agentes de IA son capaces de gestionar varias conversaciones de manera simultánea en múltiples plataformas.
Sí, has leído bien, los ciberdelincuentes ya son capaces de generar una imagen y voz reales a través de herramientas de IA para poder hablar con la víctima en tiempo real. Y esto se puede aplicar a entrevistas de trabajo falsas, videollamada suplantando a directivos o responsables financieros y mucho más.
Además, el impacto económico de los deepfakes ya es tangible. Solo en dos casos recientes, en Reino Unido y Canadá, se han registrado pérdidas superiores a los 35 millones de dólares por fraudes basados en vídeos generados por IA.
A esto hay que sumarle el auge de voces sintéticas creadas con Inteligencia Artificial ya se utilizan con frecuencia en casos de sextorsión, falsas situaciones de rehenes o suplantación de CEOs. Por desgracia, hay todo tipo de herramientas de clonación de voz y manipulación facial que ya están disponibles en mercados clandestinos por precios asequibles, por lo que cualquiera puede iniciar un ataque de este tipo sin tener conocimientos en la materia.
Y es que este informe de Check Point Research hace hincapié en cómo la automatización ha cambiado las reglas del juego. Para que te hagas a la idea, herramientas como ElevenLabs permiten clonar una voz apoyándose en menos de 10 minutos de audio, y plugins de cambio de rostro en videollamadas se ofrecen por apenas unos cientos de dólares.
“La frontera entre la realidad digital y la ficción ha desaparecido”, afirma Eusebio Nieva, director técnico de Check Point Software para España y Portugal. “Las empresas que no se preparen para estas amenazas corren el riesgo de convertirse en víctimas de ataques diseñados por Inteligencia Artificial, escalables y difíciles de detectar”.
Así que, toca estar preparados y desconfiar de cualquier llamada que recibas. Los deepfakes son cada vez más elaborados y la precaución es el único arma que tenemos para defendernos.
