Deepfakes como control de seguridad: riesgos, usos y defensas

  • Los deepfakes combinan inteligencia artificial y aprendizaje profundo para clonar rostros y voces, generando contenido hiperrealista difícil de distinguir del real.
  • Se utilizan en fraudes financieros, chantajes, campañas de desinformación y posibles ataques contra sistemas biométricos, explotando la confianza humana.
  • La respuesta efectiva exige tecnología anti-deepfake, rediseño de procesos de seguridad, auditorías de riesgo específicas de IA y una fuerte cultura de formación.
  • Buenas prácticas digitales, verificación por canales alternativos y el uso de herramientas de detección y marcos legales son claves para mitigar su impacto.

deepfakes como control de seguridad

Los deepfakes han pasado de ser una curiosidad técnica a convertirse en uno de los grandes quebraderos de cabeza para la ciberseguridad, la reputación online y la confianza en la información. Hoy, cualquiera con un ordenador decente y unas cuantas horas libres puede crear un vídeo o un audio que haga decir o hacer a otra persona algo que jamás ocurrió, con un realismo que hace unos años parecía ciencia ficción.

Esta capacidad de manipular rostros, voces y movimientos con una fidelidad brutal no solo alimenta contenidos graciosos o parodias en redes sociales; también se ha convertido en una herramienta muy peligrosa para fraudes millonarios, chantajes, campañas de desinformación e incluso para intentar saltarse sistemas biométricos de seguridad. En este artículo vamos a ver a fondo qué son los deepfakes, cómo se generan, qué riesgos plantean y, sobre todo, cómo pueden utilizarse y combatirse en el ámbito del control de seguridad.

Qué son los deepfakes y por qué suponen un problema de seguridad

Cuando hablamos de deepfakes nos referimos a imágenes, vídeos o audios manipulados mediante inteligencia artificial para que parezcan totalmente auténticos. La idea es sencilla: se toma material real (fotos, vídeos, grabaciones de voz) de una persona y se entrena un modelo de IA para imitar su rostro, gestos, forma de hablar y tono de voz con el máximo detalle posible.

YouTube
Artículo relacionado:
YouTube acelera su apuesta por la IA: nuevas normas, control de edad y búsquedas inteligentes

El término deepfake surge de la combinación de “deep learning” (aprendizaje profundo) y “fake” (falso). El deep learning es una rama de la IA que usa redes neuronales con muchas capas para aprender patrones complejos analizando cantidades ingentes de datos. En este caso, los datos suelen ser caras, movimientos y voces humanos, que la máquina va perfeccionando hasta engañarnos por completo.

La gran fuerza de los deepfakes está en su capacidad de explotar nuestra confianza en lo que vemos y escuchamos. Durante décadas, ver a alguien en vídeo o escuchar su voz era una prueba casi irrefutable de autenticidad. Ahora, esos mismos elementos se han convertido en vectores de ataque: se pueden clonar identidades, suplantar a directivos, manipular declaraciones públicas o fabricar pruebas falsas de todo tipo.

Además, el fenómeno no se limita a personajes públicos. Cualquiera que tenga presencia en redes sociales y haya subido fotos, vídeos o audios puede convertirse en materia prima para un deepfake, algo que amplía el riesgo tanto para ciudadanos de a pie como para empleados, directivos y representantes institucionales.

Cómo se crean los deepfakes: la tecnología que hay detrás

Detrás de un deepfake convincente no hay magia, sino una combinación de modelos de inteligencia artificial especializados en entender y recrear la apariencia y comportamiento humanos. Dos de las arquitecturas más utilizadas son las redes generativas antagónicas (GAN) y los autocodificadores (autoencoders).

Las GAN funcionan como una especie de competición entre dos redes neuronales: una genera contenido falso y la otra intenta detectarlo. La red generadora va creando imágenes o vídeos que imitan el conjunto de entrenamiento (por ejemplo, fotos del rostro de una persona), mientras que la red discriminadora intenta distinguir qué es real y qué es falso. A base de repetir el proceso miles de veces, el generador aprende a producir falsificaciones cada vez más realistas hasta que el discriminador “se confunde” con frecuencia.

Los autocodificadores, por su parte, se emplean para comprimir y reconstruir imágenes en un espacio latente. En la práctica, el modelo aprende qué rasgos son esenciales de un rostro (proporciones, forma de la boca, ojos, gestos básicos) y qué elementos son accesorios (ruido, grano, sombras, fondo). Esa capacidad de separar lo importante de lo irrelevante permite crear modelos muy versátiles, capaces de aplicar expresiones de una cara sobre otra o de reconfigurar un rostro en movimiento con gran naturalidad.

El proceso típico de creación de un vídeo deepfake suele seguir varios pasos: primero, se recopilan cientos o miles de imágenes y vídeos de la persona objetivo; después, se entrena el modelo de IA para codificar y descodificar esos rostros; finalmente, se intercambian los decodificadores o se combinan con otros vídeos para que el sujeto adopte expresiones, movimientos y contextos que nunca han ocurrido en la realidad.

En paralelo, también se han popularizado los llamados deepvoices o clonadores de voz. Estas técnicas aprenden los patrones de habla y timbre de una persona a partir de grabaciones relativamente cortas, y después son capaces de generar frases nuevas con la misma voz. Cuando se combinan deepfaces (rostro) y deepvoices (voz), el resultado es un avatar prácticamente indistinguible del original.

Ejemplos reales: de fraudes millonarios a estafas emocionales

Los riesgos de los deepfakes dejan de ser teóricos cuando vemos casos concretos de fraudes y estafas que ya se han materializado. Uno de los ejemplos más llamativos ocurrió en Hong Kong en 2023: un empleado del área financiera participó en una videollamada en la que supuestamente estaban presentes sus compañeros y el director financiero (CFO) de la empresa.

Durante esa reunión, que a simple vista parecía legítima, el trabajador recibió la instrucción de autorizar transferencias por un valor equivalente a 25 millones de dólares. Las caras, las voces y el contexto encajaban perfectamente. Sin embargo, todo el encuentro había sido generado mediante deepfakes que imitaban al detalle a los participantes, incluidos sus jefes. El resultado fue un fraude multimillonario basado únicamente en manipular la confianza visual y auditiva.

Otro uso especialmente dañino tiene que ver con el chantaje y la difamación. En Corea del Sur se detectó una red que utilizaba fotos de chicas de instituto para crear contenido sexual falso y distribuirlo a través de aplicaciones de mensajería. Muchas de esas víctimas eran menores de edad, y el impacto psicológico y social fue brutal, aunque técnicamente “no fueran ellas” las que aparecían en las escenas.

Los deepfakes también se han colado en el terreno afectivo. El caso de Nikki, una mujer británica de 77 años, ilustra cómo los ciberdelincuentes pueden tejer un fraude romántico apoyado en vídeos generados por IA. Su estafador mantenía una supuesta relación a distancia y utilizaba deepfakes para justificar su identidad y su entorno laboral, pidiéndole dinero de forma recurrente. Nikki llegó a transferir 17.000 libras antes de descubrir el engaño.

No todo el uso de deepfakes es malicioso, eso sí. Existen ejemplos de deepfakes puramente recreativos o paródicos, como las famosas imitaciones de Tom Cruise en TikTok o los vídeos de tráileres modificados en los que se cambia a un actor por otro con fines de entretenimiento. El problema es que, a medida que la calidad técnica se dispara, la línea entre broma y manipulación deliberada se vuelve muy fina.

Tipos de deepfakes: imágenes, vídeos, voz y más

La palabra deepfake se usa muchas veces como cajón de sastre, pero conviene distinguir varios formatos y modalidades de falsificación que hoy están extendidos.

Por un lado, tenemos los deepfaces: se trata de imágenes o secuencias de vídeo en las que se reemplaza un rostro por otro. El objetivo es que la cara falsa adopte los gestos, la iluminación y la perspectiva de la escena original, para que el montaje sea prácticamente invisible. Con suficientes datos de entrenamiento, el resultado puede engañar tanto a personas como a sistemas básicos de verificación visual.

Un segundo grupo son los llamados deepvoices o clonaciones de voz. Aquí, la IA analiza grabaciones del habla de una persona y aprende su timbre, acento, ritmo y muletillas. Después, es capaz de generar audios nuevos diciendo lo que el atacante quiera, pero sonando como si el emisor fuera el original. Este tipo de falsificación es ideal para vishing (phishing telefónico) o para combinarlo con vídeos falsos.

También encontramos imágenes completamente sintéticas de personas que nunca han existido. Mediante GANs entrenadas en bases de datos masivas, se crean rostros inexistentes que parecen fotografías reales. Este recurso se usa mucho en perfiles falsos para redes sociales, suplantaciones controladas o campañas de manipulación coordinadas.

Por último, hay técnicas avanzadas que trabajan con mallas 3D de rostros y cuerpos, lo que permite animar expresiones y movimientos de forma muy realista en diferentes ángulos y condiciones de luz. Estas aproximaciones facilitan recreaciones en tiempo real, algo crítico para ataques durante videollamadas o para tratar de engañar sistemas de reconocimiento interactivo.

Deepfakes como herramienta de ingeniería social y fraude

Si unimos la potencia técnica de los deepfakes con las clásicas técnicas de ingeniería social y manipulación psicológica, el resultado es un cóctel especialmente peligroso. El objetivo ya no es solo aprovechar un fallo técnico, sino explotar la confianza humana en canales “de siempre” como el teléfono, el vídeo o los mensajes de voz.

Los ciberdelincuentes emplean deepfakes para lanzar estafas financieras, fraudes del CEO, ataques de phishing y vishing sofisticados. Un ejemplo habitual es la llamada o videollamada del “jefe” solicitando de forma urgente una transferencia, acceso a un sistema o el envío de información confidencial. Cuando la voz, la cara y el contexto parecen legítimos, muchos controles de sentido común se relajan.

Del mismo modo, se emplean vídeos o audios falsos para manipular la opinión pública, desacreditar a adversarios políticos, generar desinformación en contextos electorales o influir en mercados financieros con declaraciones fabricadas de directivos o autoridades. En un entorno de noticias virales, un vídeo impactante aunque falso puede extenderse miles de veces más rápido que su posterior desmentido.

En el plano personal, los deepfakes potencian prácticas como el romance scam, el ciberacoso, la sextorsión o el bullying. Se pueden fabricar vídeos íntimos falsos, montajes de contenido sexual o escenas humillantes con el rostro de la víctima, que luego se usan para chantajear, ridiculizar o presionar. Una sola pieza de este tipo puede destrozar reputaciones y generar daños emocionales duraderos.

Todo esto configura un escenario en el que la autenticidad de lo digital queda permanentemente bajo sospecha. Si cualquier prueba audiovisual puede cuestionarse, también se pone contra las cuerdas la confianza en periodistas, instituciones públicas, sistemas judiciales y procesos democráticos, lo que multiplica el impacto sistémico de los deepfakes.

Impacto en la autenticación y los controles de seguridad

Más allá del engaño a personas, los deepfakes representan una amenaza creciente para los sistemas biométricos y los mecanismos de control de acceso. Durante años se ha impulsado el reconocimiento facial y de voz como métodos cómodos y seguros de autenticación. Con deepfakes avanzados, esa premisa se tambalea.

Si un atacante consigue generar un vídeo o un modelo en tiempo real que emule el rostro y la voz de una persona autorizada, puede llegar a engañar a soluciones básicas de verificación, sobre todo aquellas que no incorporan pruebas de vida robustas (liveness detection) ni analizadores de comportamiento. Lo mismo ocurre con ciertos procesos KYC (Know Your Customer) o de onboarding digital que se apoyan en selfies, vídeos cortos o locuciones de verificación.

En la práctica, ya no basta con “reconocer la cara” o “oír la voz” para dar por válida una identidad. Los flujos de aprobación internos que se basan en una sola señal de confianza —por ejemplo, “si me llama el CEO desde su número y reconozco su voz, adelante”— se han vuelto extremadamente frágiles. Los atacantes ya no necesitan vulnerar un sistema, les basta con engañar a la persona que tiene poder de decisión.

Este cambio de paradigma implica que el punto débil no siempre está en la tecnología, sino en el diseño de los procesos. La auditoría interna, la gobernanza corporativa y la gestión del riesgo deben revisar cómo se validan las órdenes críticas, quién puede aprobar qué y qué mecanismos adicionales se exigen cuando entra en juego dinero, datos sensibles o decisiones estratégicas.

De forma paralela, los fabricantes de soluciones de verificación están implementando análisis de patrones de movimiento, microgestos, reflejos de luz, artefactos de compresión y señales en el canal de transmisión (por ejemplo, detectar si el vídeo está siendo inyectado desde un archivo y no desde una cámara real) para elevar el listón frente a intentos de deepfake.

Cómo detectar un deepfake: señales y herramientas clave

Detectar un deepfake a simple vista es cada vez más complicado, pero todavía hay pistas visuales, sonoras y contextuales que delatan muchas falsificaciones. No hay un único truco infalible, sino una combinación de indicios que conviene entrenar.

En el plano visual, conviene fijarse en detalles como el parpadeo anómalo (demasiado escaso o poco natural), pequeñas incoherencias en el contorno de la cara, bordes borrosos, piel excesivamente lisa o plástica, sombras irreales alrededor de ojos y boca, o cambios bruscos en la iluminación. Los errores suelen apreciarse mejor si se reproduce el vídeo a velocidad reducida y se detiene fotograma a fotograma.

También es útil observar el cuello, la postura corporal y el fondo. Muchos deepfakes se centran solo en el rostro, por lo que el cuerpo puede tener proporciones extrañas, falta de sincronía entre gestos y posición del cuello o cortes poco naturales en la transición cara-cuerpo. Del mismo modo, los vídeos suelen ser cortos, con pocos segundos de duración, porque generar y pulir contenidos largos requiere mucho más esfuerzo computacional.

En el audio hay otras banderas rojas: desfase entre el movimiento de los labios y el sonido, entonación robótica, ausencia de respiraciones naturales, cambios repentinos en el ruido de fondo o variaciones de calidad en la voz. Los algoritmos de voz sintética han avanzado mucho, pero todavía les cuesta replicar al 100 % la riqueza emocional y las microvariaciones del habla humana.

Más allá de los detalles técnicos, es clave analizar el origen y el contexto del contenido. ¿Quién lo ha difundido primero? ¿En qué plataforma? ¿Hay confirmación desde medios fiables o canales oficiales? Buscar la fuente original, contrastar con otros medios y tirar de sentido crítico sigue siendo una de las defensas más eficaces frente a la desinformación y los montajes.

En el ámbito profesional, se utilizan ya herramientas de análisis forense digital que examinan píxeles, metadatos, patrones de compresión y rastros de edición, así como modelos de IA específicos entrenados para reconocer firmas típicas de los deepfakes. Estas soluciones permiten detectar manipulaciones incluso cuando no son evidentes a simple vista, y se apoyan en bases de datos de deepfakes conocidos para mejorar su precisión.

Tecnologías anti-deepfake y uso de IA como defensa

Frente a una amenaza generada por IA, la respuesta más eficaz pasa también por apoyarse en inteligencia artificial para la defensa. En los últimos años han surgido múltiples herramientas y soluciones orientadas a identificar, marcar y bloquear deepfakes antes de que hagan daño.

Una línea de trabajo relevante es la detección de ataques de presentación y de inyección. No solo se analiza el contenido visual o sonoro, sino también el modo en que llega al sistema: si procede de una cámara real, de un archivo reproducido, de una pantalla intermedia o de un flujo manipulado. Combinando varias capas —análisis de imagen, flujo de vídeo, canal de transmisión— se consiguen tasas de detección muy altas frente a las técnicas de generación de deepfakes más populares.

Otro enfoque consiste en incorporar mecanismos criptográficos y marcas de agua digitales en los contenidos legítimos. Se pueden insertar pequeños hashes o huellas digitales a intervalos en un vídeo; si éste se altera, los hashes ya no coinciden, lo que indica manipulación. También se explora el uso de tecnologías de blockchain para registrar la procedencia de un contenido y su historial de modificaciones, generando una especie de “cadena de custodia” digital difícil de falsificar.

Existen además técnicas defensivas más creativas, como incrustar artefactos digitales diseñados para confundir a los algoritmos de detección de rostros. Estos patrones no son apreciables para el ojo humano, pero dificultan que el software de deepfake localice con precisión los rasgos faciales y genere un resultado convincente, lo que reduce el éxito de muchos intentos de clonación visual.

Las soluciones comerciales de detección de deepfakes van incorporando todo este arsenal. Algunas alcanzan tasas de acierto superiores al 95 % frente a motores de generación conocidos, manteniendo al mismo tiempo un nivel muy bajo de falsos positivos. Para ello, entrenan sus modelos con enormes colecciones de deepfakes sintéticos generados en laboratorios propios, lo que les permite anticiparse a las nuevas técnicas que van apareciendo.

Reforzar procesos y cultura de seguridad frente a deepfakes

Por muy avanzada que sea la tecnología de detección, ningún sistema es infalible si los procesos internos se basan en puntos únicos de confianza. La verdadera resiliencia frente a los deepfakes requiere rediseñar cómo se toman decisiones sensibles en las organizaciones y cómo se valida la autenticidad de las órdenes.

Una medida esencial es sustituir los flujos de aprobación monofactor (por ejemplo, “si lo dice el jefe por videollamada, se hace”) por esquemas multifactor y multicanal. Eso implica que una instrucción crítica deba confirmarse por un segundo medio independiente (correo corporativo firmado, sistema interno, herramienta de ticketing) o requiera la validación de más de una persona para ejecutarse.

Los equipos de auditoría y de gestión de riesgos tienen un papel central. Profesionales con certificaciones como CISA o especializaciones en auditoría y seguridad de IA pueden analizar los flujos actuales, detectar puntos ciegos, incorporar el riesgo específico de deepfakes en el mapa global de riesgos y proponer controles adecuados. Aquí encajan nuevas credenciales centradas en IA, como programas avanzados de auditoría de IA o de gestión de seguridad en sistemas de inteligencia artificial.

La formación periódica de empleados es otro pilar. Todos los niveles de la organización deben saber qué son los deepfakes, cómo se usan en fraudes, qué señales pueden delatarlos y qué protocolos seguir ante comunicaciones inusuales, sobre todo si conllevan prisas, urgencia o presión emocional. Incluir ejemplos prácticos y simulaciones ayuda a que el mensaje cale.

A nivel doméstico, también es recomendable establecer pequeños “trucos” de seguridad, como palabras clave o preguntas de verificación privadas entre familiares y amigos cercanos, que se puedan usar en llamadas o mensajes de voz para confirmar identidades cuando algo no encaja del todo.

Finalmente, los protocolos de respuesta deben contemplar qué hacer si una persona o una empresa se convierten en objetivo de un deepfake: recopilar y conservar pruebas (capturas de pantalla, enlaces, fechas, comentarios), denunciar en la plataforma correspondiente, valorar acciones legales y, en casos de impacto reputacional, trabajar con expertos en comunicación y relaciones públicas para reducir daños.

Medidas prácticas para reducir el riesgo de deepfakes

Además de las medidas organizativas y tecnológicas, cualquier usuario u organización puede aplicar una serie de buenas prácticas básicas para minimizar la exposición y el impacto potencial de los deepfakes.

En primer lugar, conviene limitar la cantidad de material audiovisual personal disponible públicamente. Cuantas más fotos, vídeos y audios de calidad haya de una persona, más fácil lo tendrá un atacante para entrenar un modelo convincente. Configurar correctamente la privacidad en redes sociales y restringir quién puede ver ciertos contenidos ayuda a reducir la superficie de ataque.

También es aconsejable reforzar la higiene digital tradicional: contraseñas robustas y únicas, autenticación de dos factores, software actualizado, soluciones antivirus y antimalware en todos los dispositivos, y precaución al descargar aplicaciones o aceptar permisos que no tienen sentido. Aunque estas medidas no impiden la creación de deepfakes con material público, sí reducen la probabilidad de que se roben fotos, vídeos o audios privados mediante intrusiones.

En el día a día, es fundamental adoptar una actitud sana de escepticismo frente a cualquier mensaje que mezcle sorpresa, urgencia y emoción, especialmente si va acompañado de una petición de dinero, datos sensibles o accesos. Ante la duda, verificar siempre por un canal alternativo que sepamos que es legítimo y, si hace falta, tomarse unos minutos para pensar antes de actuar.

En caso de sufrir un ataque o detectar un deepfake dañino, el primer paso es documentar todo lo posible: guardar el archivo, anotar fechas y horas, registrar las plataformas donde se ha difundido y recopilar comentarios relacionados. Después, se debe notificar a las plataformas implicadas para solicitar la retirada del contenido y, si hay indicios de delito (fraude económico, sextorsión, suplantación grave), acudir a las autoridades competentes para iniciar las acciones legales oportunas.

En muchos países, incluyendo España, el marco legal ya contempla delitos vinculados con la suplantación de identidad, la intimidad, el honor o la estafa, por lo que un deepfake malicioso puede tener consecuencias penales. Además, la normativa de protección de datos, como el RGPD, protege el uso no autorizado de datos biométricos (cara, voz, etc.), lo que refuerza el margen de actuación de las víctimas.

La evolución de los deepfakes avanza a gran velocidad, pero también lo hacen las capacidades de detección, los marcos regulatorios y las estrategias de defensa. Mantenerse informado, reforzar procesos y cultivar una cultura de seguridad digital crítica son hoy piezas clave para que esta tecnología no se convierta en un golpe definitivo a la confianza en lo que vemos y escuchamos en el entorno digital.