Las fronteras entre lo real y lo falso se borran, los usuarios se convierten en el objetivo de deepfakes.
Según el Informe de investigación, la encuesta de ciberseguridad de 2025 en el área de usuarios individuales realizada por la Asociación Nacional de Ciberseguridad, alrededor de 1 de cada 555 personas es víctima de fraude.
El experto Vu Duy Hung - Hung AI Creative comentó que deepfake se está convirtiendo en uno de los desafíos más graves de la era de la inteligencia artificial, cuando la línea entre lo real y lo falso se está borrando cada vez más. Desde imágenes, voces hasta videos, las herramientas de IA actuales permiten crear contenido falso con alta autenticidad, fácil de acceder y muy difícil de distinguir a simple vista.
Según la Asociación Nacional de Seguridad Cibernética, solo en el primer trimestre de 2025, las pérdidas totales a nivel mundial por fraude de deepfake ascendieron a 200 millones de dólares, con una frecuencia de ataque de un incidente cada 5 minutos.
La realidad registrada muestra que los trucos de estafa con deepfake ya no se detienen en el nivel de advertencia, sino que han aparecido con guiones muy específicos, golpeando la psicología de las víctimas.
La Sra. Nguyen Thu Lam (32 años), empleada de contabilidad de una empresa en Hanoi, relató que a finales de noviembre de 2025, recibió una videollamada a través de la aplicación Telegram desde una cuenta con una foto de perfil y un nombre idéntico al de un líder de la empresa. En la llamada, esta persona apareció con un rostro y una voz muy parecidos a los de su jefe, pidiéndole que transfiriera urgentemente 370 millones de VND para gestionar el contrato con un socio extranjero.
Habló rápido, parecía muy ansioso y me pidió que no molestara a otros departamentos. La imagen y la voz eran tan similares que no sospeché nada", recordó la Sra. Ha. No fue hasta que transfirió el dinero y volvió a llamar por el número de teléfono personal del director que se dio cuenta con asombro de que había sido estafada.
Otro caso ocurrió en Bac Ninh. El Sr. Ta Quang Hanh (45 años), propietario de una tienda de negocios, dijo que había recibido una llamada de un número desconocido con una voz idéntica a la de su hijo que estudia en China. Esta persona dijo que estaba en un accidente y necesitaba transferir urgentemente 150 millones de VND para pagar las facturas del hospital.
La voz temblorosa, la forma correcta de dirigirse en la familia, así que no sospeché nada. Solo tuve tiempo de transferir el dinero y luego volví a llamar a mi hijo a través de video y entonces supe que no había pasado nada", relató el Sr. Hanh.
Según el experto en IA Vu Thanh Thang, presidente de la unidad de desarrollo de AIZ, los casos de fraude que utilizan imágenes, voces y videos falsos pueden ser una manifestación de deepfake. Esta tecnología recrea a las personas con alta autenticidad, lo que dificulta que las víctimas las reconozcan. Cuando se combinan escenarios de presión temporal, suplantación de identidad de conocidos o personas autorizadas, deepfake se aprovecha para convertirse en una herramienta de fraude particularmente peligrosa, que puede engañar incluso a quienes entienden la tecnología.
El punto en común de estos casos es que los estafadores suelen recopilar datos de imágenes y voces de las redes sociales, y luego utilizan herramientas de IA para crear guiones de fraude altamente personalizados.
Deepfake también se aprovecha para crear videos e imágenes para atraer visitas, vender productos, hacerse pasar por celebridades, editar declaraciones erróneas para obtener ganancias. La realidad muestra que deepfake se ha convertido en un peligro real, que se infiltra en la vida con un nivel de sofisticación cada vez mayor.
Aumentar el control con las plataformas tecnológicas detrás de los productos deepfake
El Sr. Tran Van Son, Subdirector del Instituto Nacional de Tecnología Digital y Transformación Digital (Ministerio de Ciencia y Tecnología), dijo que la mayoría de los sistemas de IA generadores actuales se clasifican en el grupo de riesgo promedio debido a la capacidad de crear contenido que causa confusión o impacto negativo en los usuarios. Esta es también la plataforma tecnológica detrás de los productos deepfake, al permitir la creación de imágenes, sonidos y videos falsos con alta autenticidad, aumentando el riesgo de ser explotados para actos fraudulentos y violaciones de la ley.
La Ley de IA (Ley de Inteligencia Artificial vigente desde el 1 de marzo de 2026) estipula claramente las responsabilidades de los sujetos relacionados en la detección de incidentes, la aplicación de medidas técnicas para solucionarlos, incluso la suspensión temporal o la retirada del sistema cuando sea necesario. Los proveedores y las unidades de implementación también deben explicar el propósito de uso, los principios de funcionamiento y las medidas de gestión de riesgos ante las autoridades competentes.
En particular, la ley prohíbe estrictamente el uso de tecnología deepfake para defraudar o violar la ley. Los sistemas generadores de IA deben etiquetar el contenido creado o editado por la IA, y aplicar soluciones de identificación para servir al trabajo de gestión y rastreo. En caso de que no se cumplan los requisitos de control de riesgo, el sistema puede clasificarse en el grupo de alto riesgo y estar sujeto a una supervisión más estricta.
El Sr. Tran Van Son enfatizó que, con actos de violación graves como el uso de deepfake para abusar de niños o causar desorden social, las personas y organizaciones relacionadas no solo serán sancionadas administrativamente, sino que también pueden ser procesadas penalmente y deben compensar los daños de acuerdo con las regulaciones de la ley.
Desde una perspectiva legal, el abogado Tran The Anh, subdirector de XTVN Law Company Limited, dijo que aunque no existe un cargo específico para deepfake, los actos de abuso de esta tecnología aún pueden ser procesados de acuerdo con las regulaciones vigentes.
El acto de usar deepfake para apropiarse de bienes puede ser procesado por el delito de fraude y apropiación de bienes de acuerdo con el Artículo 174 del Código Penal de 2015 (modificado en 2017), con la pena máxima de cadena perpetua. En el caso de difundir contenido falso, afectando a organizaciones e individuos, puede ser procesado de acuerdo con el Artículo 288 o el Artículo 155 del Código Penal.
Si no es suficiente para ser procesado penalmente, el infractor puede ser sancionado administrativamente de acuerdo con el Decreto 15/2020/ND-CP (modificado y complementado en 2022) con una multa de 10 millones de VND a 20 millones de VND por el acto de proporcionar y compartir información falsa en línea.
Los abogados recomiendan que las personas deben aumentar la vigilancia ante los contenidos inusuales en el ciberespacio, especialmente las llamadas o videos que solicitan transferencias urgentes de dinero. Es necesario verificar la información a través de múltiples canales independientes para evitar caer en la trampa del fraude.
Además, los usuarios no deben compartir arbitrariamente imágenes y videos personales en las redes sociales, ya que estos pueden convertirse en datos de entrada para que los malos elementos creen productos deepfake con fines fraudulentos. Cuando se detecten signos anormales, es necesario informar rápidamente a las autoridades funcionales para obtener apoyo para el manejo.