Deepfake - un gran desafío en el mundo digital

Hạo Thiên |

El auge de la inteligencia artificial (IA) está abriendo muchas nuevas utilidades, pero al mismo tiempo también conlleva riesgos impredecibles como la tecnología deepfake cuando puede crear imágenes, voces y videos falsos con alta autenticidad, engañando a los usuarios con solo unos simples pasos.

Las fronteras entre lo real y lo falso se borran, los usuarios se convierten en el objetivo de deepfakes.

Según el Informe de investigación, la encuesta de ciberseguridad de 2025 en el área de usuarios individuales realizada por la Asociación Nacional de Ciberseguridad, alrededor de 1 de cada 555 personas es víctima de fraude.

El experto Vu Duy Hung - Hung AI Creative comentó que deepfake se está convirtiendo en uno de los desafíos más graves de la era de la inteligencia artificial, cuando la línea entre lo real y lo falso se está borrando cada vez más. Desde imágenes, voces hasta videos, las herramientas de IA actuales permiten crear contenido falso con alta autenticidad, fácil de acceder y muy difícil de distinguir a simple vista.

Según la Asociación Nacional de Seguridad Cibernética, solo en el primer trimestre de 2025, las pérdidas totales a nivel mundial por fraude de deepfake ascendieron a 200 millones de dólares, con una frecuencia de ataque de un incidente cada 5 minutos.

La realidad registrada muestra que los trucos de estafa con deepfake ya no se detienen en el nivel de advertencia, sino que han aparecido con guiones muy específicos, golpeando la psicología de las víctimas.

La Sra. Nguyen Thu Lam (32 años), empleada de contabilidad de una empresa en Hanoi, relató que a finales de noviembre de 2025, recibió una videollamada a través de la aplicación Telegram desde una cuenta con una foto de perfil y un nombre idéntico al de un líder de la empresa. En la llamada, esta persona apareció con un rostro y una voz muy parecidos a los de su jefe, pidiéndole que transfiriera urgentemente 370 millones de VND para gestionar el contrato con un socio extranjero.

Habló rápido, parecía muy ansioso y me pidió que no molestara a otros departamentos. La imagen y la voz eran tan similares que no sospeché nada", recordó la Sra. Ha. No fue hasta que transfirió el dinero y volvió a llamar por el número de teléfono personal del director que se dio cuenta con asombro de que había sido estafada.

Otro caso ocurrió en Bac Ninh. El Sr. Ta Quang Hanh (45 años), propietario de una tienda de negocios, dijo que había recibido una llamada de un número desconocido con una voz idéntica a la de su hijo que estudia en China. Esta persona dijo que estaba en un accidente y necesitaba transferir urgentemente 150 millones de VND para pagar las facturas del hospital.

La voz temblorosa, la forma correcta de dirigirse en la familia, así que no sospeché nada. Solo tuve tiempo de transferir el dinero y luego volví a llamar a mi hijo a través de video y entonces supe que no había pasado nada", relató el Sr. Hanh.

Según el experto en IA Vu Thanh Thang, presidente de la unidad de desarrollo de AIZ, los casos de fraude que utilizan imágenes, voces y videos falsos pueden ser una manifestación de deepfake. Esta tecnología recrea a las personas con alta autenticidad, lo que dificulta que las víctimas las reconozcan. Cuando se combinan escenarios de presión temporal, suplantación de identidad de conocidos o personas autorizadas, deepfake se aprovecha para convertirse en una herramienta de fraude particularmente peligrosa, que puede engañar incluso a quienes entienden la tecnología.

El punto en común de estos casos es que los estafadores suelen recopilar datos de imágenes y voces de las redes sociales, y luego utilizan herramientas de IA para crear guiones de fraude altamente personalizados.

Deepfake también se aprovecha para crear videos e imágenes para atraer visitas, vender productos, hacerse pasar por celebridades, editar declaraciones erróneas para obtener ganancias. La realidad muestra que deepfake se ha convertido en un peligro real, que se infiltra en la vida con un nivel de sofisticación cada vez mayor.

Aumentar el control con las plataformas tecnológicas detrás de los productos deepfake

El Sr. Tran Van Son, Subdirector del Instituto Nacional de Tecnología Digital y Transformación Digital (Ministerio de Ciencia y Tecnología), dijo que la mayoría de los sistemas de IA generadores actuales se clasifican en el grupo de riesgo promedio debido a la capacidad de crear contenido que causa confusión o impacto negativo en los usuarios. Esta es también la plataforma tecnológica detrás de los productos deepfake, al permitir la creación de imágenes, sonidos y videos falsos con alta autenticidad, aumentando el riesgo de ser explotados para actos fraudulentos y violaciones de la ley.

La Ley de IA (Ley de Inteligencia Artificial vigente desde el 1 de marzo de 2026) estipula claramente las responsabilidades de los sujetos relacionados en la detección de incidentes, la aplicación de medidas técnicas para solucionarlos, incluso la suspensión temporal o la retirada del sistema cuando sea necesario. Los proveedores y las unidades de implementación también deben explicar el propósito de uso, los principios de funcionamiento y las medidas de gestión de riesgos ante las autoridades competentes.

En particular, la ley prohíbe estrictamente el uso de tecnología deepfake para defraudar o violar la ley. Los sistemas generadores de IA deben etiquetar el contenido creado o editado por la IA, y aplicar soluciones de identificación para servir al trabajo de gestión y rastreo. En caso de que no se cumplan los requisitos de control de riesgo, el sistema puede clasificarse en el grupo de alto riesgo y estar sujeto a una supervisión más estricta.

El Sr. Tran Van Son enfatizó que, con actos de violación graves como el uso de deepfake para abusar de niños o causar desorden social, las personas y organizaciones relacionadas no solo serán sancionadas administrativamente, sino que también pueden ser procesadas penalmente y deben compensar los daños de acuerdo con las regulaciones de la ley.

Desde una perspectiva legal, el abogado Tran The Anh, subdirector de XTVN Law Company Limited, dijo que aunque no existe un cargo específico para deepfake, los actos de abuso de esta tecnología aún pueden ser procesados de acuerdo con las regulaciones vigentes.

El acto de usar deepfake para apropiarse de bienes puede ser procesado por el delito de fraude y apropiación de bienes de acuerdo con el Artículo 174 del Código Penal de 2015 (modificado en 2017), con la pena máxima de cadena perpetua. En el caso de difundir contenido falso, afectando a organizaciones e individuos, puede ser procesado de acuerdo con el Artículo 288 o el Artículo 155 del Código Penal.

Si no es suficiente para ser procesado penalmente, el infractor puede ser sancionado administrativamente de acuerdo con el Decreto 15/2020/ND-CP (modificado y complementado en 2022) con una multa de 10 millones de VND a 20 millones de VND por el acto de proporcionar y compartir información falsa en línea.

Los abogados recomiendan que las personas deben aumentar la vigilancia ante los contenidos inusuales en el ciberespacio, especialmente las llamadas o videos que solicitan transferencias urgentes de dinero. Es necesario verificar la información a través de múltiples canales independientes para evitar caer en la trampa del fraude.

Además, los usuarios no deben compartir arbitrariamente imágenes y videos personales en las redes sociales, ya que estos pueden convertirse en datos de entrada para que los malos elementos creen productos deepfake con fines fraudulentos. Cuando se detecten signos anormales, es necesario informar rápidamente a las autoridades funcionales para obtener apoyo para el manejo.

Hạo Thiên
Noticias relacionadas

Deepfake se convierte en un nuevo riesgo en la temporada de Tet digital

|

Según los expertos, Deepfake se está convirtiendo en una nueva preocupación, ya que puede ser aprovechado para falsificar imágenes y voces, engañando a la gente durante el Tet.

Advertencia de una serie de riesgos durante el Tet

|

En el contexto de las formas cada vez más sofisticadas de fraude tecnológico, Deepfake está en auge como un peligro potencial durante el Tet.

Los trucos de estafa con tecnología deepfake aumentan durante el Tet

|

La tecnología deepfake (tecnología que utiliza algoritmos de aprendizaje profundo para crear contenido falso de alta autenticidad, incluyendo imágenes, videos y audio) es cada vez más sofisticada, difuminando la línea entre lo real y lo falso, lo que hace que muchas personas caigan en la trampa del fraude.

La admisión a la universidad en 2026 aplica el umbral mínimo de puntos, reduciendo el número de deseos

|

Los cambios sistemáticos en el Reglamento de Admisión a la Universidad aplicado a partir de 2026 requieren que los candidatos tengan una estrategia clara, orientada a estudiar de verdad, examinarse de verdad, ser justos y serios.

Precio del oro hoy 24 de febrero: El oro en lingotes sube, el mundo cambia de rumbo

|

Precio del oro hoy 24 de febrero: El mercado mundial del oro invirtió la tendencia a la baja. En el país, los anillos de oro todavía se ajustaron ligeramente al alza.

El presidente de Lào Cai exige aclarar la causa de la explosión en la fábrica de fósforo amarillo

|

Lào Cai - El Presidente del Comité Popular Provincial exige una investigación urgente para aclarar la causa de la explosión en la fábrica de producción de fósforo amarillo en el Parque Industrial de Tằng Loỏng.

Dos enfermeras donan sangre para salvar a una mujer embarazada en estado crítico

|

Quảng Trị - Dos enfermeras del Hospital General Regional de Quảng Ninh donan sangre para salvar a una mujer con aborto ectópico.

La cámara grabó la escena de un autobús de pasajeros chocando en cadena con 4 coches en la autopista

|

Lam Dong - La cámara de salpicadero grabó la escena de un autobús de pasajeros chocando contra coches que circulaban en la misma dirección por delante, causando un accidente en cadena de 5 coches.

Deepfake se convierte en un nuevo riesgo en la temporada de Tet digital

hạo thiên |

Según los expertos, Deepfake se está convirtiendo en una nueva preocupación, ya que puede ser aprovechado para falsificar imágenes y voces, engañando a la gente durante el Tet.

Advertencia de una serie de riesgos durante el Tet

Hạo Thiên |

En el contexto de las formas cada vez más sofisticadas de fraude tecnológico, Deepfake está en auge como un peligro potencial durante el Tet.

Los trucos de estafa con tecnología deepfake aumentan durante el Tet

AN VY |

La tecnología deepfake (tecnología que utiliza algoritmos de aprendizaje profundo para crear contenido falso de alta autenticidad, incluyendo imágenes, videos y audio) es cada vez más sofisticada, difuminando la línea entre lo real y lo falso, lo que hace que muchas personas caigan en la trampa del fraude.