La Oficina de Asesoramiento Jurídico del periódico Lao Dong responde:
El artículo 15, Decreto 142/2026/ND-CP que detalla algunos artículos y medidas para implementar la Ley de Inteligencia Artificial (vigente a partir del 1 de mayo de 2026), regula la gestión de sistemas de inteligencia artificial de alto riesgo de la siguiente manera:
1. Los proveedores de sistemas de inteligencia artificial de alto riesgo deben establecer y mantener un sistema de gestión de riesgos para los sistemas que proporcionen de acuerdo con el propósito de uso, el alcance de la implementación y el nivel de riesgo del sistema.
2. El sistema de gestión de riesgos estipulado en el apartado 1 de este artículo incluye al menos los siguientes contenidos:
a) Identificar y evaluar los riesgos que puedan surgir para los derechos humanos, la seguridad, la protección o los intereses públicos en el proceso de diseño, desarrollo y provisión del sistema;
b) Garantizar la calidad, la idoneidad y la representatividad de los datos de entrenamiento, los datos de prueba y los datos de evaluación dentro del alcance necesario para limitar los riesgos derivados de los datos;
c) Diseñar y mantener un mecanismo de supervisión e intervención humana adecuado al nivel de riesgo del sistema;
d) Aplicar medidas técnicas o medidas de gestión para prevenir, limitar o controlar los riesgos identificados;
e) Revisar y actualizar las medidas de gestión de riesgos cuando el sistema tenga cambios significativos en el modelo, los datos, el modo de operación o el propósito de uso.
3. El proveedor es responsable de proporcionar a la parte implementadora la información necesaria sobre el propósito de uso del sistema, las condiciones de funcionamiento seguras, los riesgos identificados y las medidas de gestión de riesgos correspondientes para garantizar el despliegue y uso del sistema para el propósito correcto.
4. La parte que implementa el sistema de inteligencia artificial de alto riesgo debe organizar la gestión de riesgos en el proceso de implementación y operación del sistema de acuerdo con el propósito de uso, el alcance de la implementación, el nivel de riesgo del sistema y las instrucciones técnicas del proveedor.
5. En el proceso de implementación y operación, la parte implementadora implementa las siguientes medidas de gestión de riesgos:
a) Operar el sistema para el propósito de uso correcto, las condiciones de uso y los límites de uso definidos por el proveedor;
b) Organizar la supervisión de las operaciones del sistema para detectar desviaciones, riesgos o posibles incidentes;
c) Establecer y mantener un mecanismo de supervisión e intervención humana en el proceso de uso del sistema de acuerdo con las disposiciones de la ley;
d) Aplicar medidas para restringir o controlar los riesgos dentro del alcance de su control cuando detecte que el sistema no funciona para el propósito de uso correcto o que surgen nuevos riesgos;
e) Coordinar con el proveedor para revisar y actualizar las medidas de gestión de riesgos cuando el sistema tenga cambios significativos o cuando surja un problema.
6. En caso de que se detecte que el sistema corre el riesgo de causar graves daños a la vida, la salud humana, los derechos humanos, la propiedad, la seguridad de la red, el orden, la seguridad social o el interés público, la parte implementadora debe aplicar oportunamente medidas para limitar los riesgos dentro del alcance de su control y notificar al proveedor y a la agencia estatal competente de acuerdo con las disposiciones de la ley.
Por lo tanto, a partir del 1 de mayo de 2026, el sistema de inteligencia artificial de alto riesgo se gestiona de acuerdo con las regulaciones mencionadas anteriormente.
Asesoramiento jurídico
Llame a la línea directa de asesoramiento legal: 0979310518; 0961360559 para recibir respuestas rápidas y oportunas o envíenos un correo electrónico a: tuvanphapluat@laodong. com. vn para obtener respuestas.