El gobernador de California, Gavin Newsom, acaba de firmar una orden ejecutiva que se considera el paso más enérgico hasta la fecha para controlar la inteligencia artificial (IA) a nivel estatal.
El decreto exige que todas las empresas tecnológicas que deseen firmar contratos con el gobierno estatal cumplan con estrictos estándares de transparencia y seguridad.
Esto se considera parte de los esfuerzos para convertir a California en una localidad pionera en la construcción de un marco legal para la IA, un campo en rápido desarrollo pero con muchos riesgos potenciales.
Uno de los puntos notables son las regulaciones sobre la verificación de antecedentes y las políticas operativas de los contratistas de IA.
Las empresas deben hacer públicas las formas en que sus sistemas procesan los datos, prevenir el abuso, especialmente los contenidos peligrosos como los materiales de abuso infantil.
Además, el estado de California también evaluará cuidadosamente si las tecnologías de IA, incluidos los chatbots y los modelos lingüísticos, se utilizan para monitorear a las personas o censurar las declaraciones.
Las empresas se ven obligadas a demostrar que su sistema minimiza el favoritismo, garantizando la equidad en el proceso operativo.
El decreto de California también enfatiza el derecho a la evaluación independiente de los contratistas, incluso cuando el gobierno federal emite una advertencia de riesgo.
Esto es particularmente notable en el contexto de la disputa entre el Pentágono y la empresa de IA Anthropic.
Anteriormente, el Pentágono había rescindido el contrato con Anthropic después de que esta empresa se negara a permitir que su tecnología se utilizara para vigilancia interna a gran escala y armas autónomas.
Sin embargo, según el nuevo decreto, California puede reevaluarse y seguir permitiendo la cooperación si no se detectan riesgos similares.
Esta medida muestra una diferencia cada vez más clara entre las autoridades estatales y federales en el enfoque de la IA, especialmente en lo que respecta a las aplicaciones militares y de vigilancia.
Otro punto nuevo es el requisito de etiquetar (watermark) el contenido creado o editado por la IA, especialmente los videos.
El objetivo es limitar la propagación de información falsa y ayudar a las personas a distinguir fácilmente entre el contenido real y el contenido creado por la máquina.
Los expertos evalúan que este es un paso necesario en el contexto de que la tecnología deepfake es cada vez más sofisticada, lo que dificulta la verificación de la información en el ciberespacio.