Solo unos dias despues de su lanzamiento la aplicacion de creacion de videos con inteligencia artificial Sora de OpenAI causo una fuerte controversia cuando los usuarios la utilizaron para crear una serie de videos falsos pero extremadamente realistas desde fraude electoral delitos callejeros hasta protestas sin precedentes.
Al igual que el Veo 3 de Google u otras herramientas de reproduccion de video de IA se considera que Sora tiene la capacidad de convertir cualquier idea en una imagen dinamica con solo una linea de comandos.
Los usuarios pueden subir sus fotos y voces y dejar que la IA las integre en un entorno completamente imaginario.
Esta herramienta incluso puede recrear imagenes de celebridades logotipos de marcas o personajes historicos fallecidos.
Expertos en ciberseguridad y academicos advierten que la capacidad de Sora esta acelerando el riesgo de distorsion de la informacion a una escala sin precedentes.
Estoy preocupado por la economia y tambien por las instituciones sociales' enfatizo el profesor Hany Farid (Universidad de California en Berkeley).
Segun Farid los videos con alta autenticidad pueden hacer que el publico pierda la fe en la vista cuando todo puede ser falsificado.
OpenAI dijo que Sora fue lanzada despues de un estricto proceso de prueba de seguridad con medidas de proteccion de contenido como el rechazo de imagenes violentas politicas o de celebridades no permitidas.
La aplicacion tambien incorpora imagenes distorsionadas para identificar videos creados por la IA.
Sin embargo los expertos creen que estas medidas son faciles de eludir y los usuarios aun pueden registrar cuentas anonimas crear videos falsos sobre figuras publicas fallecidas o eventos falsos.
La prueba del New York Times muestra que Sora todavia puede crear videos con elementos sensibles como escenas de robo de tiendas explosiones o incluso imagenes falsas del CEO de OpenAI Sam Altman robando todo esta construido con IA.
Tales videos cuando se difunden en las redes sociales pueden manipular la opinion publica y desencadenar teorias de conspiracion.
El profesor Kristian Hammond (Universidad Northwestern) lo llama el 'efecto del mentiroso' cuando los videos falsos abundan los espectadores dudaran incluso de las pruebas reales.
Lucas Hansen fundador de la organizacion CivAI opina que 'la ultima fortaleza de la verdad son los videos que se estan derrumbando'.
Aunque OpenAI se compromete a implementar Sora de manera considerada y responsable muchos investigadores creen que la nueva era de los videos de IA super reales obligara a la sociedad a reconstruir el concepto de confianza y autenticidad.
Hace solo un año todavia podia distinguir entre fotos reales y falsas a simple vista. Pero ahora incluso los expertos ya no estan seguros' dijo el profesor Farid.