
Segun The Information, en los ultimos dos meses, OpenAI ha fusionado muchos grupos tecnicos, productos e investigacion para reestructurar integralmente los modelos de sonido, con el objetivo de preparar un dispositivo personal prioritario para la comunicacion por voz, que se espera que se lance en aproximadamente un año.
Este movimiento refleja la tendencia general de la industria tecnologica, donde el sonido se esta convirtiendo gradualmente en la interfaz central, reemplazando el papel dominante de la pantalla. Los asistentes de voz han aparecido en mas de un tercio de los hogares en Estados Unidos a traves de altavoces inteligentes. Muchas grandes corporaciones tecnologicas tambien estan siguiendo esta direccion.
Meta ha añadido recientemente una funcion de escucha guiada a las gafas inteligentes Ray-Ban, utilizando un sistema de multiples microfonos para ayudar a los usuarios a escuchar mas claramente en entornos ruidosos. Google esta probando la funcion de convertir los resultados de busqueda en resumen en forma de conversacion acustica. Mientras tanto, Tesla integra el chatbot Grok de xAI en los coches electricos, permitiendo a los usuarios controlar muchas funciones con voz natural.
No solo los "gigantes" tecnologicos, muchas empresas emergentes tambien persiguen la ambicion de construir dispositivos de IA sin pantalla. Sin embargo, este camino no es facil. Algunos productos que han llamado la atencion como Humane AI Pin o vong co Friend AI han tenido fracasos o controversias relacionadas con la privacidad, lo que demuestra el gran riesgo de introducir la IA de sonido en la vida personal.
Sin embargo, esta tendencia continua impulsada. Algunas startups, incluida Sandbar y la empresa fundada por Eric Migicovsky, estan desarrollando anillos de IA que permiten a los usuarios chatear directamente a traves de dispositivos portatiles, que se espera que se lancen en 2026.
Segun The Information, el nuevo modelo de sonido de OpenAI, que se espera que se lance a principios de 2026, tendra una voz mas natural, procesara los cortes de voz de forma flexible e incluso podra "hablar en paralelo" con el usuario, creando una sensacion como una conversacion real. Tambien se dice que OpenAI esta imaginando un nuevo ecosistema de dispositivos, que podria incluir gafas o altavoces inteligentes sin pantalla, funcionando como un compañero mas que como una herramienta.
Esta estrategia esta vinculada a la orientacion de diseño de audio prioritario de Jony Ive, ex director de diseño de Apple, quien se unio al departamento de hardware de OpenAI tras la adquisicion de la empresa io por valor de 6.500 millones de dolares. Se dice que quiere reducir la dependencia de la pantalla y ve la interfaz de audio como una oportunidad para remodelar la forma en que las personas interactuan con la tecnologia de consumo en el futuro.
En ese contexto, la IA de sonido ya no es una caracteristica de apoyo, sino que se esta considerando como la base para la proxima generacion de dispositivos personales, donde la voz se convierte en la nueva "superficie de control" de los humanos.