Mientras promueve activamente que los clientes empresariales utilicen Copilot (que es un asistente de IA inteligente que ayuda a automatizar tareas, redactar documentos, crear fotos y analizar datos a través de la interfaz de chat), Microsoft se enfrenta a una ola de controversia relacionada con los términos de uso de esta herramienta.
Según el contenido que se dice que se actualizó más recientemente en octubre de 2025, Copilot es descrito por Microsoft como "solo para fines de entretenimiento".
La compañía también enfatizó que el sistema puede fallar, no funcionar como se esperaba y no debe utilizarse para tomar decisiones importantes. Se recomienda a los usuarios que asuman los riesgos al usarlo.
Ante la reacción de la comunidad, un representante de Microsoft dijo que este es un "lenguaje antiguo" y que se actualizará para reflejar correctamente el uso actual de Copilot.
De hecho, Microsoft no es el único caso. Muchas grandes empresas de IA también han emitido advertencias similares.
OpenAI recomienda no considerar a la IA como la única fuente de información sobre la verdad, mientras que xAI enfatiza que el resultado no es una "verdad absoluta".
Los expertos creen que esta es la forma en que las empresas reducen los riesgos legales, al tiempo que recuerdan a los usuarios que la IA aún puede crear información falsa.