Google ha restringido o bloqueado temporalmente algunas cuentas de usuario relacionadas con la plataforma de programación de IA Antigravity, alegando el descubrimiento de un aumento significativo de actividades que se consideran "uso malicioso", especialmente al acceder a modelos Gemini a través de la herramienta de código abierto OpenClaw.
Esta medida sorprendió a muchos usuarios cuando perdieron repentinamente el acceso a servicios como Gmail, Google Workspace o la versión avanzada de IA Gemini 2.5 Pro.
El incidente comenzó cuando algunos usuarios publicaron en el foro de desarrolladores de Google que no podían acceder a sus cuentas a pesar de seguir pagando por el paquete Gemini AI Ultra.
Varun Mohan, ex CEO de Windsurf e ingeniero de DeepMind, dijo que la razón principal es que el sistema detecta una gran cantidad de actividades inusuales derivadas de la plataforma Antigravity. Dijo que esta situación ha afectado gravemente la calidad general del servicio.
Según Google, algunos desarrolladores han utilizado herramientas de terceros como OpenClaw para conectarse a modelos Gemini, un comportamiento que se considera una violación de los términos de uso.
La empresa dijo que es necesario bloquear rápidamente el acceso de las cuentas que utilizan el servicio para fines incorrectos para garantizar que los recursos para los usuarios sean válidos.
Sin embargo, la compañía también admitió que hay usuarios que no saben que esto viola la política y se comprometió a ayudarles a restaurar el acceso en algunos casos.
No solo Google, la empresa AI Anthropic también actualizó recientemente los términos del servicio para prohibir claramente el uso del código de notificación OAuth de la cuenta de Claude en herramientas de terceros, incluido OpenClaw.
Una medida similar de muchas empresas muestra una tendencia a endurecer el control del ecosistema de IA, en un contexto de competencia cada vez más feroz entre las plataformas tecnológicas.
OpenClaw es una forma de "agente de IA" capaz de realizar automáticamente muchas tareas en lugar del usuario, como administrar correos electrónicos, transacciones de seguros o facturar vuelos.
Esta herramienta rápidamente atrajo una gran atención después de su lanzamiento a finales de 2025, con más de 100.000 etiquetas de estrella en GitHub y millones de accesos en poco tiempo.
Sin embargo, la fuerte capacidad de automatización también preocupa a las agencias de gestión y a las empresas de tecnología.
Algunas advertencias dicen que si la configuración no es correcta, los agentes de IA de código abierto pueden causar riesgos de seguridad, revelar datos personales o crear oportunidades para ciberataques.
Peter Steinberger, desarrollador del framework Antigravity, criticó la medida de Google como demasiado dura y dijo que podría dejar de apoyar el proyecto.
Mientras tanto, el CEO de OpenAI, Sam Altman, anunció que Steinberger se unirá a la empresa para desarrollar una nueva generación de asistentes virtuales, mientras que OpenClaw seguirá existiendo como un proyecto de código abierto compatible.
El incidente de esta vez muestra que la carrera de la IA no solo se lleva a cabo en la tecnología, sino también en el control del ecosistema, cuando las grandes empresas están reforzando cada vez más el acceso para proteger sus recursos y beneficios comerciales.