Google restringe el acceso a su IA interna Agent Smith ante la avalancha de uso

Última actualización: marzo 29, 2026
Autor: Isaac
  • Google prueba internamente Agent Smith, un agente de IA capaz de programar de forma autónoma sobre la plataforma Antigravity.
  • El acceso se ha limitado por el uso masivo de empleados que enviaban tareas de codificación incluso desde el móvil.
  • La dirección presiona para que se adopten estas herramientas: el uso de IA influye ya en evaluaciones de rendimiento.
  • La mitad del nuevo código de Google estaría ya generado por agentes de IA, en un contexto de fuerte competencia con otros gigantes tecnológicos.

Herramienta de IA interna de Google

En las últimas semanas, Google ha tenido que poner freno al acceso a su sistema de inteligencia artificial interna después de que miles de empleados empezaran a utilizarlo de forma masiva para automatizar tareas de programación y otras gestiones técnicas. La herramienta, conocida dentro de la compañía como Agent Smith, se ha convertido en un pequeño secreto a voces en los pasillos de la multinacional.

Lo que empezó como una prueba interna limitada ha terminado convirtiéndose en un experimento de productividad a gran escala, hasta el punto de saturar la infraestructura destinada a este agente de IA. La empresa mantiene un discurso prudente en público, pero el nivel de adopción interna y las restricciones de acceso evidencian que este tipo de sistemas ya no son una simple curiosidad tecnológica.

Qué es Agent Smith y por qué Google ha limitado su uso

Agent Smith es, en esencia, un agente de inteligencia artificial diseñado para trabajar de manera autónoma dentro del ecosistema interno de Google. No se trata solo de un asistente que completa líneas de código mientras el desarrollador escribe, sino de un sistema capaz de recibir una instrucción compleja, dividirla en tareas más pequeñas, generar el código necesario, ejecutarlo, detectar errores, corregirlos y entregar el resultado final.

Según la información filtrada, los empleados pueden interactuar con Agent Smith como si se tratase de un compañero más, enviándole instrucciones a través de las herramientas de chat corporativas o incluso desde el móvil. El trabajador describe lo que necesita y el agente se encarga de realizar el trabajo en segundo plano, sin supervisión constante.

Esta autonomía ha provocado que muchos ingenieros deleguen bloques enteros de desarrollo en la IA: pueden irse a otra reunión, dedicarse a revisar otras partes del proyecto o incluso desconectar por la noche, esperando encontrarse con el trabajo terminado al volver. La revisión humana se concentra en el tramo final, cuando el resultado ya está sobre la mesa.

La popularidad del sistema ha ido creciendo hasta tal punto que, de acuerdo con las filtraciones internas, Google se ha visto obligado a restringir el acceso para evitar que la demanda disparada terminara afectando al rendimiento de los servidores destinados a Agent Smith. No se trata, por tanto, de una limitación por motivos de seguridad pública o estrategia externa, sino de una forma de contener el uso interno ante un interés desbordado.

La tecnología que hay detrás: Antigravity y la red de sistemas internos

Para que Agent Smith funcione de esta manera tan flexible, Google se apoya en una plataforma interna previa llamada Antigravity, que actúa como base para la creación y coordinación de agentes de IA dentro de la compañía. Sobre esta infraestructura se construyen las capacidades avanzadas de este nuevo sistema.

El agente puede acceder a diferentes herramientas y fuentes de información internas, incluyendo sistemas corporativos, documentación técnica e incluso ciertos perfiles de empleados, siempre dentro del entorno cerrado de Google. Esa integración le permite recopilar los datos necesarios para completar encargos complejos que van mucho más allá de un simple fragmento de código.

Otro aspecto clave es que la interfaz de uso no obliga a los trabajadores a cambiar su forma de trabajar. Agent Smith se integra en los canales de comunicación ya existentes, de manera que el ingeniero se limita a enviarle un mensaje como lo haría con cualquier otra persona del equipo. El agente responde con análisis, propuestas de solución o directamente con el código generado y probado.

Fuentes internas apuntan a que, además de escribir programas, este tipo de agentes también pueden rastrear documentación confidencial autorizada, preparar respuestas a correos electrónicos y automatizar flujos de trabajo más amplios, siempre dentro de los límites técnicos y de seguridad que marque la empresa. Aunque no se ha detallado públicamente en qué lenguajes programa o con qué nivel de calidad exacto, la adopción masiva sugiere que el rendimiento está siendo, al menos, suficientemente convincente para los equipos técnicos.

Presión desde la cúpula: usar la IA ya no es opcional

El despliegue de Agent Smith no se produce en el vacío. Los máximos responsables de Google llevan meses empujando a la plantilla a incorporar la inteligencia artificial en su trabajo diario. Según distintas fuentes, ya el año pasado algunos ingenieros fueron informados de que se esperaba que utilizaran herramientas de IA para programar como parte normal de sus funciones.

Con el paso del tiempo, ese mensaje se ha ido endureciendo. A ciertos empleados se les ha comunicado que la adopción de soluciones de IA influirá en sus evaluaciones de desempeño, convirtiendo el uso de estas tecnologías en un criterio más a la hora de valorar la carrera profesional interna. En la práctica, moverse al margen de estos sistemas puede empezar a salir caro.

En reuniones internas, figuras tan relevantes como Sergey Brin han defendido públicamente el papel central que tendrán estos agentes en el futuro inmediato de la compañía. Se ha llegado a comentar que algunas respuestas a correos electrónicos de alto nivel ya estaban siendo preparadas por la propia IA sin que los destinatarios lo notaran, ilustrando hasta qué punto se pretende normalizar este tipo de automatización.

En paralelo, la compañía impulsa iniciativas internas como el llamado Project EAT, orientadas a estandarizar la forma en que se introducen y gestionan las herramientas de IA en toda la organización. A diferencia de las decisiones puramente verticales, este tipo de proyectos combinan indicaciones desde la dirección con propuestas que llegan desde equipos de infraestructura y otros departamentos técnicos.

Oficialmente, los portavoces de la empresa mantienen un tono prudente y repiten que Google solo está “experimentando” con nuevas formas de agentes y que, por ahora, no tienen nada específico que anunciar de cara al público general. Sin embargo, la realidad interna apunta a un proceso mucho más avanzado de lo que dejan entrever esos mensajes.

Un cambio profundo en la forma de programar dentro de Google

Las filtraciones también reflejan hasta qué punto la producción de código en Google se está transformando. En las últimas comunicaciones con inversores, la compañía ha indicado que aproximadamente la mitad del nuevo código que se genera ya provendría de agentes de inteligencia artificial, no solo de herramientas pasivas que completan líneas, sino de sistemas capaces de llevar proyectos enteros de principio a fin.

Este dato cobra relevancia al compararlo con cifras anteriores: en el último año el porcentaje de código generado por IA ha crecido de manera muy rápida, pasando de niveles claramente minoritarios a convertirse en una parte sustancial del desarrollo interno. Para los equipos técnicos, esto plantea un escenario en el que el papel del ingeniero cambia: menos tiempo “picando” código y más tiempo supervisando, definiendo objetivos y revisando resultados.

Agent Smith encaja en esta nueva lógica. El programador formula lo que quiere conseguir, el agente construye y prueba la solución, y la persona se reserva para tareas de validación, ajuste fino y decisiones de arquitectura. Esa reasignación de responsabilidades abre también debates sobre calidad, seguridad y responsabilidad en caso de errores, aspectos que aún están lejos de estar completamente resueltos.

Al mismo tiempo, no todos los empleados se mueven al mismo ritmo en la adopción de estas herramientas. Estudios citados en medios internacionales, elaborados con participación de Google, apuntan a que solo una minoría de trabajadores puede considerarse realmente fluida en el uso de la IA, es decir, capaz de reorganizar de raíz su manera de trabajar para sacar todo el partido posible a estos sistemas.

La compañía, sin embargo, parece dispuesta a acortar esa brecha a golpe de incentivos y presión interna. Convertir el uso de la IA en un estándar implícito puede acelerar el aprendizaje, pero también genera inquietud entre quienes temen quedar rezagados o ver cómo ciertas tareas tradicionales pierden peso en la valoración del rendimiento.

Competencia feroz y discurso público prudente

El desarrollo de Agent Smith y de otros agentes similares se enmarca en una carrera abierta entre los grandes nombres de la tecnología por liderar la próxima generación de asistentes de IA. Meta, por ejemplo, trabaja en sus propios sistemas capaces de ayudar en la gestión de la empresa y automatizar tareas sin supervisión constante, mientras que Microsoft impulsa el uso obligatorio de IA en muchas áreas de su organización.

En este contexto, la prisa de Google por desplegar agentes internos autónomos no es casual. Se trata de mantener una posición de ventaja en un terreno donde la velocidad de adopción puede ser tan importante como la calidad de los modelos. Quien logre integrar antes estas herramientas en sus flujos de trabajo puede ganar puntos en productividad, costes y capacidad de innovación.

Pese a ello, hacia el exterior el mensaje sigue siendo comedido. Los portavoces restan importancia al alcance real de estas pruebas, insistiendo en que son iniciativas exploratorias sin anuncios inminentes orientados al público general o a los clientes empresariales en Europa y el resto del mundo. La compañía es consciente de que cualquier paso en falso puede levantar recelos regulatorios, especialmente en territorios donde el debate sobre la IA y la protección de datos está muy vivo.

Algunos observadores señalan que la restricción de acceso a Agent Smith por “exceso de demanda” también podría enmascarar otras preocupaciones, desde la necesidad de pulir fallos técnicos hasta la voluntad de evitar filtraciones prematuras sobre las capacidades reales del sistema. Con todo, el hecho de que haya sido necesario limitar su uso es ya una señal de lo rápido que esta tecnología se ha colado en la rutina de los empleados.

Lo que sí parece claro es que, mientras al exterior se mantiene un tono de cautela, en el interior de la compañía se vive un proceso de transformación acelerada donde los agentes de IA dejan de ser experimentos aislados para convertirse en piezas estructurales del funcionamiento diario.

En conjunto, la historia de Agent Smith muestra cómo Google está utilizando sus propias oficinas como laboratorio para una nueva generación de inteligencia artificial que no solo responde preguntas, sino que asume trabajo real de forma autónoma. La combinación de entusiasmo interno, presión desde la dirección y límites técnicos visibles en forma de restricciones de acceso dibuja un escenario en el que el futuro del trabajo, al menos dentro de la empresa, pasará cada vez más por negociar la colaboración entre personas y agentes de IA capaces de escribir código, gestionar tareas y moverse con soltura por los sistemas internos sin que nadie esté mirando constantemente por encima del hombro.

alternativa a Discord TeamSpeak
Artículo relacionado:
Alternativas a Discord y TeamSpeak para comunidades y gamers