Los agentes IA de Google se filtraron: qué pueden hacer

Los agentes de IA de Google se filtraron antes de tiempo y lo que muestran es más ambicioso de lo que nadie esperaba: sistemas que controlan tu navegador, reorganizan tu bandeja de entrada, escriben código mientras dormís, y toman decisiones sin pedirte confirmación. Todo eso, corriendo ya en beta.

En 30 segundos

  • Project Mariner (antes Jarvis) es una extensión de Chrome que toma screenshots, reconoce la pantalla y hace clicks por vos: reserva vuelos, completa formularios, navega sitios.
  • Gemini Spark, filtrado en mayo de 2026, tiene acceso a Gmail, Calendar, Docs y tu ubicación para crear resúmenes de reuniones, limpiar tu inbox y armar flujos de trabajo personalizados.
  • Agent Smith ya genera el 50% del código nuevo interno de Google. Los agentes trabajan en paralelo mientras los ingenieros duermen.
  • Google detectó un aumento del 32% en ataques de inyección de prompts contra agentes entre noviembre de 2025 y febrero de 2026.
  • La arquitectura Gemini Enterprise usa cuatro pilares: Build, Scale, Govern y Optimize, con más de 200 modelos disponibles en Model Garden a mayo de 2026.

Qué son los agentes de IA: definición técnica

Un agente de IA es un sistema autónomo que razona, planifica y ejecuta tareas con mínima intervención humana, a diferencia de un chatbot que solo responde preguntas. Recibe un objetivo, descompone los pasos necesarios para lograrlo, usa herramientas externas (APIs, navegadores, bases de datos), evalúa los resultados de cada paso y ajusta su plan si algo no funciona.

La diferencia con un chatbot común es brutal. Si le pedís a un chatbot “reservame un vuelo a Buenos Aires”, te devuelve instrucciones. Si le pedís lo mismo a un agente de IA con acceso al navegador, lo reserva.

Eso es exactamente lo que Google está construyendo con los agentes IA Google que se filtraron en las últimas semanas.

Project Jarvis/Mariner: el agente que toma el control del navegador

Ponele que necesitás comprar un pasaje, llenar un formulario de presupuesto o registrarte en diez plataformas distintas. Hoy lo hacés vos, a mano, paso por paso. Project Mariner lo hace por vos. Para más detalles técnicos, mirá cómo Google optimiza el contenido con IA.

La filtración original ocurrió en octubre de 2024 bajo el nombre Project Jarvis. Lo que se filtró era una extensión de Chrome que toma capturas de tu pantalla, las procesa con reconocimiento visual, identifica botones y campos, y después hace los clicks y escribe el texto necesario para completar la tarea. Sin emulación de browser, sin APIs especiales: visual recognition directo sobre lo que está en pantalla, igual que haría un humano.

Hoy se llama Project Mariner y está en fase beta. Según el reporte de Inc., los casos de uso confirmados incluyen reservas de vuelos, compras online y búsquedas complejas. El agente no solo navega: entiende el contexto visual de cada página y decide qué acción tiene más sentido en cada momento.

¿Y cuándo se equivoca? Esa es la pregunta que Google no ha respondido todavía.

Gemini Spark: el agente cotidiano en tu app

El 14 de mayo de 2026 aparecieron screenshots de una pantalla de onboarding de Gemini Spark. Según 9to5Google, que analizó el leak en detalle, las capacidades listadas en esa pantalla incluyen:

  • Reorganizar y limpiar tu bandeja de entrada (Gmail)
  • Crear un resumen de noticias personalizado según tus intereses
  • Generar “meeting briefs” antes de cada reunión
  • Crear “skills” o flujos de trabajo para tareas que repetís seguido
  • Acceso a Gmail, Google Docs, Calendar, Chrome y tu ubicación

La integración con Google Workspace es nativa. No es un plugin que se conecta por OAuth con permisos limitados: el agente tiene acceso real al ecosistema completo de Google. Eso lo hace poderoso. También lo hace potencialmente problemático (más sobre eso en un momento).

Lo interesante es que Gemini Spark no apunta a developers. Está diseñado para el usuario de todos los días que usa Google como plataforma central de trabajo. La “inteligencia” no está en que resuelva problemas técnicos complejos: está en que conoce tu contexto, tus reuniones, tus mails y tu agenda, y puede tomar decisiones informadas con esa data.

Arquitectura interna: cómo razonan y actúan los agentes de Google

Detrás de Mariner y Spark hay una plataforma empresarial completa. Según la documentación oficial de Google Cloud, la Gemini Enterprise Agent Platform tiene cuatro pilares:

  • Build: Agent Studio, un canvas visual para diseñar flujos de trabajo de agentes sin código
  • Scale: Agent Runtime, el motor de ejecución que escala horizontalmente
  • Govern: Agent Identity, sistema de permisos granulares para controlar qué puede hacer cada agente
  • Optimize: ADK (Agent Development Kit), el framework modular para developers

El sistema usa el protocolo A2A (Agent-to-Agent) para que múltiples agentes especializados se comuniquen entre sí. Pensalo como microservicios, pero para IA: un agente que gestiona el calendario le pasa contexto a otro que redacta correos, que le pasa datos a otro que genera el resumen ejecutivo. Te puede servir nuestra cobertura de herramientas IA para desarrollo a escala.

Model Garden tiene más de 200 modelos disponibles a mayo de 2026. No todo corre sobre Gemini: la arquitectura está diseñada para ser modular y mixta.

Capacidades que sorprendieron a la industria

Hay tres datos que la gente no terminó de procesar cuando salieron:

Primero: Agent Smith, el agente interno de Google para generación de código, ya produce el 50% del código nuevo que se escribe en Google. No asiste a los developers. Genera la mitad del código. Según Infobae Tech, los agentes trabajan en paralelo mientras los ingenieros duermen, literalmente.

Segundo: Wendy’s implementó un Ordering Agent en 2025 que empezó en 1 restaurante y se expandió a 35. No es un demo de laboratorio: es un caso productivo en uno de los sistemas de pedidos más voluminosos del mundo.

Tercero, y el que más me llama la atención: algunos flujos no requieren confirmación humana. El agente completa la tarea de principio a fin. Eso es autonomía real, no asistencia. Y ahí es donde la conversación se complica.

Vulnerabilidades de seguridad: la otra cara de los leaks

Acá viene lo bueno (en el mal sentido).

SafeBreach demostró en pruebas controladas que un agente como Gemini puede ser manipulado a través de lo que se llama inyección de prompts indirecta. El escenario es así: el agente lee un correo, un PDF o una página web que tiene instrucciones camufladas dentro del contenido, y las ejecuta como si fueran órdenes legítimas del usuario. Una invitación de calendario maliciosa puede hacer que el agente filtre datos de otros eventos, contactos o documentos adjuntos. Según BleepingComputer, el ataque fue demostrado con éxito en el ecosistema de Google.

¿Alguien verificó qué tan difícil es ejecutarlo fuera de un lab controlado? Todavía no de forma pública.

Lo que sí está documentado: Google detectó un aumento del 32% en “prompt injection traps” entre noviembre de 2025 y febrero de 2026. Son sitios web y documentos diseñados específicamente para engañar a agentes de IA. El ecosistema de ataques creció casi un tercio en tres meses. La alianza Five Eyes identificó 23 vectores de riesgo distintos en cinco categorías para sistemas agénticos.

El problema estructural es que un agente con acceso real a tu Gmail, Calendar y Docs tiene mucha más superficie de ataque que un chatbot que solo responde en texto. Si lográs que el agente ejecute una instrucción falsa, no te devuelve un texto incorrecto: toma acciones reales en sistemas reales. Tema relacionado: lo que están logrando las IA en visión.

Gemini Spark vs Claude vs la competencia: qué hace cada uno mejor

CaracterísticaGemini Spark (Google)Claude (Anthropic)
Contexto de tokens1M tokens (beta)200K tokens (standard)
Integración nativaGmail, Docs, Calendar, ChromeAgnóstico de plataforma
Visual recognitionNativa (Mariner)Multimodal, sin control de browser nativo
Enfoque de seguridadAgent Identity + permisos granularesConstitutional AI, instrucciones duras
Razonamiento profundoGemini 2.5 ProClaude Opus 4.7 (pensamiento extendido)
Autonomía en tareasAlta (sin confirmación en algunos flujos)Configurable, por defecto más conservador
Modelo de preciosWorkspace + API (variable)API por tokens + planes fijos
agentes ia google diagrama explicativo

La diferencia más clara: Gemini Spark excela cuando tu stack es 100% Google. Si vivís en Workspace, la integración nativa no tiene competencia. Claude, en cambio, tiene mejor razonamiento en tareas complejas de análisis y es más fácil de auditar en términos de comportamiento. Ninguno es mejor en absoluto: depende de qué estás queriendo hacer.

Qué significa esto para empresas en Latinoamérica

Si tu empresa ya usa Google Workspace, estos agentes van a llegar de forma gradual, probablemente sin que tengas que activar nada. La pregunta que tendrías que hacerte ahora no es “¿lo adopto?” sino “¿qué permisos le voy a dar y a qué datos?”

El modelo de Agent Identity permite permisos granulares, pero alguien tiene que configurarlos. Si dejás los defaults, el agente puede tener acceso a más de lo que querés que tenga. Para equipos pequeños que no tienen un equipo de seguridad dedicado, eso es un riesgo real que se puede mitigar con configuración básica.

Para infraestructura y hosting de los sistemas que van a conectarse con estas APIs, si estás evaluando opciones, donweb.com tiene planes de cloud con buena latencia para la región y soporte en español.

Qué está confirmado y qué todavía no

AfirmaciónEstado
Project Mariner en beta con control de ChromeConfirmado por Google
Gemini Spark con acceso a Gmail y CalendarFiltrado en pantallas de onboarding (mayo 2026)
Agent Smith genera 50% del código de GoogleConfirmado por Sundar Pichai en Q1 2026
Wendy’s Ordering Agent en 35 restaurantesConfirmado por Google Cloud blog
Fecha de lanzamiento general de Gemini SparkSin confirmar
Precios para usuarios individualesSin confirmar
Capacidades offline o sin conexiónSin confirmar
Efectividad real en producción de MarinerSolo datos internos de Google (no verificado externamente)

Errores comunes al evaluar esta tecnología

Error 1: confundir “agente” con “chatbot más capaz”. Un chatbot genera respuestas. Un agente ejecuta acciones. La diferencia no es de grado: es de naturaleza. Si usás un agente como si fuera un chatbot, vas a infrautilizarlo. Si lo tratás como un chatbot y le das permisos de agente, tenés un problema de seguridad.

Error 2: asumir que los permisos por defecto son seguros. La arquitectura Agent Identity existe precisamente porque los permisos amplios son peligrosos. Tomalo con pinzas si alguien te dice “activalo y listo”: siempre hay que revisar qué acceso tiene el agente antes de desplegarlo en producción. Lo explicamos a fondo en cómo integrar las APIs de Google.

Error 3: descartarlo porque “todavía está en beta”. Agent Smith ya genera la mitad del código de Google. Wendy’s ya lo usa en 35 locales. El argumento de “beta = no productivo” no aplica acá. Lo que sí es beta es el acceso externo, no la tecnología en sí.

Preguntas Frecuentes

¿Qué es Project Jarvis y en qué se convirtió?

Project Jarvis fue el nombre interno de un agente de Google que se filtró en octubre de 2024. Era una extensión de Chrome capaz de tomar capturas de pantalla, reconocer elementos visuales en la pantalla y ejecutar clicks y escritura de texto de forma autónoma. Hoy se llama Project Mariner y está en fase beta pública, con casos de uso confirmados en reservas online, compras y navegación compleja.

¿Cómo funcionan los agentes de IA autónomos de Google?

Reciben un objetivo en lenguaje natural, lo descomponen en pasos, usan herramientas disponibles (Gmail, Calendar, navegador, APIs externas) para ejecutar cada paso, evalúan el resultado y ajustan si algo falla. El protocolo A2A permite que múltiples agentes especializados colaboren entre sí sin intervención humana en cada etapa. La clave es que no solo responden: toman acciones reales en sistemas reales.

¿Cuáles son los principales riesgos de seguridad en agentes de IA?

El mayor riesgo confirmado es la inyección de prompts indirecta: el agente lee contenido externo (mails, PDFs, páginas web) que contiene instrucciones camufladas y las ejecuta. SafeBreach demostró que una invitación de calendario maliciosa puede hacer que Gemini filtre datos del usuario. Google reportó un crecimiento del 32% en este tipo de ataques entre noviembre de 2025 y febrero de 2026. Cuanto mayor el acceso del agente, mayor la superficie de ataque.

¿Qué diferencia hay entre Gemini Spark y Claude para tareas agénticas?

Gemini Spark tiene integración nativa con todo el ecosistema Google (Gmail, Calendar, Docs, Chrome) y contexto de 1M de tokens en beta, lo que lo hace ideal si tu stack es Workspace. Claude tiene razonamiento más profundo en análisis complejos, 200K tokens en producción estable y un enfoque de seguridad basado en Constitutional AI que es más auditable. Para la mayoría de los equipos, la elección depende de dónde vive su data, no de cuál es “mejor” en abstracto.

¿Cómo se filtraron las capacidades de Gemini Spark?

En mayo de 2026 aparecieron capturas de pantalla de una pantalla de onboarding de Gemini Spark en medios especializados como 9to5Google y letsdatascience.com. Las imágenes mostraban las capacidades listadas para usuarios finales: reorganización de inbox, resúmenes de reuniones, news digest personalizado y creación de “skills”. Google no desmentió las capturas ni confirmó una fecha de lanzamiento pública.

Conclusión

Los agentes de IA de Google no son una promesa a futuro. Son sistemas que ya corren en producción, ya generan la mitad del código interno de la empresa más grande del mundo en búsqueda, y ya se expandieron a cadenas de comida rápida en escala real. Lo que se filtró en mayo de 2026 es la capa que va a llegar al usuario final: integración total con Workspace, autonomía sin confirmación constante, y acceso a datos que ningún chatbot tuvo antes.

El tema es que esa misma potencia hace que los vectores de ataque sean más graves que cualquier vulnerabilidad de chatbot anterior. Si estás en un equipo que usa Google Workspace, la conversación que tenés que tener ahora no es “¿adoptamos agentes IA Google?” sino “¿qué le permitimos hacer y sobre qué datos?” La arquitectura tiene los controles, pero alguien tiene que configurarlos.

Los que esperen a que todo esté “terminado” para evaluarlo probablemente lleguen tarde. Y los que lo despleguen sin revisar los permisos van a aprender la lección de la manera difícil.

Fuentes

Desplazarse hacia arriba