El 28 de abril de 2026, Google firmó un contrato con el Pentágono que autoriza al Departamento de Defensa de Estados Unidos a usar sus modelos de inteligencia artificial para tareas clasificadas, bajo la fórmula de “cualquier fin gubernamental lícito”. El acuerdo, valuado en unos USD 200 millones según reportes del sector, fue firmado el mismo día en que más de 600 empleados de la empresa le enviaron una carta abierta al CEO Sundar Pichai pidiéndole que rechazara exactamente eso.
En 30 segundos
- Google firmó el 28 de abril de 2026 un contrato de ~USD 200M con el Pentágono para uso de sus modelos IA en tareas clasificadas.
- Más de 600 empleados, incluyendo investigadores de DeepMind y más de 20 directores y VPs, enviaron una carta de protesta el mismo día de la firma.
- El contrato permite “cualquier uso gubernamental lícito”, pero los expertos legales advierten que las cláusulas de seguridad no tienen peso vinculante.
- A diferencia de OpenAI, Google aceptó ajustar sus filtros de seguridad a pedido del gobierno; Anthropic, en cambio, fue descontratada en febrero de 2026 por negarse a ciertas exigencias.
- En redes clasificadas, Google no puede monitorear cómo el Pentágono usa sus modelos en la práctica.
¿Qué es el acuerdo entre Google y el Pentágono?
El acuerdo Google acuerdo Pentágono IA es un contrato entre Google y el Departamento de Defensa de Estados Unidos que da acceso a las fuerzas armadas y agencias gubernamentales a los modelos de inteligencia artificial de Google, incluyendo Gemini, para operaciones clasificadas. La cláusula central es amplia y deliberadamente vaga: el gobierno puede usar los modelos para “cualquier fin gubernamental lícito”, lo que en la práctica cubre casi todo.
El monto reportado ronda los USD 200 millones, según fuentes del sector. Los detalles completos del contrato están bajo acuerdo de confidencialidad y Google no los confirmó públicamente.
Lo que sí trascendió, según The Decoder citando a The Information, es que el acuerdo incluye supuestas salvaguardas contra vigilancia masiva y armas autónomas totales. El problema, como veremos, es que esas salvaguardas no valen el papel en que están escritas.
La protesta interna: 600 empleados, el mismo día
El timing fue brutal. Justo cuando Google cerraba el trato con el Pentágono, más de 600 empleados de la compañía, entre ellos investigadores de DeepMind y más de 20 directores y vicepresidentes, enviaron una carta abierta a Sundar Pichai. El mensaje era directo: “Queremos que la IA beneficie a la humanidad; no queremos verla usada de forma inhumana o dañina.”
Pedían específicamente que Google rechazara cualquier colaboración clasificada con el Departamento de Defensa.
¿Y qué hizo Google? Firmó el mismo día.
La carta, reportada por The Washington Post y otros medios, no es la primera protesta interna de este tipo en la empresa. En 2018, empleados ya habían forzado a Google a no renovar el Proyecto Maven, un contrato anterior con el Pentágono para análisis de imágenes de drones. Aquella vez, la protesta funcionó. Esta vez, claramente no.
¿En qué tareas clasificadas podría usarse la IA de Google?
Acá viene lo bueno, o lo preocupante según desde dónde lo mirés.
Ponele que el Pentágono quiere usar Gemini para analizar imágenes satelitales y generar listas de objetivos militares potenciales. O para planificar rutas de misión basándose en datos de inteligencia clasificados. O para cruzar millones de registros de comunicaciones y detectar patrones. Todo eso entraría dentro de “cualquier fin gubernamental lícito”, según el lenguaje del contrato.
Las preocupaciones concretas que los empleados mencionaron en su carta incluyen: selección de blancos militares, planificación ofensiva, vigilancia masiva doméstica, y sistemas de armas con mínima supervisión humana. Son exactamente los casos de uso que el contrato, en teoría, debería excluir. Pero hay un problema técnico serio: cuando el Pentágono usa los modelos dentro de redes clasificadas, Google queda afuera del loop. No puede monitorear qué se hace con sus sistemas.
Las garantías de seguridad: ¿realmente protegen algo?
Google intentó incluir cláusulas que prohíben la vigilancia masiva y el desarrollo de armas “completamente autónomas”. Suena bien en el papel. El problema es que expertos en derecho consultados por varios medios señalaron que esas cláusulas no tienen peso legal vinculante: el contrato explícitamente establece que Google no tiene derecho a controlar ni vetar decisiones operativas del gobierno. Si el Pentágono decide que cierto uso es “lícito”, puede hacerlo.
Eso transforma las garantías en algo parecido a poner “no usar para daño” en los términos de servicio de una red social. Todo el mundo acepta, nadie lo cumple, y el que puso la cláusula no tiene cómo hacerla valer.
Lo que distingue a Google de su competencia más cercana en este rubro es aún más revelador: Google aceptó ajustar sus filtros de seguridad a pedido del gobierno. No hay otra forma de leerlo.
Google vs. OpenAI vs. Anthropic: tres estrategias distintas
No todas las empresas de IA tomaron el mismo camino frente al Pentágono, y las diferencias dicen bastante.
| Empresa | Estado del acuerdo | Control de seguridad | Resultado |
|---|---|---|---|
| OpenAI | Acuerdo firmado (marzo 2026) | Mantuvo control total de su stack de seguridad | Contratada, filtros propios vigentes |
| Acuerdo firmado (28 abril 2026) | Acepta ajustar filtros a pedido del gobierno | Contratada, USD ~200M | |
| Anthropic | Descontratada (febrero 2026) | Se negó a ciertas exigencias del Pentágono | Calificada como “riesgo de cadena de suministro” |

OpenAI firmó un acuerdo similar en marzo de 2026, pero retuvo el control sobre sus propias decisiones de seguridad: el gobierno puede usar sus modelos, pero OpenAI mantiene qué pasa con el stack de salvaguardas. Google eligió flexibilidad total, adaptando los filtros según lo que el cliente pida.
Anthropic tomó la decisión opuesta: se negó a ciertas demandas del Pentágono y fue descartada. El Departamento de Defensa la catalogó como un “riesgo de cadena de suministro” (sí, en serio), lo que básicamente significa que una empresa que pone límites éticos queda fuera del negocio de defensa.
¿Alguien verificó de forma independiente que las cláusulas de OpenAI realmente protegen lo que dicen proteger? Todavía no. Pero al menos sobre papel, la diferencia con Google es concreta.
La postura oficial de Google: lo que se sabe y lo que no
Google no confirmó públicamente los detalles del acuerdo. El monto, el alcance exacto, las cláusulas específicas, ninguna de esas cosas fue comunicada oficialmente. Todo lo que se sabe viene de reportes de The Information citando fuentes anónimas, y de cobertura de medios como The Washington Post y La Nación.
Esto genera una tensión curiosa. Google tiene desde 2018 un código de conducta de IA que incluye principios éticos, entre ellos evitar usos que “causen daño”. Ese mismo código llevó al abandono del Proyecto Maven. Ocho años después, la empresa firmó un contrato clasificado con el ejército más poderoso del mundo, sin control sobre el uso final de sus modelos, y sin decir nada al respecto públicamente.
La narrativa de Google como compañía con principios éticos de IA, la verdad, viene bastante floja con este episodio.
El contexto más amplio: carrera por IA militar en 2026
Este acuerdo no es un evento aislado. La administración Trump viene consolidando desde inicios de 2026 una estrategia de concentrar capacidades de IA en el sector de defensa, con contratos clasificados con OpenAI, xAI (la empresa de Elon Musk), y ahora Google. La lógica es geopolítica: si China avanza en IA militar, Estados Unidos quiere ventaja asegurada, y el camino más rápido es contratar a los mejores modelos del mercado.
El problema es que esto establece un precedente sobre qué se puede pedir a una empresa de IA y qué pasa si se niega: Anthropic dijo que no a ciertas condiciones y quedó afuera. Eso manda un mensaje claro al resto del sector: si querés hacer negocios con defensa, la flexibilidad tiene un precio, y ese precio se llama “ajustá los filtros cuando te lo pedimos”.
Para cualquier organización que use servicios cloud de Google (y si usás Gmail, Google Workspace, Google Cloud, o cualquier producto de la empresa, eso te incluye), la pregunta que queda flotando es qué significa que los modelos en los que confiás para tareas cotidianas sean los mismos que el Pentágono puede usar en redes clasificadas con salvaguardas ajustables. Si tu empresa tiene contratos de infraestructura en la nube, puede ser un buen momento para revisar los términos.
Qué está confirmado / Qué todavía no está claro
- Confirmado: Google firmó un contrato con el Pentágono el 28 de abril de 2026 que incluye acceso a modelos IA para tareas clasificadas.
- Confirmado: Más de 600 empleados enviaron una carta de protesta el mismo día.
- Confirmado: El contrato usa la fórmula “cualquier fin gubernamental lícito” como alcance.
- Confirmado: Google aceptó ajustar filtros de seguridad a pedido del gobierno, a diferencia de OpenAI.
- No confirmado oficialmente: El monto exacto del contrato (se reporta ~USD 200M).
- No confirmado: Los casos de uso específicos habilitados dentro de redes clasificadas.
- No confirmado: Si Google tiene algún mecanismo de auditoría sobre el uso real dentro de redes del Pentágono.
Errores comunes al interpretar este tipo de acuerdos
Error 1: “Las cláusulas de seguridad garantizan que no habrá uso indebido.” No. Como señalaron expertos legales, el contrato explícitamente excluye el derecho de Google a vetar decisiones operativas del gobierno. Una cláusula que el firmante no puede hacer cumplir no es una garantía, es decoración.
Error 2: “Si Google accedió, debe ser seguro porque ellos tienen sus propios principios de IA.” Los principios son voluntarios. Un contrato con el Departamento de Defensa tiene condiciones distintas, algunas de las cuales quedan fuera del alcance de los principios públicos de la empresa. La firma de este acuerdo no valida ni invalida esos principios, simplemente los hace irrelevantes para este contexto específico.
Error 3: “Esto solo afecta a operaciones militares, no tiene impacto en usuarios normales.” Los modelos que el Pentágono usa son los mismos que están disponibles comercialmente. Cualquier ajuste en los filtros de seguridad que Google haga para el gobierno no necesariamente queda contenido en una versión separada; la arquitectura subyacente es compartida. Además, el precedente que establece este contrato sobre qué puede pedir un cliente grande sí afecta a cualquier usuario corporativo.
Preguntas Frecuentes
¿Qué es exactamente el acuerdo entre Google y el Pentágono?
Es un contrato firmado el 28 de abril de 2026 valuado en aproximadamente USD 200 millones que da al Departamento de Defensa de Estados Unidos acceso a los modelos de IA de Google, incluyendo Gemini, para tareas clasificadas. La cláusula de uso cubre “cualquier fin gubernamental lícito”, sin restricciones operativas que Google pueda hacer cumplir.
¿Por qué 600 empleados de Google se opusieron al acuerdo con el Pentágono?
Más de 600 empleados, incluyendo investigadores de DeepMind y más de 20 directores y VPs, firmaron una carta abierta pidiendo a Sundar Pichai que rechazara colaboraciones clasificadas con el ejército. Sus preocupaciones específicas incluyen la selección de objetivos militares, vigilancia masiva y el desarrollo de armas autónomas con mínima supervisión humana. La carta fue enviada el mismo día en que Google firmó el contrato.
¿Qué diferencia hay entre el acuerdo de Google y el de OpenAI con el Pentágono?
OpenAI firmó un acuerdo similar en marzo de 2026 pero retuvo el control total sobre sus propias decisiones de seguridad. Google, en cambio, aceptó ajustar sus filtros de seguridad a pedido del gobierno. Para expertos en el sector, esa diferencia es sustancial: significa que las salvaguardas de Google son modificables por el cliente, las de OpenAI no.
¿Por qué Anthropic quedó fuera de los contratos de defensa?
Anthropic fue descontratada por el Pentágono en febrero de 2026 después de negarse a cumplir ciertas exigencias del Departamento de Defensa. El Pentágono la catalogó como “riesgo de cadena de suministro”, una etiqueta que básicamente significa que una empresa que pone condiciones éticas no es un proveedor confiable para uso militar.
¿Puede Google controlar cómo el Pentágono usa sus modelos en redes clasificadas?
No. Cuando los modelos se despliegan en redes clasificadas del gobierno, Google queda fuera del acceso de monitoreo. No puede auditar en tiempo real qué consultas se hacen, qué outputs se generan ni si el uso se ajusta a las cláusulas del contrato. Esa es precisamente la razón por la que los expertos legales consideran que las salvaguardas incluidas no tienen peso vinculante real.
Conclusión
Lo que pasó el 28 de abril de 2026 no es solo una noticia sobre un contrato gubernamental. Es una señal sobre hacia dónde va el sector de IA cuando los valores declarados chocan con contratos de nueve cifras. Google eligió firmar, ajustar filtros a pedido, y hacerlo en silencio. Anthropic eligió no hacerlo y quedó afuera del mercado de defensa. OpenAI encontró un punto medio, al menos en los documentos.
El precedente que queda es este: la “IA ética” tiene un precio, y ese precio resulta negociable cuando el comprador es el Pentágono. Para cualquier equipo de tecnología que esté evaluando proveedores de IA o plataformas cloud para sus organizaciones, este tipo de decisiones corporativas forman parte del due diligence que hay que hacer.
Dicho esto, el impacto concreto en el corto plazo para la mayoría de los usuarios de Google es probablemente bajo. Lo que importa es el patrón: qué están dispuestas a ceder las grandes empresas de IA cuando la presión y el dinero son suficientes.
Fuentes
- The Decoder — Google signs AI deal with the Pentagon, ignoring protest from over 600 employees
- The Washington Post — Google employees letter AI Pentagon
- Ecosistema Startup — Google firma contrato de $200M con Pentágono para IA
- Infobae — Casi 600 empleados de Google piden rechazar la IA en actividades militares clasificadas
- La Nación — Trabajadores de Google piden que el Pentágono no use su IA para trabajos clasificados
