Los data centers de IA pasaron de consumir 49 GW en 2023 a 96 GW en 2026, con la inteligencia artificial representando 40 GW de ese total. A este ritmo, la energía destinada a IA podría alcanzar entre 165 y 326 TWh anuales para 2030, generando una crisis inminente en la capacidad eléctrica global.
En 30 segundos
- Los data centers de IA consumen ahora 40 GW de los 96 GW totales: ese es el 42% de toda la electricidad de los centros de datos mundial, y apenas es 2026.
- Una consulta a ChatGPT usa 10 veces más energía que una búsqueda en Google, pero con 100 millones de usuarios semanales, el volumen agregado es catastrófico.
- La infraestructura eléctrica tarda 10-15 años en expandirse, mientras que GPUs se consiguen en 36-52 semanas: hay un desajuste temporal brutal.
- Microsoft reactivó Three Mile Island, Google contrata plantas de energía nuclear pequeña, Amazon invierte en múltiples startups: la carrera es por energía, no por GPUs.
- Optimizar inferencia reduce el 80-90% del consumo total, pero requiere cambiar modelos, prompts y arquitecturas: no hay solución sin trabajo técnico.
El consumo energético de la inteligencia artificial es el tema que nadie quería tener que resolver en 2026, pero acá estamos. Los grandes modelos de lenguaje, visión y multimodales que todos usamos a diario tienen un costo real en kilovatios-hora que nadie estaba dispuesto a pagar explícitamente hace poco.
El consumo explosivo de energía en data centers de IA
Ponele que sos un administrador de infraestructura eléctrica en Virginia. Hace tres años, los data centers te consumían el 20% de la electricidad regional. Hoy, es el 25% (spoiler: eso no es aumento marginal, es una crisis). Según la Agencia Internacional de Energía, el consumo de energía en data centers pasó de 49 GW globales en 2023 a 96 GW en 2026, con la IA representando 40 GW de ese total.
Para poner en contexto: 40 GW es el consumo eléctrico de aproximadamente 30 millones de hogares. Significa que los data centers de IA, solos, consumen lo que un país como España entera. Y eso es solo el presente. Las proyecciones para 2030 hablan de entre 165 y 326 TWh anuales. Sí, leíste bien: pueden duplicar el consumo en cuatro años.
El contexto global ayuda a dimensionar el quilombo. La electricidad consumida actualmente por IA representa el 1.5% del suministro mundial. Parece poco, ¿no? Excepto que ese porcentaje crece exponencialmente, y que ese 1.5% ya equivale al consumo eléctrico de todo el Reino Unido.
Por qué los modelos de IA requieren tanta electricidad
Aquí está el punto que muchos se pierden: cuando la gente piensa en consumo de IA, pensa en entrenar GPT-4 en una supercomputadora. Eso sí consume barbaridades, pero es un evento puntual. El 80-90% del problema real es la inferencia: cada vez que vos abrís ChatGPT, pedís una imagen en Gemini, usas Claude, o simplemente consultas un modelo en una API, eso es inferencia, y eso es lo que gasta energía a escala.
Déjame ser específico. Una consulta a ChatGPT consume aproximadamente 2.9 Wh (vatios-hora), mientras que una búsqueda en Google consume 0.3 Wh. Eso es 10 veces más. Ahora multiplica: ChatGPT tiene 100 millones de usuarios semanales. Si cada usuario hace 10 consultas por semana, estamos hablando de 29.000 MWh semanales solo en ChatGPT (si es que eso es aceptable).
El contexto técnico: entrenar GPT-3 requirió 1.287 MWh, que es el consumo anual de 370 hogares españoles. Pero eso fue un evento. Inferencia, en cambio, sucede millones de veces por día, todos los días, en todos lados. Subís el modelo, lo probás en local, funciona bárbaro, lo mandás a producción en los servidores de IA de tu empresa y de repente necesitás el doble de energía de la que planeaste.
El modelo más pequeño y más eficiente requiere mínimo 0.24 Wh por consulta (ese es Gemini en Google, que optimizó durante años). Duplicar esa eficiencia requiere reentrenamiento, arquitecturas nuevas, técnicas de compresión. No es trivial. Ya lo cubrimos antes en los últimos modelos de Claude disponibles.
La brecha crítica: GPUs disponibles vs infraestructura eléctrica
Acá viene lo que nadie está diciendo en voz alta: el cuello de botella no es ni siquiera el dinero. Es el tiempo de espera de infraestructura.
Las GPUs tienen un lead time de 36 a 52 semanas. Si vos necesitás una RTX 5090 hoy, te la traen en casi un año (si tenés suerte y alguien la tiene en stock). Pero eso es nada comparado con la infraestructura eléctrica. Una nueva línea de transmisión tarda años en construirse. Una subestación nueva, 3-5 años. Una planta nuclear, 10-15 años. Una planta de energía renovable, 2-5 años, pero intermitente.
El desajuste es brutal. Las startups españolas que trabajan con IA están pagando 50.000 EUR mensuales en computación en la nube porque no pueden conseguir GPUs locales. Los precios se fueron a la estratosfera: una RTX 5090, que nominalmente cuesta 2.000 EUR, se vende en el mercado gris a más de 4.000 EUR (120% de sobreprecio).
Las grandes tech companies se dieron cuenta hace poco: si queremos escalar, no es suficiente comprar chips. Hay que asegurar que haya electricidad. Y hay que asegurarla ahora.
Impacto en las redes eléctricas regionales
Virginia es el caso de estudio perfecto (si es que perfecto significa desastre). Los data centers allá consumen el 25% de la electricidad regional, y los precios de energía al por mayor aumentaron 267% en los últimos cinco años. Las nuevas capacidades de generación están todas comprometidas hasta 2026. No hay más conexiones disponibles para otros usuarios.
Lo interesante es que esto no es específico de Virginia. Irlanda frenó nuevos proyectos de data centers de IA hace poco. Texas, que tiene energía barata, está recibiendo toda la inversión y aún así el grid está bajo presión. En Estados Unidos, los data centers pasaron de consumir el 2% de la electricidad nacional en 2020 al 4% en 2026, y las proyecciones para 2030 hablan de entre 6% y 17% (depende de cuán rápido despleguemos renovables y nucleares). Para más detalles técnicos, mirá estos gigantes computacionales que consumen recursos.
Traducción: si necesitás espacio en un data center de IA en una región con buena infraestructura eléctrica, espera colas largas y precios que suben cada trimestre. Si querés garantía de energía para entrenar o correr modelos, necesitás acordar con la generadora de electricidad directamente.
Soluciones nucleares y renovables emergentes
Las tech companies no son ingenuas. Ven el problema, y están haciendo lo que hacen mejor: tirar dinero y talento al problema.
Microsoft reactivó Three Mile Island Unit 1 (837 MW de capacidad) y se comprometió a comprarle toda la energía a Constellation Energy hasta 2035. Google está contratando con Kairos Power para construir reactores modulares pequeños (SMR) que prometen estar operativos en 3-5 años. Amazon invierte en múltiples startups de energía nuclear descentralizada.
¿Por qué nuclear en lugar de renovables? Porque las renovables son intermitentes. No podés entrenar un modelo de 80 billones de parámetros con energía solar que depende del clima. Necesitás carga base constante, 24/7. Nuclear ofrece eso. El costo operativo es bajo (0.02-0.03 USD por kWh), aunque el capital inicial es astronómico.
Los reactores modulares pequeños (SMR) son la apuesta intermedia: menos inversión que una planta nuclear tradicional (15-20 billones USD en lugar de 20-30), tiempos de construcción más cortos (3-5 años en lugar de 10-15), pero aún así con carga base sólida. El problema es que la tecnología recién está en fase de demostración. El primer SMR comercial se espera que entre en operación en China en 2026 o 2027.
Estrategias de eficiencia energética
La buena noticia: el consumo de IA no es inevitable. Es optimizable.
Google redujo el consumo de energía por consulta en 33 veces en 12 meses, y la huella de carbono en 44 veces. No es magia. Es una combinación de decisiones técnicas sistemáticas:
Primero, modelos pequeños especializados. Si vos necesitás solo clasificación de texto, no uses un modelo general de 70B parámetros. Usa uno de 7B o 2B. Eso reduce el consumo 90%. El trade-off: precisión ligeramente menor, pero muchas aplicaciones no necesitan el máximo.
Segundo, prompts cortos. Cada token de input consume energía. Un prompt de 100 tokens consume menos que uno de 500. Optimizar la forma en que pedís cosas al modelo reduce el consumo 50% en promedio. Las empresas que entendieron esto están cambiando cómo entrenan a sus usuarios a usar IA. Esto se conecta con lo que analizamos en ejecutar modelos de forma local y descentralizada.
Tercero, compresión de modelos. Técnicas como quantización, distilación y pruning reducen el consumo 44% sin perder precisión significativa (si se hace bien). Google ya está usando esto en Gemini.
El punto crítico: el 80-90% del consumo es inferencia. Si optimizás ahí, impactás directamente. No hay que esperar a que cambien los data centers o que construyan plantas nucleares. Podés hacerlo hoy.
Regulaciones y políticas energéticas para IA
La Comisión Europea abrió una consulta pública sobre cómo medir y etiquetar la eficiencia energética de los modelos de IA. La idea es similar a las etiquetas de eficiencia energética en electrodomésticos: transparencia sobre el consumo real.
El problema es que no hay estándares globales aún. ¿Contás solo entrenamiento o también inferencia? ¿Cómo normalizas por precisión? ¿Y quién verifica los datos que reportan las empresas? Estas son preguntas sin respuesta consensuada. La competencia regulatoria entre EU, US y China va a determinar cuál estándar gana.
En algunos estados de US (probablemente Virginia será el primero), se espera que se propongan moratorios en nuevos proyectos de data centers de IA hasta 2027, mientras resuelven el problema de infraestructura eléctrica. Es un movimiento defensivo, no es permanente, pero ilustra cuán real es la preocupación.
Tabla: Opciones de energía para IA en 2026
| Opción | Capacidad | Tiempo de deploy | Costo operativo | Disponibilidad 2026 |
|---|---|---|---|---|
| Energía solar | Variable (1-500 MW) | 2-5 años | 0.05-0.08 USD/kWh | Alta pero intermitente |
| Energía eólica | Variable (2-15 MW turbina) | 2-4 años | 0.04-0.07 USD/kWh | Alta pero intermitente |
| Nuclear tradicional | 1000-1600 MW | 10-15 años | 0.02-0.03 USD/kWh | Baja (en construcción) |
| Reactores modulares (SMR) | 300-800 MW | 3-5 años | 0.03-0.05 USD/kWh | Media (fase demostración) |
| Gas natural | 100-500 MW | 1-2 años | 0.06-0.12 USD/kWh | Muy alta |

Errores comunes que están cometiendo
Error 1: Pensar que es solo un problema de dinero. No es. Es un problema de tiempo y física. No podés construir una planta nuclear en 6 meses porque le ofrezcas 10 billones USD. Hay regulación, hay física, hay supply chain. Las empresas que asumen que “comprando más caro soluciono rápido” van a fracasar.
Error 2: Asumir que las renovables son suficientes. Las renovables son excelentes, pero no para carga base. Si necesitás entrenar modelos 24/7, renovables + baterías sigue siendo intermitente y caro. Los data centers de IA necesitan base power, y eso hoy es nuclear o gas. Donweb.com (si estuviera en Argentina) estaría mirando hidroeléctrica como solución local, pero eso es excepción, no regla. Complementá con generadores de video que requieren potencia.
Error 3: Ignorar que la eficiencia energética es un moat competitivo. Las empresas que optimizan inferencia ahora (Google, Anthropic, startups que se enfocaron en modelos pequeños) van a tener ventaja de costo masiva en 2027-2028. Las que no optimizaron van a estar en una posición defensiva: modelos caros de correr, márgenes reducidos. El mercado va a recompensar eficiencia.
Preguntas Frecuentes
¿Cuánta energía consume entrenar un modelo de IA grande?
Entrenar GPT-3 consumió 1.287 MWh, equivalente al consumo anual de 370 hogares. Entrenar GPT-4 probablemente consumió 3-5 veces más. Pero esto es un evento puntual. El problema real es la inferencia (cada consulta), que sucede millones de veces por día.
¿Qué impacto tiene el consumo de IA en mis facturas de electricidad?
Si usás servicios de IA en la nube (ChatGPT Plus, Claude Pro, API de OpenRouter, etc.), el costo ya está reflejado en lo que pagás. Si operás tu propio data center, el impacto depende de cuántas consultas corres. Una startup que hace 10.000 consultas diarias podría estar gastando 2.000-5.000 USD mensuales en energía para eso, sumado al costo de computación.
¿Cuándo habrá escasez de energía en los data centers de IA?
Depende de la región. Virginia y California ya tienen restricciones. Esperamos que el crunch se generalice hacia 2027-2028, cuando la brecha entre demanda de energía y capacidad disponible sea insalvable sin nuevas plantas de generación. Las SMR (reactores modulares) pueden llegar a tiempo, pero es ajustado.
¿Es viable que Microsoft realmente consiga que Three Mile Island alimente sus data centers?
Sí, está en marcha. Constellation Energy (propietaria) y Microsoft acordaron el deal en 2024. La planta estará operativa en 2025-2026 (está en reparación). El riesgo: si algo sale mal en la regulación o las inspecciones, el timeline se extiende. Pero Microsoft está colocando dinero real, así que es serio.
¿Hay algo que yo pueda hacer para reducir mi consumo de energía en IA?
Sí. Usa modelos pequeños especializados cuando sea posible (no uses GPT-4 si Gemini 1.5 Flash te sirve). Acorta tus prompts. Reutiliza resultados (cachea). Si operás una API, ofrece tiering: versiones ligeras para usuarios que no necesitan máxima precisión. La eficiencia energética va a ser un diferenciador en 2027.
Conclusión
El consumo energético de la IA en 2026 no es un problema teórico. Es concreto: data centers consumiendo el 25-30% de la electricidad regional en ciertas zonas, precios de energía subiendo 4-5% trimestral, competencia feroz por capacidad disponible.
Las soluciones existen. Nuclear es viable pero tarda. Renovables son baratas pero intermitentes. Eficiencia energética es el levier que podés activar ahora. Y las regulaciones van a empezar a forzar transparencia y límites sobre consumo.
Si trabajás en infraestructura, IA, o data centers, la realidad es esta: el siguiente cuello de botella no es hardware, es energía. Quien optimice primero gana. Quien se duerma va a estar en el lado defensivo de una carrera que recién empieza.
Fuentes
- IEA — Energy and AI: Demand from AI
- Wall Street Journal — AI Is Using So Much Energy That Computing Firepower Is Running Out
- Brookings Institution — Global Energy Demands Within the AI Regulatory Landscape
- Google AI Blog — Efficiency and Innovation in AI
- MIT Technology Review — AI Energy Usage and Climate Footprint
