¿Cómo los datacenters IA calientan tu barrio?

Un estudio de la Universidad de Cambridge halló que los datacenters de inteligencia artificial generan islas de calor que elevan temperaturas entre 1,5 y 2,4 °C en un radio de hasta 10 km, afectando a 343 millones de personas globalmente. El fenómeno replica el efecto de las ciudades sobre el clima, pero concentrado en infraestructura de computación. Investigadores advierten que si la expansión de datacenters continúa al ritmo actual, el impacto ambiental local será tan relevante como el consumo energético total.

En 30 segundos

  • La Universidad de Cambridge analizó 8.400 datacenters mediante satélites y encontró que la temperatura sube 0,3 a 9,1 °C (promedio 1,5 a 2,4 °C) en los alrededores de cada sitio.
  • El efecto térmico se mide hasta 10 km de distancia, aunque se reduce 30% a partir de los 7 km. Mensualmente, el aumento de 1 °C persiste hasta 4,5 km.
  • 343 millones de personas viven en zonas que podrían verse afectadas por las islas de calor de datacenters de IA en los próximos años.
  • Meta, OpenAI y Google están construyendo megadatacenters de 400k a 500k GPUs cada uno, consumiendo entre 1 y 1,2 GW de energía cada instalación.
  • El consumo energético global de IA en 2026 alcanzó 415 teravatios-hora, crecimiento de 20-30% respecto a 2025, comparable al consumo total de algunos países.

El descubrimiento de Cambridge: cómo la IA calienta barrios enteros

Una investigación de investigadores de Cambridge publicada en abril de 2026 sacó a la luz algo que nadie estaba midiendo de forma sistemática: los datacenters de IA generan islas de calor locales tan marcadas como las que crea una ciudad completa. El equipo analizó 8.400 datacenters usando imágenes de satélite de temperatura de superficie terrestre, comparando registros antes y después de que cada instalación comenzara operaciones.

Es el primer estudio a escala global que cuantifica este efecto específico de la IA. No es especulación, no es modelado teórico con supuestos razonables (spoiler: esos nunca coinciden con la realidad). Es data satelital de emisión térmica infrarroja, línea base histórica, análisis estadístico robusto. Fijate que hasta hace poco, si vos preguntabas por esto en un panel de tech, la respuesta era “bueno, los datacenters usan mucha electricidad, así que algo calientan, supongo”. Ahora hay números.

Qué son las islas de calor en datacenters y por qué suceden

Una isla de calor en infraestructura de datacenter es simple: metés 500.000 GPUs aceleradoras en un edificio, cada una disipando 400-600 watts, y necesitás saca ese calor afuera porque de otro modo los componentes se cocinan. Los centros de datos de IA generan decenas de megavatios de disipación térmica, no megavatios de consumo (la diferencia es que toda la electricidad que entra se convierte en calor, al final).

El enfriamiento por aire, que sigue siendo el estándar en la mayoría de los sitios (porque enfriamiento líquido a escala global todavía tiene problemas de confiabilidad y mantenimiento), toma aire ambiente, lo pasa por enfriadoras, y lo expulsa más caliente. Si hacés eso con 1 GW, el aire circundante sube temperatura. Las GPUs modernas generan más calor por vatio que CPUs tradicionales porque concentran más transistores en menos espacio (transistores = disipación térmica).

Ahora bien, la IA además es más exigente que cálculo tradicional en otro aspecto: corre prácticamente 24/7. Un servidor web antiguo podía tener picos de uso y períodos ociosos. Un modelo de lenguaje grande en inferencia constante está a plena carga todo el tiempo. Sin descanso nocturno que baje las temperaturas, el efecto acumulativo se agrava.

Números del impacto: temperaturas, alcance geográfico y personas afectadas

El paper de Cambridge es concreto. Luego de que cada datacenter comenzó a operar, la temperatura de superficie terrestre subió 0,3 a 9,1 °C dependiendo del sitio, con un promedio entre 1,5 y 2,4 °C en el área inmediata. Eso que no suena tanto, pero es comparable al calentamiento global promedio que vimos en los últimos 40 años (aproximadamente 1 °C de aumento global), comprimido en un radio de pocos kilómetros, alrededor de UNA instalación. Lo explicamos a fondo en seguridad de infraestructura crítica.

El alcance del fenómeno es lo que debería preocupar a cualquiera que viva cerca de una zona de expansión de infraestructura de IA. El aumento promedio de 1 °C en temperatura mensual se mantiene hasta 4,5 km de distancia (casi 3 millas). Seguís detectando efectos hasta 10 km, aunque mucho más débiles (la intensidad baja 30% a partir de los 7 km). Piensa en una ciudad de tamaño mediano: 10 km de radio es casi el diámetro completo.

Fortune reportó que los modelos de Cambridge implican que 343 millones de personas viven dentro de 10 km de al menos un datacenter de IA existente o planificado. No todos sentirán el efecto máximo (depende de la dirección del viento, la geografía local, la estación), pero la mayoría está expuesta a incrementos de 0,5 a 2 °C como efecto acumulativo de múltiples sitios cercanos.

El consumo energético de la IA en 2026: gigavatios y teravatios

Para entender por qué esto importa, necesitás ver el contexto energético global. Según reportes de agencias de energía de 2026, el consumo total de IA ese año fue 415 teravatios-hora (415 TWh). Para que encaje en tu cabeza: eso es aproximadamente 4 veces el consumo eléctrico completo de España o similar al de Argentina en su totalidad.

El crecimiento mes a mes fue brutal: 20-30% respecto a 2025. Si la tendencia continúa (y todo indica que sí), para 2030 estamos hablando de 700-800 TWh solo en IA, rivalizado con fuentes de energía convencionales de países medianos. Google, Meta, OpenAI y Microsoft están en carrera de construcción de megadatacenters, cada uno gastando entre USD 50 mil millones y USD 700 mil millones en expansión hasta 2030.

Eso sí: la energía no aparece de la nada. Subís potencia demandada, subís consumo de gas natural, carbón o (mejor aún) energía renovable. Pero en cualquier caso, transformás esa energía en calor disipado en el ambiente. No hay escape termodinámico.

Impacto en comunidades: salud, agua, ruido y calidad de vida

Si bien el aumento de 1-2 °C no suena dramático fuera de contexto, sumado a olas de calor naturales, el efecto es sinérgico y no aditivo. Una comunidad que ya sufre 38 °C en verano con el efecto isla de calor suma 2 °C más sin que haya forma de escapar. Ancianos, niños, poblaciones con enfermedades cardiovasculares crónicas: estos grupos corren riesgo amplificado en condiciones de estrés térmico prolongado.

CNN documentó en marzo de 2026 que en Texas, Ohio y otros estados con expansión acelerada de datacenters, las comunidades vecinas reportan “enfriamiento nocturno insuficiente”, es decir: las temperaturas no bajan de noche como antes. Es un fenómeno crítico porque los cuerpos necesitan el ciclo de temperatura para recuperarse.

Agua también es tema. Los datacenters usan agua masivamente para enfriamiento. En los Estados Unidos en 2023, los datacenters consumieron 66 mil millones de litros. Con la expansión de IA, las proyecciones para 2026-2027 son de 85-100 mil millones anuales. En zonas de estrés hídrico (Arizona, Texas, California), esto compite con riego agrícola y consumo municipal. Ya hay reportes de ciudades pequeñas pidiendo a operadores de datacenters que reduzcan. Meta y Google presentaron sistemas de enfriamiento “seco” (sin agua) pero la tecnología aún no escala a los niveles demandados.

El ruido es lo que menos se habla pero la gente lo vive a diario. Enfriadoras, generadores de respaldo, sistemas de bombeo: un datacenter genera ruido ambiental constante de 70-85 decibeles (comparable a tráfico de carretera). Vivir a 500 metros es vivir con ese sonido de fondo sin pausa, 24/7. Relacionado: el consumo energético de ChatGPT.

Ejemplos reales: Meta, OpenAI y Google en la carrera de megadatacenters

La competencia por capacidad de IA es tan feroz que los gigantes están gastando cifras alucinantes. Cada empresa busca tener datacenters lo más cerca posible de sus usuarios o centros tecnológicos para reducir latencia. El problema es que están todos en el mismo mapa.

EmpresaProyectoUbicaciónGPUsPotenciaInversión (USD)
MetaPrometheusOhio500k GPUs1 GW55 mil millones
OpenAIStargateTexas400k GPUs (B200)1,2 GW150 mil millones
GoogleTPU clustersTexas, CarolinaN/A (TPUs)7.800 MW total200+ mil millones
MicrosoftStargate partnersMúltiplesMixto~3 GW100+ mil millones
islas de calor datacenters ia diagrama explicativo

Meta Prometheus en Ohio, por ejemplo, va a consumir 1 GW sostenido con 500.000 GPUs H200. Eso es equivalente al consumo eléctrico de una ciudad de 300.000 habitantes. Todo disipado como calor en un radio de 10 km. OpenAI Stargate en Texas es aún más agresivo: 400k GPUs de las nuevas B200 a 1,2 GW.

El feedback que reciben estas empresas de gobiernos locales es cada vez más tenso. Texas acaba de enviar una carta a Google y Meta solicitando “evaluaciones de impacto hídrico independientes” antes de nuevas expansiones. California está considerando regulación directa. Ojo: esto no es oposición tecno-fóbica. Es un conflicto de recursos legítimo. El agua en Texas es finita, y un datacenter consume lo que cien granjas.

Soluciones: reutilización de calor, eficiencia de software y hardware

Los investigadores de Cambridge no vinieron solo con malas noticias. También sugieren rutas de mitigación que parcialmente funcionan y parcialmente no.

Software eficiente y destilación de modelos

Menos energía de entrada = menos calor generado. Suena obvio pero es el camino más directo. Los modelos de IA se hacen progresivamente más grandes (“escala es todo”, dicen), pero hay límite a cuánta escala necesitás para tarea específica. Destilación (entrenar un modelo pequeño con datos de uno grande) ya reduce consumo 50-70% en inferencia con pérdida de calidad controlada. Si toda la industria se mueve a modelos más especializados en vez de “foundation models” brutales para todo, el consumo energético baja notablemente.

Enfriamiento líquido directo a chip

En lugar de aire, pipas de líquido refrigerado en contacto directo con los componentes. Nvidia, Intel y AMD ya lo están experimentando en laboratorios. El problema es que requiere rediseño completo de plataformas, entrenamiento de técnicos, y riesgo de fugas químicas (algunos refrigerantes son tóxicos). No va a escalar en 3-5 años a nivel global, pero es posible. Ya lo cubrimos antes en por qué GPT requiere tanta potencia.

Reutilización de calor residual

Varios países europeos (Suecia, Dinamarca) ya conectan datacenters a sistemas de calefacción urbana. El calor residual enfría el datacenter y calienta las casas del barrio. Es win-win pero requiere infraestructura específica que no existe en la mayoría de zonas. En Estados Unidos es infrecuente porque las ciudades no tienen sistemas de calefacción central (cada edificio con su caldera). Viable en Europa, limitado en otros lados.

Qué viene: regulación, transparencia y el futuro de datacenters sostenibles

La regulación está llegando. EU ya exige reportes de huella de carbono Scope 3 (que incluye datacenters alquilados). Estados Unidos está considerando límites en agua para nuevas instalaciones en zonas secas. China, sorprendentemente, impuso cap de energía en datacenters de IA en 2025 (reducción de 15% vs 2024), lo que forzó a empresas a ser más eficientes.

Transparencia es lo que más reclaman gobiernos locales y ONG. Publicar consumo de agua, temperatura monitoreada en perimetro, planes de mitigación. Meta y Google empezaron a publicar sustainability reports, pero el detalle es vago. Gobiernos locales quieren data pública en tiempo real, no reportes anuales después de que ya pasó el daño.

Acá viene lo interesante: la IA misma podría ser la solución. Algoritmos de optimización de red eléctrica ya mejoran eficiencia 10-15%. Machine learning predictivo en sistemas de enfriamiento reduce consumo 20%. Si los datacenters usan IA para optimizar su propia eficiencia energética, el ciclo de retroalimentación positiva podría invertir la curva. Pero primero hay que invertir en eso, lo que resta capital de expansión de capacidad bruta.

Errores comunes al entender este fenómeno

Error 1: “1-2 °C de aumento no es nada, lidiamos con cambio climático de 1-1,5 °C”

El cambio climático global es lentísimo (40 años para 1 °C). Una isla de calor local es PERSISTENTE: cada día, todo el año. Sumás a la onda de calor natural (si estamos en verano) y el efecto es multiplicador. Un día de 38 °C con isla de calor se convierte en 40 °C constante en tu barrio. No es lo mismo.

Error 2: “Pero la mayoría de electricidad viene de renovables”

En 2026, la matriz energética global sigue siendo 80% fósil. Aún si la renovable crece rápido, servir 415 TWh de IA significa energía adicional que proviene principalmente de gas natural. Además, aunque fuera 100% renovable (no es), seguís disipando el calor en la atmósfera local. La energía se conserva. No desaparece. Esto se conecta con lo que analizamos en la infraestructura detrás de Gemini.

Error 3: “Los datacenters de IA son nuevos, esto es un problema reciente”

Datacenters de cómputo tradicional existen hace 20 años. Lo que cambió es la DENSIDAD de calor. Un servidor web viejo disipaba 1-2 kW. Una GPU H200 disipa 600W, un nodo de 8 GPUs es 5 kW, 500k GPUs es 300 MW de disipación (en edificio). La concentración es radicalmente mayor. El problema no es nuevo, es INTENSIFICADO.

Preguntas frecuentes

¿Cuánto calientan realmente los datacenters de IA el ambiente local?

Entre 0,3 y 9,1 °C dependiendo del sitio, con promedio de 1,5 a 2,4 °C de aumento de temperatura de superficie. El efecto se mantiene medible hasta 10 km de distancia, con reducción progresiva. En términos prácticos: si vivís a 3-5 km de un datacenter grande, experimentás aproximadamente 1 °C más en cualquier día del año, sumado a variaciones naturales de temperatura.

¿A qué distancia se siente el impacto del calor de un datacenter?

El efecto se detecta hasta 10 km, pero es débil a esa distancia (30% de la intensidad máxima). El aumento de temperatura mensual promedio (1 °C) se mantiene hasta 4,5 km. Lo crítico es que no es una burbuja aislada: si hay múltiples datacenters cerca (Ohio, Texas, Carolina del Norte), los efectos se superponen y amplifican.

¿Cuánta energía consume un datacenter de IA en 2026?

Depende del tamaño, pero un datacenter típico de 500k GPUs (como Meta Prometheus) consume 1 GW sostenido. Un megadatacenter de OpenAI (400k GPUs) requiere 1,2 GW. El consumo global de IA fue 415 TWh en 2026, equivalente a la energía que consumen 150 millones de hogares estadounidenses en un año.

¿Qué se puede hacer para reducir el calor generado?

El enfriamiento líquido directo a chip reduce consumo de aire 40-50% pero requiere redesign de hardware (en desarrollo). Software eficiente (modelos destilados, compresión) reduce energía de entrada 30-70%. Reutilización de calor para calefacción urbana funciona en Europa pero no en ciudades sin sistemas de calor central. La solución real requiere combinación de todas.

¿Qué están regulando los gobiernos respecto a esto?

EU exige reportes de huella de carbono Scope 3 (incluye datacenters subcontratados). China impuso cap de energía en 2025. Estados Unidos está considerando límites de agua en zonas secas. Gobiernos locales presionan por transparencia en consumo y monitoreo de temperatura. Aún no hay regulación internacional unificada pero la presión crece mes a mes.

Conclusión

El estudio de Cambridge cierra un debate que parecía teórico: sí, los datacenters de IA crean islas de calor medibles y significativas a escala local. Sí, afectan a cientos de millones de personas. No, no desaparecen en algunos kilómetros. El fenómeno es real, documentado, y va a empeorar si la expansión de infraestructura continúa al ritmo actual sin medidas de mitigación.

Lo que cambió es que ahora hay data cuantificada, que gobiernos y comunidades pueden usar para tomar decisiones. Algunos datacenters van a enfrentar regulación más estricta. Otros pueden reubicarse o usar enfriamiento más eficiente. La presión está ahí. Es el momento en que la industria de IA elige: invierte en soluciones (software eficiente, enfriamiento avanzado, reutilización de calor) o enfrenta resistencia política que frenará expansión. Cualquiera de los dos caminos tiene costo. La pregunta es quién lo paga.

Fuentes

Desplazarse hacia arriba