La demanda de capacidad de cómputo para entrenar y ejecutar modelos de inteligencia artificial creció de manera exponencial entre 2024 y 2026. Los laboratorios de IA más importantes del planeta —desde San Francisco hasta Shanghái— consumen electricidad a ritmos que desafían la red eléctrica de naciones enteras. Según reporta Wired en su investigación de campo, este apetito energético está empujando a los operadores de centros de datos hacia el norte de Europa, donde la combinación de recursos hídricos, geotérmica y energía eólica produce electricidad a costos notablemente por debajo del promedio mundial.
Países como Noruega, Islandia, Suecia y Finlandia ofrecen un cóctel irresistible para cualquier CFO del sector tecnológico: electricidad limpia, estable y barata. Islandia, por ejemplo, genera prácticamente el 100% de su energía a partir de fuentes geotérmicas e hidráulicas. Noruega exporta excedentes hídricos que ningún vecino puede absorber. En este contexto, instalar un centro de datos en estas latitudes no es una excentricidad: es una decisión de negocio con retorno de inversión calculado al céntimo.
**Se estima que para 2027, más del 18% de la nueva capacidad instalada de centros de datos en Europa se ubicará por encima del paralelo 60° norte**, un dato que habría parecido ciencia ficción hace apenas cinco años.
La Ecuación Térmica: Frío Natural como Ventaja Operativa
En ingeniería de centros de datos, el enfriamiento representa entre el 30% y el 40% del consumo eléctrico total de una instalación convencional. En las inmediaciones del Círculo Ártico, las temperaturas exteriores oscilan entre -10°C y 10°C durante la mayor parte del año, lo que permite sustituir los costosos sistemas de refrigeración mecánica por enfriamiento pasivo o semi-pasivo (“free cooling” en la jerga técnica, o en español: refrigeración por aire exterior). El resultado es una reducción dramática del Indicador de Eficiencia Energética —la métrica estándar del sector— que en instalaciones árticas puede llegar a valores cercanos a 1.1, frente al promedio global de 1.55. Traducido al lenguaje de negocio: por cada unidad de energía que consume el cómputo, casi nada adicional se destina a mantenerlo frío. Eso es una ventaja estructural, no temporal.
La Red Submarina que Conecta el Ártico con el Mundo
Un argumento histórico en contra de ubicar infraestructura crítica en zonas remotas era la latencia: la distancia física impone retrasos en la transmisión de datos. Sin embargo, en 2026 este obstáculo es considerablemente menor de lo que parece. La red de cables submarinos de fibra óptica que conecta Escandinavia con el resto de Europa y con América del Norte ha madurado significativamente. Para aplicaciones de inferencia en tiempo real —como asistentes de voz o sistemas de decisión financiera— la latencia sigue siendo un factor limitante. Pero para las cargas de trabajo más intensivas en cómputo: entrenamiento de grandes modelos de lenguaje, procesamiento por lotes masivo o almacenamiento en frío, la distancia geográfica es prácticamente irrelevante. Los arquitectos de soluciones en la nube ya diseñan estrategias híbridas: procesamiento sensible a la latencia en regiones centrales, y cargas pesadas en infraestructura ártica de bajo costo.
