El reporte Sustainable AI Scaling advierte que el uso indiscriminado de modelos generativos puede disparar la demanda energética si las empresas no optimizan cómo utilizan la inteligencia artificial.
El crecimiento acelerado de la inteligencia artificial dentro de las empresas comienza a evidenciar un desafío que hasta ahora ha recibido poca atención: su impacto energético.
De acuerdo con el reporte Sustainable AI Scaling, elaborado por la empresa de desarrollo de software Konfront, si la adopción de Inteligencia Artificial (IA) generativa continúa al ritmo actual, la demanda energética asociada a estas tecnologías podría multiplicarse hasta 24.4 veces hacia 2030.
Actualmente, los centros de datos consumen alrededor del 1.5% de la electricidad global, equivalente a aproximadamente 415 teravatios hora (TWh) al año, según cifras de la Agencia Internacional de Energía. Esta demanda podría alcanzar cerca de 945 TWh hacia el final de la década, impulsada en gran medida por el crecimiento de la inteligencia artificial.
El costo energético oculto de la IA
Uno de los principales hallazgos del reporte es que no todas las aplicaciones de inteligencia artificial requieren el mismo tipo de modelo para operar.
Los modelos más grandes, conocidos como LLMs (Large Language Models), son los que permiten generar textos complejos o responder preguntas abiertas. Estas herramientas ofrecen capacidades avanzadas, pero también demandan una mayor capacidad de cómputo para procesar cada consulta.
Sin embargo, muchas de las tareas empresariales cotidianas no requieren ese nivel de potencia. Actividades como responder preguntas simples, procesar información interna o automatizar tareas repetitivas pueden resolverse con modelos mucho más pequeños conocidos como SLMs (Small Language Models).
La diferencia en consumo energético entre ambos tipos de modelos es considerable. De acuerdo con el análisis incluido en el reporte, un modelo generativo de gran escala puede consumir hasta 4 mil 600 veces más energía por consulta que modelos más simples.
Esta disparidad provoca una fuerte concentración del consumo energético. Según el análisis “The Computational and Energy Footprint of Generative AI in Enterprise Workloads”, elaborado por investigadores de la Universidad de Cornell, al evaluar un portafolio típico de aplicaciones de Inteligencia Artificial dentro de una empresa se encontró que los proyectos generativos representan aproximadamente el 29% de los casos de uso, pero concentran hasta el 99.9% del consumo energético asociado a estas tecnologías.
Usar el modelo correcto para cada tarea
Ante este escenario, el reporte plantea que el reto no es frenar la adopción de inteligencia artificial, sino utilizarla de manera más estratégica.
La propuesta consiste en emplear distintos tipos de modelos dependiendo de la complejidad de cada tarea. Mientras que los modelos más grandes pueden destinarse a problemas que requieren razonamiento avanzado o generación de contenido complejo, los modelos más pequeños pueden encargarse de procesos operativos o repetitivos.
Este enfoque permite que las plataformas de inteligencia artificial dentro de las empresas dirijan cada solicitud al modelo más adecuado, lo que ayuda a mantener las capacidades avanzadas de estas tecnologías al tiempo que reduce significativamente el consumo energético y la carga sobre la infraestructura digital.
“Durante los últimos años la conversación sobre inteligencia artificial se ha centrado en su capacidad y velocidad de adopción. Sin embargo, el siguiente paso para las empresas será aprender a escalar estas tecnologías de forma eficiente”, señaló Cordelia Bortoni, Head of Growth de Konfront.
La directiva explicó que no todas las tareas necesitan el modelo más grande y que, cuando las organizaciones utilizan el modelo adecuado para cada problema, es posible obtener resultados similares con una fracción del consumo energético.
El reporte concluye que, a medida que la inteligencia artificial se integra en más procesos empresariales, la eficiencia energética comenzará a convertirse en un nuevo criterio para el diseño de arquitecturas tecnológicas más sostenibles y escalables dentro de las organizaciones.






