
Image by Emiliano Vittoriosi, from Unsplash
¿Qué IA es más verde? Un estudio revela diferencias en las emisiones
Una nueva investigación muestra cómo los modelos avanzados de IA, que implementamos en nuestra vida diaria, están generando un impacto ambiental sustancial.
¿Apurada? Aquí están los datos rápidos:
- Los modelos avanzados de IA emiten hasta 50 veces más CO₂ que los más simples.
- Las IA razonadoras como o3 y R1 consumen más energía para respuestas más largas.
- Las consultas basadas en lógica, como matemáticas o filosofía, aumentan significativamente las emisiones.
Los modelos de lenguaje grandes (MLGs) diseñados para un razonamiento profundo, como el o3 de OpenAI, Claude de Anthropic y R1 de DeepSeek, producen 50 veces más emisiones de dióxido de carbono que los modelos básicos de inteligencia artificial, al responder preguntas idénticas.
“El impacto medioambiental de cuestionar a LLMs entrenados está fuertemente determinado por su enfoque de razonamiento”, dijo Maximilian Dauner, autor principal del estudio publicado el 19 de junio en Frontiers in Communication. “Encontramos que los modelos habilitados para razonar producían hasta 50 veces más emisiones de CO₂ que los modelos de respuesta concisa”, agregó.
La investigación informa cómo estas emisiones provienen de la gran potencia informática necesaria para procesar consultas avanzadas, como preguntas en áreas cargadas de lógica como el álgebra y la filosofía.
Las investigadoras explican cómo estos modelos de razonamiento utilizan un método llamado “cadena de pensamiento“, donde la IA desglosa un problema en pasos lógicos, lo que refleja los enfoques de resolución de problemas humanos. Más tokens durante el proceso generan respuestas más largas, que a su vez consumen energía adicional.
Las investigadoras llevaron a cabo su análisis ejecutando 1,000 preguntas a través de 14 modelos LLM. Determinaron el consumo de energía utilizando una GPU NVIDIA A100 y asumiendo que cada kilovatio-hora generaba 480 gramos de CO₂.
El análisis mostró que, en promedio, los modelos de razonamiento produjeron 543.5 tokens como salida en cada respuesta, mientras que los modelos más simples generaron solo 37.7 tokens. El modelo más preciso, Deep Cogito (con 72 mil millones de parámetros), también tuvo una de las huellas de carbono más grandes.
“Actualmente, vemos un claro compromiso entre precisión y sostenibilidad inherente a las tecnologías LLM”, explicó Dauner. “Ninguno de los modelos que mantuvieron las emisiones por debajo de 500 gramos de CO₂ equivalente logró una precisión superior al 80%”, añadió.
Por ejemplo, responder a 60,000 preguntas con el modelo R1 de DeepSeek emitiría tanta CO₂ como un vuelo de ida y vuelta entre Nueva York y Londres. Mientras tanto, el modelo Qwen 2.5 de Alibaba Cloud podría proporcionar una precisión similar con un tercio de las emisiones.
No se trata solo de las emisiones por indicación, los investigadores dicen que la preocupación más amplia es la escala. Una sola pregunta podría liberar solo unos pocos gramos de CO₂, pero multiplícalo por miles de millones de usuarios, y la huella se vuelve masiva.
The New York Times informa que un informe de 2024 del Departamento de Energía de los Estados Unidos predijo que los centros de datos consumirán hasta el 12% del suministro eléctrico nacional para 2028, lo que representa un incremento triple respecto a los niveles de 2022, donde la IA es un factor impulsor.
Entonces, ¿qué pueden hacer los usuarios?
“Utiliza la IA cuando tenga sentido hacerlo. No uses la IA para todo”, dijo la profesora de ciencias de la computación Gudrun Socher, según informó The Washington Post. Para preguntas básicas, los motores de búsqueda suelen ser más rápidos y consumen mucho menos energía. Una búsqueda en Google usa alrededor de 10 veces menos energía que un prompt de ChatGPT, según Goldman Sachs.
Dauner está de acuerdo. “Si los usuarios conocen el coste exacto de CO₂ de sus resultados generados por IA, como convertirse casualmente en una figura de acción, podrían ser más selectivos y reflexivos sobre cuándo y cómo utilizan estas tecnologías.”
Los expertos enfatizan la elección de modelos más pequeños para tareas simples y el uso de los más largos y potentes solo cuando sea necesario. Mantener las indicaciones y respuestas concisas también ayuda a reducir el consumo de energía. Al final, la elección no es solo acerca de la velocidad o la precisión, también se trata de responsabilidad.