El ‘chatbot’ impulsado por Inteligencia Artificial (IA) de OpenAI, ChatGPT, tiene un consumo energético de aproximadamente 0,3 vatios-hora para consultas habituales, una cifra menor que la energía que consume una bombilla LED o un ordenador portátil en el hogar, lo que contradice las suposiciones anteriores del consumo elevado del ‘chatbot’.
La IA es una tecnología que demanda grandes cantidades de recursos energéticos, tanto para su entrenamiento como para su uso y, cuanto más avanzada es, más recursos necesita. Por tanto, la eficiencia energética se ha convertido en una preocupación relevante para las compañías de IA.
Esta preocupación se ha materializado en servicios como ChatGPT de OpenAI. Así, según el Instituto de la Ingeniería de España (IIE), para entrenar el modelo de lenguaje GPT-3, OpenAI utilizó hasta 78.437 kWh de electricidad, una cifra comparable al consumo de energía de un hogar medio en España durante 23 años.
Más tarde, con la llegada del modelo GPT-4, organizaciones como la International Energy Agency señalaron cifras como que ChatGPT consumía alrededor de 3 vatios-hora para responder una consulta, lo que se traduce en un gasto energético 10 veces mayor en comparación con una búsqueda en Google.
Ahora, un nuevo estudio elaborado por la organización sin ánimo de lucro EpochAI ha ofrecido una nueva estimación del coste energético de ChatGPT, en el que se detalla que tiene un consumo aproximado de 0,3 vatios-hora para consultas habituales, es decir, diez veces menos de lo que se consideraba anteriormente.
Según ha matizado el analista de datos de EpochAI, Joshua You, los datos ofrecidos en años anteriores eran una «sobreestimación» ya que, según han comprobado ahora, la consulta promedio de ChatGPT consume menos electricidad que muchos electrodomésticos del hogar, como es el caso de una bombilla LED o un ordenador portátil «en unos pocos minutos».
Igualmente, You ha señalado que el consumo de energía de este servicio «no es un gran problema» comparado con el uso de la calefacción o refrigeración de los hogares, así como comparado con el consumo energético de la conducción de un coche.
Siguiendo esta línea, el informe de EpochAI también asegura que, incluso para un usuario que lleve a cabo un uso intensivo del ‘chatbot’, el coste energético de ChatPGT es «una pequeña fracción del consumo eléctrico total de un residente de un país desarrollado».
Incluso, You ha afirmado que esta estimación de 0,3 vatios-hora es «relativamente pesimista», ya que la mayoría de las consultas que se realizan a ChatGPT son en realidad «más económicas». Es el caso de, por ejemplo, solicitar información sobre un monumento o recomendaciones para una receta de cocina, que no requieren un esfuerzo elevado.
Para llevar acabo esta nueva investigación, se han basado en el consumo que hace ChatGPT impulsado por el modelo GPT-4o, lo que pone de relieve cómo el uso de modelos y ‘hardware’ «más eficientes» en comparación con los utilizados anteriormente, pueden lograr un consumo energético más moderado.
«La razón más importante por la que nuestra estimación difiere es que utilizamos una suposición más realista para la cantidad de tokens de salida en el uso típico de un chatbot», ha manifestado You, al tiempo que ha señalado que también han basado su estimación en un chip «más nuevo y más eficiente» al utilizar la GPU Nvidia H100 en lugar de la A100, y un modelo con «algunos menos parámetros activos».
Asimismo, para realizar el cálculo estimado de consumo, se han basado en datos ofrecidos por OpenAI, que señala que un token equivale aproximadamente a 0,75 palabras y que generar un token equivale a 2 FLOPs.
Por tanto, teniendo en cuenta la potencia de la GPU Nvidia H100 y su consumo, que es de 1500 W, aunque hay un factor de utilización de energía del 70 por ciento, el resultado señala que ChatGPT utiliza aproximadamente 0,3 vatios-hora de consumo por consulta.
EL CONSUMO VARÍA SEGÚN EL CASO DE USO
No obstante, desde EpochAI han puntualizado que se ha de tener en cuenta que el consumo energético del uso de esta IA varía según el caso de uso. Es decir, las consultas con longitudes de entrada o de salida más largas, por ejemplo, al utilizar modelos de razonamiento o solicitar que el ‘chatbot’ analice documentos pesados, pueden consumir «sustancialmente» más energía que 0,3 vatios-hora.
Lo mismo ocurre a la hora de tener en cuenta el consumo que llevan a cabo las compañías, en este caso OpenAI, para el entrenamiento y la inferencia de modelos futuros, que «pueden consumir mucha más energía que el uso de ChatGPT en la actualidad».
Por ejemplo, según ha compartido, es probable que los nuevos modelos de razonamiento de OpenAI recientemente presentados o1, o3 y o3-mini, requieran más energía. Lo mismo ocurre con la nueva función Deep Research de OpenAI, un agente de IA que utiliza el razonamiento para sintetizar grandes cantidades de información y ejecutar tareas de investigación.
Respecto a este último, You ha matizado que «es ciertamente mucho más intensivo en términos de cómputo que una simple consulta de ChatGPT» aunque, por el momento, está limitado a usuarios suscritos a ChatGPT Pro, lo que reduce su uso.
Con todo ello, aunque los datos del estudio reflejan que usar ChatGPT no consume tanta energía como se había estimado anteriormente, los costes energéticos de la IA pueden continuar siendo elevados a medida que esta tecnología avanza en innovación.
«La IA se volverá más avanzada, entrenarla probablemente requerirá mucha más energía, y esta IA futura puede usarse mucho más intensamente, manejando muchas más tareas, y tareas más complejas, que como la gente usa ChatGPT hoy», ha sentenciado You.