Ser educado con ChatGPT eleva el costo de operación y el impacto ambiental. Así lo explicó su CEO.
El implemento de la inteligencia artificial en la vida diaria ha generado un inmenso debate internacional. Se trata de una herramienta que, si bien para muchos ha sido de gran utilidad, para otros ha significado el inicio del fin de la creatividad humana. Y es que la cantidad de tareas que pueden serle asignadas a esa tecnología es infinita. Desde hacer búsquedas y resúmenes de información que se encuentra en internet, hasta crear imágenes y videos según nuestras solicitudes.
El debate que sugiere la IA
Recientemente, gracias a un reto viral de redes sociales, que consistía en pedirle a la IA modificar una fotografía para que se viera como un dibujo de estudios Ghibli, se habló del impacto ecológico de la práctica. Así mismo, de la falta de respeto que sugería, para los fanáticos de esa compañía de producción audiovisual, replicar el estilo de dibujo de su director, Hayao Miyazaki.
Ese y otros debates han rondado el debate del uso de la inteligencia artificial, y han nutrido la conversación respecto a lo que se aproxima para la humanidad con el ingreso de esa herramienta al diálogo de su día a día. Ahora, otra conversación ha girado alrededor de la inteligencia artificial, exactamente, en lo que refiere a ChatGPT. Gracias a información que ha circulado en la prensa global en los últimos días, el mundo se enteró del millonario costo que le significaría a ese espacio el hecho de que sus usuarios escriban palabras como ‘por favor’ y ‘gracias’.

La amabilidad de la comunidad con ese espacio digital costaría millones, según explicó Sam Altman, CEO de OpenAI. Fue a través de X (antes Twitter) que el funcionario reveló la información al responder la pregunta que hizo un internauta.
‘Me pregunto cuánto dinero ha perdido OpenAI en costes de electricidad porque la gente dice por favor y gracias a sus modelos’, preguntó un usuario de X. ‘Decenas de millones de dólares bien gastados: nunca se sabe’, contestó Altman. De acuerdo con lo que han explicado medios internacionales especializados, esto se debería a
El costo energético de la cortesía con ChatGPT
Aunque parezca trivial, cada palabra escrita e interpretada por ChatGPT tiene un costo energético asociado. Frases corteses, aunque breves, exigen que el modelo de lenguaje realice un proceso computacional para analizarlas, comprender su contexto y responder adecuadamente. Esto aumenta la carga de trabajo de los servidores, lo que se traduce en un mayor consumo de energía eléctrica.
Según datos de Goldman Sachs, una sola consulta a ChatGPT-4 puede requerir alrededor de 2,9 vatios-hora de electricidad, una cifra considerablemente superior a la de una búsqueda convencional en Google, que ronda los 0,3 vatios-hora. Teniendo en cuenta que OpenAI procesa más de mil millones de consultas diarias, se estima que el consumo energético diario podría superar los 2,9 millones de kilovatios-hora.
Este impacto no es menor si se considera que los centros de datos de inteligencia artificial ya representan cerca del 2 % del consumo eléctrico mundial, según la Agencia Internacional de Energía (AIE). La situación podría agravarse aún más: proyecciones del Instituto de Investigación de Energía Eléctrica (EPRI) indican que, para 2030, los centros de datos podrían consumir hasta el 9,1 % de la electricidad total en Estados Unidos.

El consumo energético de la IA
El funcionamiento de modelos de lenguaje como ChatGPT requiere una infraestructura tecnológica de alto rendimiento. Miles de unidades de procesamiento gráfico (GPU) trabajan en conjunto para procesar las solicitudes de los usuarios y generar respuestas coherentes y relevantes. Este proceso, conocido como inferencia, es intensivo en términos de energía y recursos computacionales.
Cada interacción con ChatGPT implica el procesamiento de múltiples tokens, que son las unidades mínimas de texto que el modelo analiza. Cuantos más tokens se utilicen en una conversación, mayor será la carga de trabajo para el sistema. Las expresiones de cortesía, aunque breves, añaden tokens adicionales a las solicitudes de los usuarios, incrementando así el consumo de energía y los costos operativos.
OpenAI apuesta por energías limpias
Ante este panorama, Sam Altman ha sido enfático en la necesidad de desarrollar fuentes de energía más sostenibles para soportar el crecimiento exponencial de la inteligencia artificial. El CEO de OpenAI ha invertido personalmente en empresas de energía limpia como Helion Energy, centrada en la fusión nuclear, y Exowatt, una startup especializada en energía solar.
OpenAI también está trabajando para mejorar sus propias infraestructuras de datos con el objetivo de ser más eficientes y sostenibles en el futuro. La compañía es consciente de que el éxito de sus modelos, como ChatGPT, debe ir acompañado de un enfoque responsable hacia el medioambiente.