¿Decir “gracias” a ChatGPT provoca perdidas económicas? La cortesía digital le cuesta millones a OpenAI


¿Decir “por favor” y “gracias” a una inteligencia artificial podría estar dañando al planeta? Aunque suene exagerado, esta simple cortesía cotidiana tiene un costo energético real.

Según el medio especializado Futurism, OpenAI —la empresa detrás de ChatGPT— gasta decenas de millones de dólares al año procesando palabras de educación que, aunque inofensivas, incrementan el consumo eléctrico de sus servidores.

Sam Altman, director ejecutivo de OpenAI, lo ha confirmado: estos modales digitales disparan el número de tokens —las unidades básicas de procesamiento— en cada conversación. El resultado es un mayor consumo energético y, por lo tanto, una factura nada amable con el medio ambiente.

Cada consulta en ChatGPT requiere diez veces más energía que una búsqueda en Google: 2,9 vatios-hora frente a apenas 0,3. Con más de mil millones de interacciones diarias, el sistema consume lo equivalente al gasto eléctrico anual de 800 hogares en Estados Unidos. ¿Y qué pasa con un simple “gracias”? Aunque parece inofensivo, añade 0,0002 kWh adicionales por cada interacción.

Todo esto ocurre en medio de un creciente escrutinio hacia OpenAI. La empresa enfrenta controversias por su generador de imágenes, acusaciones de violar derechos de autor, y ahora, una crítica inesperada: su huella energética. Altman incluso ha reconocido haber exagerado en algunas declaraciones para captar atención mediática sobre la IA.

A nivel global, los centros de datos dedicados a la inteligencia artificial ya representan el 2% del consumo eléctrico, y las proyecciones apuntan a que en EE. UU. podrían alcanzar un 9,1% para 2030. Para ponerlo en perspectiva: generar un texto de 100 palabras con ChatGPT consume lo mismo que encender 14 bombillas LED durante una hora.

Y aunque parezca insólito, no somos pocos los que tratamos a estas máquinas con cortesía. Un estudio revela que el 67% de los usuarios en EE. UU. usa lenguaje formal con los chatbots. Un 55% lo hace por educación, mientras que un 12% teme una futura rebelión de las máquinas y prefiere ir ganando puntos desde ya.

La investigadora Sherry Turkle, del MIT, lo explica así: aunque las IAs no tienen conciencia, las tratamos como si estuvieran “parcialmente vivas”. Esa mezcla de respeto, superstición y humanidad marca nuestra relación con la tecnología.

El debate está sobre la mesa: ¿deberíamos dejar de ser educados con las máquinas para salvar energía? Mientras Elon Musk prohíbe dispositivos Apple en sus empresas si integran tecnología de OpenAI, Altman invierte en energía nuclear y solar a través de empresas como Helion y Exowatt para intentar compensar.

En medio de tanta contradicción, una cosa es clara: el verdadero reto no es técnico, sino cultural. Aprender a equilibrar la eficiencia con nuestras normas sociales podría ser uno de los dilemas más humanos que nos plantea la inteligencia artificial.