¿Por qué evitar decir “gracias” y “por favor” a ChatGPT?

En la era de la inteligencia artificial, es común interactuar con asistentes virtuales como ChatGPT. Muchos usuarios, por cortesía, incluyen expresiones como “por favor” y “gracias” en sus consultas. Sin embargo, esta práctica, aunque bien intencionada, puede tener implicaciones significativas en términos de consumo energético, eficiencia operativa y el impacto ambiental.

En este artículo, exploraremos por qué es recomendable evitar estas expresiones de cortesía al interactuar con IA y qué alternativas pueden adoptarse para optimizar las consultas.

El impacto de la cortesía en la IA

Cada vez que se realiza una consulta a ChatGPT, el sistema procesa la entrada dividiéndola en unidades más pequeñas llamadas tokens. Cuantas más palabras contiene una consulta, más tokens debe procesar la IA, lo que incrementa el tiempo y los recursos necesarios para generar una respuesta. De hecho, aunque el impacto de unas pocas palabras puede parecer mínimo, a gran escala, estos pequeños aumentos en el procesamiento se multiplican considerablemente.

Sam Altman, CEO de OpenAI, ha señalado que las expresiones de cortesía, aunque breves, representan un gasto adicional en términos de procesamiento computacional. En una interacción en la red social X, Altman mencionó que OpenAI ha gastado “decenas de millones de dólares bien gastados” debido a las palabras extra que los usuarios incluyen por cortesía. Es decir, cada vez que se añade un “por favor” o un “gracias”, se está utilizando energía, procesamiento y recursos que podrían haberse evitado.

Consumo energético y huella ecológica

El procesamiento adicional requerido por las expresiones de cortesía no solo implica mayores costos para las empresas que operan estos sistemas, sino que también tiene un impacto ambiental. Cada consulta a ChatGPT consume aproximadamente 0,3 vatios-hora de electricidad. Aunque este número puede parecer pequeño, cuando se multiplica por millones de usuarios diarios, el consumo energético total se vuelve considerable.

Además, los centros de datos que albergan estos modelos de IA requieren grandes cantidades de electricidad para funcionar y mantener los sistemas refrigerados. Según la Agencia Internacional de la Energía, se estima que para 2030, los centros de datos consumirán hasta 945 teravatios-hora de electricidad, lo que representa un aumento significativo respecto a los 415 TWh actuales.

Esto plantea un dilema interesante: ¿deberíamos ser educados con la inteligencia artificial a costa de aumentar nuestra huella de carbono? Esta es una cuestión ética que muchos expertos están empezando a plantear.

¿Mejora la calidad de las respuestas?

Algunas investigaciones sugieren que el uso de un lenguaje educado al interactuar con la IA podría, en ciertos casos, mejorar la calidad de las respuestas generadas. Sin embargo, este efecto no es siempre consistente y depende en gran medida del contexto cultural y del nivel de cortesía. Lo que sí es claro es que las interacciones educadas pueden influir en cómo el modelo responde, pero no garantizan una mejora significativa en la calidad de las respuestas.

Por otro lado, el diseño de sistemas IA no está orientado a interpretar las intenciones humanas en términos de cortesía o educación. La IA simplemente procesa palabras como tokens y genera respuestas basadas en patrones estadísticos, sin interpretar el tono emocional o el nivel de educación del usuario.

Recomendaciones para los usuarios

Dado que las expresiones de cortesía no son necesarias para que la IA funcione correctamente y pueden contribuir a un mayor consumo de recursos, se recomienda a los usuarios ser concisos y directos en sus consultas. Esto no solo mejora la eficiencia del sistema, sino que también ayuda a reducir el impacto ambiental asociado con el uso de la inteligencia artificial.

A continuación, algunos consejos prácticos para optimizar las interacciones con IA:

  • Evitar palabras innecesarias y enfocarse en la información clave.

  • Realizar consultas claras y específicas para minimizar la cantidad de tokens procesados.

  • Ser consciente del impacto ambiental de cada consulta y adoptar un enfoque responsable en el uso de la tecnología.

  • Considerar el contexto de la consulta y evaluar si la inclusión de expresiones de cortesía realmente aporta algún valor a la interacción.

Conclusión: Eficiencia y conciencia ecológica en el uso de IA

La inteligencia artificial ha transformado la forma en que interactuamos con la tecnología, pero también ha introducido nuevos desafíos en términos de sostenibilidad y eficiencia. Las expresiones de cortesía, aunque bien intencionadas, pueden parecer insignificantes en el contexto de una única consulta, pero a gran escala representan un gasto considerable de recursos.

Para minimizar el impacto ambiental y optimizar el rendimiento del sistema, es fundamental que los usuarios adopten un enfoque conciso y directo al interactuar con la IA. Esto no significa ser descortés, sino ser consciente de que la IA no requiere ni interpreta el tono humano de la misma manera que lo haría una persona.

En última instancia, la clave está en equilibrar la eficiencia operativa con el uso responsable de la tecnología, adoptando prácticas que permitan aprovechar los avances de la inteligencia artificial sin comprometer el medio ambiente ni los recursos computacionales.