Nuances sur l'empreinte écologique de l'IAg

Nuances sur l'empreinte écologique de l'IAg

by Jean Alvin -
Number of replies: 0

Je me permets de partager ce post Linkedin de Rochane Kherbouche qui permet de nuancer la consommation énergétique de l'IAg, en particulier comparée à une recherche Google :

"On nous a répété pendant 2 ans que l'IA consomme 10 fois plus qu'une recherche Google.
C'est vrai. Pour une question simple.
Mais une requête Gemini standard consomme aujourd'hui 0,24 Wh. Google Search : 0,30 Wh. Google a divisé le coût d'une invite par 33 en 12 mois.
Là où ça change vraiment, c'est sur mobile, pour une recherche complexe. Quand tu ouvres 3, 4, 5 onglets : écran allumé, modem 5G actif, scripts qui tournent, publicités qui se chargent, l'IA devient jusqu'à 5,4 fois plus sobre. Elle répond en une transaction. Vous évitez l'accumulation.
Ces chiffres ne viennent pas d'un communiqué de presse. Ils viennent de :
- L'Agence Internationale de l'Énergie (rapport Electricity 2024)
- L'Université de Copenhague, étude ICASSP-2024 (Selvan, Bakhtiarifard, Igel) sur 429 000 architectures de réseaux de neurones
- Les rapports environnementaux publiés par Google et Meta
L'étude de Copenhague montre autre chose : en choisissant les bonnes architectures dès la conception, on économise 70 à 80 % d'énergie avec moins de 1 % de perte de précision. Pas une promesse. Une mesure sur 429 000 modèles.
Le vrai problème reste les modèles de raisonnement. Un prompt sur o3 d'OpenAI : jusqu'à 33 Wh. L'équivalent de 110 recherches Google. Utiliser ce type de modèle pour une question banale, c'est exactement ça le gaspillage numérique.
J'ai compilé l'ensemble dans une infographie interactive : ia-conso.rochane.fr 
(les sources sont en bas dans l'infographie)
La sobriété numérique ne passe pas par "utiliser moins l'IA". Elle passe par utiliser le bon modèle pour la bonne tâche."

L'image donne des infos sur la consommation énergétique d'une recherche par un modèle d'IA comparée à une recherche Google


Les conclusions de ce post convergent justement avec la publication de Charles Duprat ci-dessous :
L'article The Thermodynamic Efficiency Inversion de Charles Duprat propose une évaluation comparative de l'énergie consommée par les modèles de langage de grande taille (LLM) par rapport aux sessions de recherche Web soutenues par la publicité.

Points clés :

  • L'article remet en question la manière dont l'énergie est évaluée en comparant les modèles LLM, souvent jugés comme intensifs en énergie pour chaque prompt, avec des requêtes de recherche Web. Au lieu de se concentrer sur l'énergie par requête, Duprat suggère d'examiner l'énergie par session de tâche, c'est-à-dire l'énergie totale pour satisfaire un besoin d'information.
  • Résultats de l'analyse : L'évaluation complète montre que, dans des scénarios complexes, l’énergie nécessaire pour utiliser un LLM peut être 4 à 9 fois inférieure à celle d'une recherche Web traditionnelle, notamment sur des appareils mobiles.
  • Inversion d'efficacité : Pour les tâches simples, l'avantage d'efficacité des LLM disparaît presque, surtout dans des conditions de Wi-Fi où l'énergie de transfert est très faible.

    Source : https://dupr.at/thermodynamic-efficiency-inversion