IA et énergie
Il y a encore une dizaine d'années, seuls quelques acteurs utilisaient des GPU pour faire tourner leur modèles d'IA, très gourmands en énergie électrique, relativement à l'emplacement des centres, le temps d'entraînement (d'autant plus important qu'on augmente les itérations pour obtenir des résultats) et le matériel utilisé. Avec la multiplication des services et l'arrivée des LLM, la demande énergétique s'est multipliée augmentant drastiquement les émissions carbone de ce secteur d'activité.
La course capitaliste à l'IA n'a d'autre objectif que de chercher à proposer des services multi-fonctions, entraînés sur des quantités immenses de données pour faire faces à quantité de besoins (quitte à les inventer) et générant des émissions carbones proprement monstrueuses. Certains industriels prétendent que les outils en IA seraient susceptibles d'être utilisés justement dans le but de réduire la consommation énergétique, favorisant ainsi une sorte d'équilibre entre la consommation de l'IA et ses promesses. Pour l'instant ce ne sont que des promesses, et on peut dire aussi du solutionnisme.
L'une des solutions pour l'instant la plus efficace consiste à changer de méthode d'apprentissage, ainsi des chercheurs se penchent actuellement sur des méthodes plus économes en temps et en ressources énergétiques et de données. L'avenir de l'IA, contrairement aux affirmations hallucinées du CEO d'OpenAI Sam Altman ne devrait pas consister en une course toujours plus grande à la production d'énergie dans un monde ultra compétitif, mais dans l'amélioration des modèles pour des utilisations ciblées, économes et efficientes. Le cycle de vie des applications et la réutilisation des données d'entraînement doivent aussi être envisagées.