DeepSeek, une start-up chinoise spécialisée dans l’intelligence artificielle (IA), a récemment bouleversé le secteur technologique en lançant un agent conversationnel performant à un coût nettement inférieur à celui de ses concurrents occidentaux. Cette avancée a provoqué des remous sur les marchés boursiers, affectant des géants technologiques tels que Nvidia, Alphabet et Microsoft.
(illustration : l’impact immédiat sur les marchés financiers de l’annonce des performances de DeepSeek)
Impact sur la consommation de ressources et l’efficacité énergétique.
DeepSeek affirme avoir développé son modèle d’IA avec un budget d’environ 5,6 millions de dollars, en utilisant environ 2 000 puces Nvidia. Chiffres à prendre avec précaution : ils ne sont pas encore vérifiables, et le projet DeepSeek bénéficie du travail effectué en amont sur d’autres projets.
Néanmoins, cette approche contraste fortement avec les investissements massifs de plusieurs centaines de millions de dollars, voire plus, réalisés par des entreprises américaines pour des projets similaires.
Cette optimisation des ressources suggère une consommation énergétique réduite, car le processus d’entraînement des modèles d’IA est notoirement énergivore. En réduisant les besoins en matériel informatique, DeepSeek pourrait potentiellement diminuer l’empreinte carbone associée au développement de l’IA.
Une réduction potentielle de l’impact environnemental.
Si les méthodes de DeepSeek sont adoptées à plus grande échelle, elles pourraient entraîner une diminution significative de la consommation énergétique mondiale liée à l’IA.
Comment ? Voici quelques éléments de réponse :
1. Optimisation du nombre de paramètres
- DeepSeek semble utiliser un modèle optimisé avec moins de paramètres que les LLM (Large Language Models) traditionnels, tout en conservant des performances comparables.
- Moins de paramètres signifie moins d’opérations de calcul et donc moins de consommation d’énergie pour l’entraînement et l’inférence.
2. Moins de GPU nécessaires pour l’entraînement
- DeepSeek aurait utilisé environ 2 000 GPU Nvidia, contre plusieurs dizaines de milliers pour des modèles concurrents (GPT-4, Gemini, etc.).
- Cela réduit considérablement l’empreinte énergétique de la phase d’entraînement, qui est la plus énergivore dans le cycle de vie d’un modèle d’IA.
3. Optimisation logicielle et matérielle
- Une meilleure gestion des ressources matérielles (comme l’utilisation de GPU plus efficaces) permet une consommation énergétique réduite.
- L’optimisation des algorithmes permet aussi de réduire le nombre de calculs inutiles, diminuant ainsi la dépense énergétique.
4. Approches de compression et quantification
- L’utilisation de techniques comme la quantification (réduction de la précision des nombres stockés) et la pruning (suppression des neurones inutiles) peut réduire de 50 % à 90 % la taille du modèle, diminuant ainsi la consommation en énergie.
5. Rationalisation de l’inférence
- Un modèle plus léger signifie une inférence plus rapide et moins coûteuse en énergie.
- Les centres de données consommeraient moins d’électricité en exécutant des modèles plus optimisés.
Quelle serait la réduction des ressources en énergie et émissions de CO2 ?
Si DeepSeek divise par 5 à 10 les ressources nécessaires à l’entraînement, cela peut se traduire par une réduction de 80 à 90 % de l’énergie consommée pour cette phase.
Si l’inférence est 2 à 5 fois plus efficace, la consommation énergétique mondiale liée à l’IA pourrait potentiellement baisser de 30 à 60 % (hypothèse à grande échelle).
Impact sur les émissions de CO₂
Réduire la consommation énergétique des datacenters permettrait aussi une diminution significative des émissions de CO₂, notamment dans les pays utilisant encore des sources d’énergie fossiles.
Certes, il faut se méfier des effets d’annonce, et l’on connait encore assez peu de chiffres vérifiés concernant le modèle DeepSeek.
Toutefois cette IA semble marquer une avancée significative en matière d’efficacité énergétique et pourrait jouer un rôle clé dans la réduction de l’empreinte environnementale de l’IA.
On objectera sans doute que son adoption massive entraînerait une explosion de la demande en IA, et que l’effet bénéfique pourrait être partiellement compensé par l’augmentation globale de l’utilisation de ces technologies.
Mais c’est un argument en grande partie falacieux. Car dans les faits, qui peut prétendre que l’adoption actuelle de l’IA par tous les pans de la société n’est pas irréversible, quel que soit le modèle proposé ?
Une chose est certaine : le plus sobre sera le mieux.