Vous allez me prendre pour un dingue mais je ne parierais pas un kopeck sur l’avenir de l’intelligence artificielle. Tout comme je ne crois pas en l’avenir du digital.
Pourquoi ?
Mon résonnement est très basique : l’intelligence artificielle ne peut fonctionner qu’avec l’énergie électrique, en tout cas pour l’instant. Aujourd’hui, les ordinateurs, data centers et autres réseaux absorbent environ 10 % de la consommation mondiale d’électricité. Et ce chiffre est en constante augmentation car nous sommes toujours plus nombreux à vivre dans un monde dématérialisé. L’envoi d’un simple mail d’1 Mo équivaut à l’utilisation d’une ampoule de 60 watts pendant 25 minutes !
« la consommation énergétique du numérique augmente de 8,5 % par an, sa part dans la consommation mondiale d’électricité (en croissance de 2 % par an) pourrait atteindre entre 20 et 50 % en 2030 »
Cédric VILLANI
Le soucis, c’est que la production d’électricité mondiale est issue de la conversion d’énergie primaire en énergie électrique. En 2018, la principale source de production d’électricité, c’était les énergies fossiles (64% dont 38% pour le charbon, 23% pour le gaz et 3% pour le pétrole). Mais le stock charbon/gaz/pétrole, formé il y a longtemps, ne se reconstitue pas. On puise à tour de bras dans des réserves limitées.
On a donc un problème : un développement de l’IA énergivore et une production électrique incapable de l’alimenter. Ceux qui misent sur la dématérialisation devront donc plancher sur cette équation. Une des pistes serait le remplacement de l’électricité sourcée fossile par du photovoltaïque (qui représente seulement 2% de la production électrique mondiale actuellement), de l’éolien (5% actuellement), de l’hydraulique (16% actuellement), de la biomasse (3% actuellement). Mais organiser une telle conversion nécessite de gros investissements et des travaux d’infrastructure que l’on ne sait faire aujourd’hui qu’avec des engins tournant au gazole !