Des mini-centrales nucléaires pour l'IA?

Voici un extrait d'une discussion avec un copain qui bosse dans l'informatique, un ingénieur linux en quelque sorte.
"Les gens ne se rendent pas bien compte quand ils consomment de l'IA pour "s'amuser"
Il faut croire que l'humanité cherche obstinément des raisons de plus en plus certaines de s'auto-détruire ! Le recours au SMR (nucléaire) est de plus en plus pressant à cause de l'IA.
Les CPU (processeurs) consomment relativement peu d'électricité, comparativement aux GPU, l'IA étant calculée par des sortes de GPU, qui sont nettement plus gourmands que les CPU.
En gros, un rack informatique équipé pour l'IA consomme entre 8 et 10 fois plus que son homologue "classique" (et pèse également plus lourd, ce qui demande de refaire les datacenters dont on dispose déjà, qui ne peuvent pas supporter le poids).
Dans l'absolu, passer au nucléaire pour les datacenters serait bénéfique pour le réchauffement climatique, les datacenters marchant principalement à l'énergie fossile.
SAUF que voilà, plutôt que de garder la même consommation électrique, on a plutôt décidé de la faire exploser =/
https://www.solutions-numeriques.com/articles/les-9-orientations-technologiques/
Toutefois, héberger des environnements HPC n’est pas héberger des environnements classiques peuplés essentiellement de CPU. De nombreuses différences structurelles existent : consommation moyenne des machines CPU de 6KW par Rack contre 60 kW par rack pour les environnements HPC, refroidissement par air pour les CPU contre un refroidissement liquide pour les GPU, poids au sol beaucoup plus important pour les environnements HPC (environ 3T/m² vs 1T/m² pour les environnement classiques) … Tous ces éléments impactent très fortement les stratégies industrielles des concepteurs de Datacenters et les obligent à penser le cycle de vie de ces bâtiments essentiels de manière différente.
https://www.solutions-numeriques.com/communiques/limpact-de-lia-dans-le-secteur-des-datacenters/
en fait, l'article fait une erreur (mineure, il s'adresse avant tout à des décideurs, donc faut simplifier les choses) en assimilant le calcul scientifique classique (HPC = High Performance Computing), qui existe depuis des dizaines d'années, et les besoins spécifiques de l'IA, qui n'est pas tout à fait du HPC. C'est pas le même matos, pas les mêmes besoins, pas les mêmes applications pratiques, pas les mêmes problématiques
pour l'IA, le CPU ne sert pas à grand chose, ce qui compte, ce sont les "tensor cores", les mêmes que tu retrouves sur les cartes graphiques Nvidia, et qui font des calculs trop complexes pour les CPU. C'est notamment grâce à ça que les cartes RTX de chez Nvidia font du raytracing, avec des niveaux de performance beaucoup plus élevées.
En gros, sur un serveur dédié à l'IA, tu places un CPU basique, ce qui ne consomme que peu d'électricité, et tu le remplis à raz bord de cartes graphiques sur-boostées, qui consomment énormément, tu en mets 2, 4, 8, c'est ça qui fait exploser ta consommation électrique, la chaleur dégagée, et le poids