Des serveurs en orbite, alimentés par l'énergie solaire illimitée de l'espace, refroidis par le vide sidéral, libérés des contraintes terrestres. L'image ressemble à de la science-fiction. Et pourtant, en février 2026, c'est devenu le sujet le plus débattu de la Silicon Valley. Elon Musk vient de fusionner SpaceX et xAI pour créer la plus grande entreprise privée au monde — avec comme objectif affiché de déplacer le calcul IA hors de la Terre. C'est visionnaire ou complètement fou ? Probablement les deux.
⚡ Ce qu'il faut retenir
- SpaceX + xAI : Musk fusionne ses deux entreprises et dépose une demande FCC pour lancer jusqu'à 1 million de satellites-serveurs
- Starcloud-1 : Le premier GPU NVIDIA H100 fonctionne en orbite depuis novembre 2025 — un LLM a été entraîné dans l'espace pour la première fois
- Google Suncatcher : 81 satellites en formation, prototypes prévus pour 2027
- Altman vs Musk : Le CEO d'OpenAI juge l'idée "ridicule" pour cette décennie, citant les coûts de lancement et l'impossibilité de réparer un GPU en orbite
- Coût estimé : Un data center orbital de 1 GW coûterait 42,4 milliards de dollars — trois fois plus qu'au sol
La fusion SpaceX-xAI : la plus grosse opération de l'histoire tech
Le 2 février 2026, SpaceX a officiellement acquis xAI, la startup d'intelligence artificielle de Musk (celle derrière le chatbot Grok). La fusion crée la plus grande entreprise privée au monde, valorisée à plus de 1 000 milliards de dollars, avant une probable introduction en bourse prévue pour mi-2026.
Mais ce n'est pas une fusion classique motivée uniquement par les revenus. Dans son mémo interne, Musk est direct : l'objectif principal est de créer des data centers spatiaux. Son argument tient en une phrase : la demande énergétique de l'IA ne peut tout simplement pas être satisfaite par des solutions terrestres sans imposer des difficultés aux communautés et à l'environnement.
Le 30 janvier, SpaceX a déposé une demande auprès de la FCC (Federal Communications Commission) pour lancer jusqu'à 1 million de satellites destinés à former une méga-constellation de data centers orbitaux. Les satellites seraient déployés entre 500 et 2 000 km d'altitude, communiqueraient entre eux et avec la constellation Starlink via des liens laser optiques. Starlink transmettrait ensuite les requêtes d'inférence IA vers et depuis la Terre.
Pourquoi l'espace ? L'argument énergétique
L'idée n'est pas aussi absurde qu'elle en a l'air au premier abord. Le raisonnement de Musk repose sur un constat simple : les data centers IA terrestres sont des gouffres énergétiques qui mettent sous pression les réseaux électriques et les ressources en eau. Une analyse de Bloomberg a montré que les zones proches des data centers ont vu leurs coûts d'électricité augmenter jusqu'à 267% en cinq ans.
Dans l'espace, les avantages théoriques sont réels. En orbite héliosynchrone (le long de la ligne terminateur jour/nuit), les panneaux solaires captent la lumière en quasi-permanence — pas de nuit, pas de nuages, pas de météo. Le vide spatial sert de dissipateur thermique infini, éliminant le besoin de systèmes de refroidissement par eau. Et il n'y a pas de contrainte foncière.
Musk a déclaré au Forum de Davos en janvier 2026 que l'espace deviendrait l'endroit le moins cher pour le calcul IA "d'ici deux à trois ans". Deutsche Bank est nettement moins optimiste : la parité de coût avec les data centers terrestres ne serait atteinte qu'au milieu des années 2030.
1 million
Satellites demandés à la FCC par SpaceX
267%
Hausse des coûts électriques près des data centers
100 GW/an
Capacité IA visée par SpaceX en orbite
Starcloud : la preuve que ça fonctionne (à petite échelle)
Pendant que Musk dessine des plans à un million de satellites, une startup de Redmond (Washington) a déjà prouvé le concept. En novembre 2025, Starcloud, soutenue par NVIDIA, a lancé Starcloud-1 : un satellite de 60 kg, de la taille d'un petit réfrigérateur, embarquant le premier GPU NVIDIA H100 jamais envoyé dans l'espace.
Le résultat est historique. Le satellite a réussi à entraîner NanoGPT d'OpenAI et à faire tourner Gemma, le modèle de langage de Google, directement en orbite. C'est la première fois qu'un LLM a été opéré sur un GPU de classe data center dans l'espace. Le H100 embarqué offre une puissance de calcul 100 fois supérieure à tout ce qui a volé en orbite auparavant.
La vision à long terme de Starcloud est ambitieuse : un data center orbital de 5 gigawatts, alimenté par des panneaux solaires de 4 km de côté. L'entreprise projette des coûts énergétiques 10 fois inférieurs en orbite par rapport au sol, avec des économies de CO₂ d'un facteur 10 sur la durée de vie du data center. La prochaine mission, Starcloud-2, embarquera un cluster de GPU complet et devrait être opérationnelle en orbite héliosynchrone d'ici 2027.
Google, Bezos, Schmidt : tout le monde s'y met
Musk n'est pas seul dans cette course. La liste des partisans du data center orbital ressemble au who's who de la tech mondiale :
Google — Projet Suncatcher : confirmé par Sundar Pichai, ce projet prévoit 81 satellites volant en formation pour créer un data center solaire spatial. Les premiers prototypes sont ciblés pour 2027. Pichai a déclaré que Google pourrait commencer à placer des data centers alimentés par le soleil dans l'espace dès l'année prochaine.
Jeff Bezos a prédit lors de l'Italian Tech Week en octobre 2025 que des "data centers gigawatt géants" existeraient dans l'espace d'ici 20 ans, argumentant qu'ils finiront par être moins chers que les solutions terrestres.
Eric Schmidt, l'ancien PDG de Google, a carrément racheté le fabricant de fusées Relativity Space — un investissement qu'il a confirmé sur X comme étant lié aux data centers orbitaux.
La Chine n'est pas en reste. Début 2026, la CASC (China Aerospace Science and Technology Corporation) a annoncé l'initiative "space+", incluant des plans pour une infrastructure spatiale de niveau gigawatt destinée au traitement de données en orbite.
Altman vs Musk : le clash
Lors de l'India AI Impact Summit le 21 février 2026, Sam Altman a jeté un pavé dans la mare. Son verdict sur les data centers spatiaux est sans appel : "ridicule".
Ses arguments sont pragmatiques. Premièrement, les coûts de lancement : il en coûte environ 5,6 millions de dollars pour envoyer 800 kg en orbite basse avec une fusée SpaceX. À l'échelle d'un data center complet, les chiffres deviennent vertigineux — un data center orbital de 1 GW coûterait environ 42,4 milliards de dollars, soit presque trois fois le coût d'une installation terrestre équivalente.
Deuxièmement, la maintenance. Les GPU tombent en panne constamment — Meta a documenté un taux de défaillance d'environ 9% lors de l'entraînement de Llama 3. Sur Terre, on remplace un GPU grillé en quelques minutes. En orbite ? C'est un scénario "fly till you die" comme le résume Andrew McCalip de Varda Space Industries.
Troisièmement, la résistance aux radiations. Les technologies de fabrication avancées comme le 4 nm de TSMC, utilisées pour les GPU NVIDIA B200/B300, ne sont pas durcies contre les radiations spatiales. Les composants en orbite ont une durée de vie typique de 5 ans à cause des dommages par radiation.
⚔️ Le match Musk vs Altman
- Musk : "L'espace sera l'endroit le moins cher pour l'IA d'ici 2-3 ans"
- Altman : "C'est ridicule. Les data centers orbitaux ne compteront pas à l'échelle cette décennie"
- Deutsche Bank : Parité de coût "bien dans les années 2030"
- ESPI : Un data center spatial compétitif est "à au moins 20 ans"
L'ironie ? Altman lui-même avait envisagé de racheter Stoke Space fin 2025 pour... déployer des data centers en orbite. Et sur un podcast en 2025, il suggérait : "Peut-être qu'on met les data centers dans l'espace." Le revirement est notable.
Les défis techniques réels
Le problème thermique
C'est le point que beaucoup sous-estiment. Les GPU IA génèrent énormément de chaleur. Dans le vide spatial, seule la radiation permet de dissiper la chaleur (pas de convection, pas de conduction). L'ISS utilise déjà un système complexe de refroidissement à l'ammoniac liquide avec de grands radiateurs. Un data center de haute puissance nécessiterait des systèmes de refroidissement massifs dont la masse de lancement grignotera le budget de charge utile disponible pour le calcul.
Les débris orbitaux
Il y a actuellement environ 15 000 à 45 000 objets artificiels en orbite selon les estimations. Ajouter 1 million de satellites supplémentaires pose un risque sérieux de syndrome de Kessler — une cascade de collisions rendant certaines orbites inutilisables. Selon le professeur Aaron Boley de l'Université de Colombie-Britannique, l'espace au-dessus de 700 km montre déjà des signes précurseurs de ce phénomène.
La latence
Pour l'entraînement de modèles IA, la latence des communications entre l'orbite et le sol pourrait être un frein. L'inférence (répondre à une requête) est plus faisable, mais l'entraînement de grands modèles nécessite des échanges de données massifs et ultra-rapides entre GPU — un défi colossal à travers des liens laser spatiaux.
Et la France dans tout ça ?
Le sujet n'est pas qu'américain. Avec l'ambition affichée de "faire de la France une puissance de l'IA", le nombre de data centers en France est appelé à croître fortement. Mais la question de la souveraineté se pose : si demain le calcul IA se fait massivement en orbite via des constellations contrôlées par SpaceX ou Google, quelle place pour les acteurs européens ?
Comme le souligne Jermaine Gutierrez du European Space Policy Institute : "Celui qui contrôle cette infrastructure IA pourrait contrôler la technologie." Un monopole extra-terrestre américain sur la chaîne d'approvisionnement logicielle mondiale — voilà un scénario qui devrait inquiéter bien au-delà des cercles tech.
Conclusion : ridicule ou visionnaire ?
Les deux, et c'est justement ce qui rend le sujet fascinant. À court terme, Altman a raison : les maths ne fonctionnent pas encore. Les coûts de lancement, la résistance aux radiations, la maintenance impossible et le refroidissement représentent des obstacles concrets que aucune annonce sur X ne peut surmonter.
Mais à moyen terme, les signaux sont difficiles à ignorer. Starcloud a prouvé qu'un H100 peut fonctionner en orbite. Les coûts de lancement baissent tandis que les coûts des data centers terrestres explosent. Et quand Musk, Bezos, Pichai et Schmidt convergent sur la même idée — même si leurs timelines diffèrent — c'est généralement que quelque chose se prépare.
🔮 Notre pronostic
- 2027 : Premiers prototypes commerciaux (Starcloud-2, Google Suncatcher)
- 2030 : Premiers services cloud orbitaux limités, principalement pour l'observation terrestre et l'inférence légère
- 2035+ : Parité de coût potentielle avec les data centers terrestres pour certains workloads
- Le million de satellites de Musk : Pas avant 2040, si jamais. Mais il suffit que 1% du plan se réalise pour changer la donne.
Un chercheur de l'ESPI résume parfaitement la situation concernant les prédictions de Musk : "Je pense toujours à ajouter un zéro invisible après chacune de ses prédictions." Data centers en orbite dans 2-3 ans ? Probablement 20-30 ans. Mais le fait qu'on en parle sérieusement en 2026 est déjà extraordinaire.
📚 Sources
- SpaceX officially acquires xAI, with plan to build data centers in space — TechCrunch
- Musk sets sights on data center megaconstellation — Astronomy.com
- Elon Musk's bold new plan to put AI in orbit — CNN Business
- Nvidia-backed Starcloud trains first AI model in space — CNBC
- How Starcloud Is Bringing Data Centers to Outer Space — NVIDIA Blog
- AI data centers in space are having a moment. Experts say: Not so fast — Fortune
- Musk's space data centre plans could see SpaceX monopoly — Euronews
- Orbital AI data centers could work, but they might ruin Earth — Engadget
- Altman calls Musk's space data center plans 'ridiculous' — Fox Business
- Sam Altman fires back at Musk's proposal — Tom's Hardware