ProIT: медіа для профі в IT
5 хв

Що заважає будувати орбітальні дата-центри та коли це може статися

author avatar Світлана Чапліч

У грудні 2025 року інвестор Гевін Бейкер висунув тезу, яка швидко облетіла технологічну спільноту. За його словами, орбітальні дата-центри перевершують наземні в усьому — від енергетики до охолодження.

Ілон Маск пішов ще далі. В одному зі своїх інтерв’ю у лютому 2026 року він припустив, що протягом 30 місяців орбіта стане найбільш економічно привабливим місцем для розгортання AI-обчислень. За 5 років щорічний обсяг космічних AI-потужностей перевищить усе, що зараз існує на Землі.

Чи дійсно орбітальні дата-центри — це наше найближче майбутнє? Спробуємо розібратися.

Два погляди на ідею розміщення орбітальних дата-центрів

Згідно зі звітом Gartner, до 2027 року енергетичні обмеження будуть стосуватися вже близько 40% вже побудованих AI-дата-центрів — переважно через те, що електромережі будуть нездатні задовольнити попит. Він зріс через масове поширення генеративного та агентського ШІ, проте технічні обмеження нікуди не ділися.

Як і раніше, потрібно організувати ефективне охолодження (класичне або альтернативне), отримати безліч дозволів, а в деяких регіонах додатково подолати місцевий супротив. Усе це співпало з періодом, коли ці дата-центри перестали сприймати як будівлі для серверів. Останні кілька років вони належать до критичної інфраструктури, яка до того ж споживає порівнянні з невеликими містами обсяги ресурсів.

Жодної із цих проблем немає на орбіті. Сонячно-синхронна орбіта (SSO) забезпечує практично постійний і стабільний кут освітлення від Сонця, без атмосферного розсіювання та хмарності, а інтенсивність сонячного випромінювання в космосі на 30% вища, ніж на поверхні. Охолодження забезпечується радіаційним випромінюванням у тепловий вакуум, жодного літра води для цього не потрібно.

Компанія SpaceX подала до FCC заявку на розміщення саме на SSO. У внутрішньому меморандумі компанії, який став публічним після оголошення про купівлю xAI, Маск наводить конкретні цифри. Він планує щороку виводити на орбіту 1 мільйон тонн супутників з обчислювальною потужністю 100 кіловат на тонну, і всі ці ресурси будуть спрямовані на обслуговування AI-обчислень.

У тому самому документі цю стратегію називають першим кроком до цивілізації Кардашева другого рівня, тобто такої, яка здатна використовувати повний енергетичний потенціал Сонця.

Нагадаємо, що після об’єднання SpaceX і xAI спільно оцінюються у приблизно $1,25 трильйона ($1 трильйон і $250 мільярдів відповідно). Тепер обчислювальна інфраструктура для ШІ-моделей і ракети для її виведення на орбіту належать одній компанії.

Деякі заяви Маска іноді виглядають надто фантастично, і ця не є виключенням. Сем Альтман з OpenAI на заході розкритикував і назвав абсурдною ідею розміщувати дата-центри в космосі в нинішніх умовах. Хоча він підтвердив, що колись це матиме сенс, але якщо рахувати прямо зараз вартість запуску відносно ціни земної електроенергії, картина невтішна. На думку Альтмана, орбітальні дата-центри навряд чи стануть помітним явищем у масштабах галузі цього десятиліття.

Інші фахівці розкритикували й ідею подання заявки на FCC, адже вважають запуск такої кількості супутників захопленням орбітального ресурсу. Втім практика надсилати запити з надлишковими лімітами є типовою для SpaceX, і регулятор теж може не схвалити такий рій нових супутників.

Окрім цих розбіжностей, існують реальні інженерні проблеми. Радіаційне середовище на низькій навколоземній орбіті руйнує напівпровідники набагато швидше, ніж це відбувається на Землі. До того ж сучасні графічні процесори не проєктувалися для роботи в умовах постійного сонячного опромінення. Хоча стійка до радіаційного впливу електроніка існує, коштує вона дорожче, а її продуктивність нижча, що неприйнятно для AI-навантажень.

Крім того, навіть на SSO-орбіті час відгуку між супутником і наземним користувачем становить 20–40 мс, а для AI-інференсу в реальному часі це може бути неприйнятним.

Окреме занепокоєння викликає перспектива подальшого забруднення космосу. Якщо у орбітального дата-центра відмовить якийсь вузол, обслуговувати його буде нікому і він теж стане космічним сміттям. Це підвищує ризики виникнення ефекту Кесслера, коли достатня щільність уламків робить навколоземний простір непридатним на десятиліття.

Чи є технічні підстави?

Ідея створення дата-центрів у космосі виникла кілька десятиліть тому, але лише нещодавно про неї заговорили серйозно. Колись інженери Google розклали проблему втілення цього проєкту на три складові: організація міжсупутникових каналів зв'язку рівня дата-центру, управління щільними орбітальними формаціями та радіаційна стійкість обладнання.

У теорії всі проблеми можна вирішити, але практично цього досі не сталося. Тим більше, що сонячно-синхронна орбіта забезпечує значно стабільніший потік освітлення, ніж будь-яка інша точка на поверхні Землі. Це робить бортову генерацію більш керованою і передбачуваною.

Також потрібно врахувати, що не всі орбітальні обчислення однакові: є три принципово різні концепції.

Перша — це граничні обчислення безпосередньо на борту супутника. Це ідеально для обробки даних дистанційного зондування або інтернету речей, коли дані не потрібно буде зайвий раз передавати на Землю.

Друга — це великі обчислювальні кластери на орбіті для виконання масштабних AI-задач, коли результати в будь-якому разі потрібно пересилати на Землю.

Третя — це орбітальні архіви, призначені спеціально для великих обсягів даних, доступ до яких потрібен епізодично.

Перша концепція вже працює, третя поки залишається в теорії, а друга — та сама, яку просуває Маск і навколо якої точаться найгостріші дискусії. Її найскладніше реалізувати технічно. Якщо це колись станеться, вона буде найбільш прибутковою.

Не тільки Маск: як справи в інших проєктів орбітальних ДЦ?

У листопаді минулого року стартап Starcloud за підтримки NVIDIA вивів на орбіту Starcloud-1 — перший супутник з графічним процесором NVIDIA H100 на борту. Вже за місяць була навчена перша AI-модель, що підтвердило реальність орбітальних обчислень на відеокартах поза бортом МКС.

На початку 2026 року компанія Axiom Space доставила на низьку навколоземну орбіту перші автономні вузли орбітального дата-центру у складі оптичної мережі Kepler Communications, щоб забезпечити міжсупутникові з'єднання на швидкості 2,5 Гбіт/с. Раніше компанія вже випробувала прототип цього дата-центру безпосередньо на МКС, щоб відпрацювати базові концепції.

Паралельно в Європі завершилося дослідження ASCEND, яке профінансував Євросоюз у межах програми Horizon Europe. Виконавець, компанія Thales Alenia Space підтвердила технічну й економічну доцільність цього проєкту, тож до 2050 року на орбіті може з’явитися європейський дата-центр потужністю 1 ГВт.

Серед його ключових переваг — нульові витрати води на охолодження і потенційно нижчий вуглецевий слід за умови, що буде налагоджене відновлюване виробництво ракетного палива.

Blue Origin також не лишилася осторонь тренду. У січні 2026 року компанія анонсувала TeraWave — сузір'я з 5408 оптично з'єднаних супутників (5280 на низькій і 128 на середній орбіті) із сукупною пропускною спроможністю до 6 Тбіт/с.

TeraWave позиціонується як оптична магістраль для Sunrise — ще одного проєкту з розміщення на 51 600 супутників-дата-центрів на сонячно-синхронній орбіті. Відповідна заявка вже перебуває на розгляді у FCC.

У чому складність масштабних обчислень за межами Землі

Головним бар’єром залишається радіаційна стійкість. Безперервні потоки заряджених частинок на низькій навколоземній орбіті поступово руйнують кремній, тоді як звичайні серверні компоненти розраховані на роки роботи у більш сприятливих умовах. Тобто на орбіті той самий процесор може вийти з ладу через кілька місяців.

Хоча радіаційно захищена електроніка також існує, вона коштує суттєво більше, проте не відповідає вимогам сучасних AI-навантажень.

Як і раніше, гостро постає проблема високої вартості, яка хоча і знижується, проте надто повільно. Компанія SpaceX розраховує, що вона впаде до $10–50 за кілограм, але коли це станеться — невідомо.

На орбіту потрібно буде доставляти великі вантажі, адже лише один середній серверний вузол для AI-обчислень важить десятки кілограмів, а таких вузлів будуть сотні й тисячі. Тобто зараз капітальні витрати на орбітальну інфраструктуру навіть близько не конкурують із наземними.

Є і регуляторні перепони. Наприклад, заявки SpaceX і Blue Origin на відправлення великої кількості супутників уже викликали публічні заперечення від астрономічної спільноти, операторів інших сузір'їв і деяких регуляторних органів.

Чого очікувати найближчим часом

До кінця 2027 року ми можемо дочекатися розгортання перших комерційних граничних обчислювальних сервісів на орбіті від Axiom Space і Starcloud, які орієнтовані на геопросторові AI-задачі та обробку супутникових знімків. Саме в цьому сегменті затримка некритична, а переваги обробки даних максимально близько до місця їх отримання є очевидними.

Показово, що на орбітальні обчислення ставить уже не лише стартап-ентузіаст. У березні 2026 року NVIDIA презентувала Space-1 Vera Rubin — спеціалізований обчислювальний модуль, розроблений саме для роботи в умовах космосу. Якщо найбільший виробник AI-чіпів починає проєктувати продукти під орбітальну інфраструктуру, це свідчить про серйозний потенціал.

Цілком можливо, що за цей період у лідерах опиниться Китай, який випередить західні компанії, розгорнувши своє сузір'я на 200 000 супутників. Частина з них призначена саме для обчислень у межах високонавантажених проєктів. Тобто орбітальні обчислення поступово перетворюються на змагання за технологічну перевагу у межах нових космічних перегонів.

Найближчі пару років покажуть, чи мав рацію Сем Альтман зі своїм скептичним поглядом на розгортання масштабного AI-кластера на орбіті. Колись це точно матиме сенс і буде реалізовано. Питання лише в тому, хто встигне зробити це першим і встановлювати правила гри.

Підписуйтеся на ProIT у Telegram, щоб не пропустити жодної публікації!

Приєднатися до company logo
Продовжуючи, ти погоджуєшся з умовами Публічної оферти та Політикою конфіденційності.