Proiectul Suncatcher: Google propune sateliți echipați cu TPU pentru centre de calcul AI alimentate de energie solară

Când ne imaginăm viitorul inteligenței artificiale, ne vin în minte, de obicei, servere enorme pe Pământ. Acum Google propune o abordare diferită: Project Suncatcher, un concept care mută procesoare TPU în spațiu, montate pe constelații de sateliți ce pot folosi aproape continuu energie solară pentru a rula sarcini ample de machine learning. Inițiativa îmbină idei vechi despre captarea energiei solare în spațiu cu progrese recente în acceleratoare AI și comunicații optice, iar testele preliminare par să confirme viabilitatea ideii.

Nucleul proiectului este ușor de exprimat, dar foarte ambițios în implementare: sateliți încărcați cu cipuri TPU care se conectează între ei prin legături optice în liber‑spațiu, formând o rețea distribuită de calcul pe orbita joasă. Alegerea unei orbite sun‑synchronous dawn–dusk permite panourilor solare să fie mult mai eficiente decât pe suprafața Pământului; Google afirmă că panourile pot fi de până la opt ori mai productive în aceste condiții, reducând nevoia de baterii și alte surse de energie. Pentru ca o rețea spațială să rivalizeze cu centrele de date terestre, legăturile inter‑satelit trebuie să ofere zeci de terabiți pe secundă, iar sateliții ar trebui să zboare foarte apropiați unii de alții, uneori la distanțe de kilometri sau chiar sute de metri, ceea ce minimizează manevrele de menținere a poziției.

Un impediment tehnic semnificativ este radiația din spațiu. Google a realizat teste cu procesoarele Trillium v6e iar rezultatele sunt promițătoare: modulele de memorie HBM s-au dovedit cele mai vulnerabile, însă au început să prezinte erori abia după o doză cumulată de 2 krad(Si), aproape de trei ori mai mare decât doza estimată pentru o misiune de cinci ani (750 rad(Si)). Nu s‑au observat defecte critice până la 15 krad(Si) pe un cip, ceea ce indică o reziliență neașteptat de bună la radiație pentru aceste TPU‑uri. Aceasta nu înseamnă că toate problemele sunt rezolvate, dar sugerează că hardware‑ul AI contemporan ar putea supraviețui mediului orbital mai bine decât se credea.

Din punct de vedere al costurilor, Google pariază pe reducerea tarifului de lansare: prognozele estimează că până la mijlocul anilor 2030 costul ar putea scădea sub 200 de dolari pe kilogram. În acea situație, costurile de lansare și operare ale unui centru de date spațial ar putea deveni comparabile, pe kilowatt pe an, cu cele ale unui centru terestru echivalent. Analiza inițială a echipei indică că nu există limitări fizice sau bariere economice insurmontabile pentru conceptul de compute AI în spațiu, însă lista provocărilor rămâne lungă: gestionarea termică în vid, comunicațiile de mare lățime către sol, fiabilitatea sistemelor pe orbită și, nu în ultimul rând, menținerea formațiunii sateliților cu latență redusă.

Pentru a trece dincolo de teorie, Google colaborează cu Planet pentru a lansa două prototipuri până la începutul lui 2027. Acești sateliți vor verifica funcționarea modelelor și a hardware‑ului TPU în condiții reale și vor testa dacă legăturile optice inter‑satelit pot susține sarcini distribuite de machine learning. Raportul detaliat care descrie propunerea se intitulează Towards a future space-based, highly scalable AI infrastructure system design și conține datele și calculele care stau la baza estimărilor și a planului de dezvoltare.

Există și provocări practice: cum se va evacua căldura produsă de procesoare într‑un mediu fără aer, cum se va asigura conectivitatea robustă cu centrele de date terestre și cum se vor menține componentele și sistemele funcționale ani la rând în fața micrometeoriților și a radiației. Totuși, testele de radiație, planurile de lansare și colaborările din industrie arată că echipa abordează aceste probleme concret, nu doar teoretic.

Project Suncatcher pune în discuție legătura dintre energie, amplasament și calcul. Ideea de a valorifica un flux solar aproape continuu pentru a alimenta acceleratoare AI schimbă perspectiva asupra infrastructurii de calcul: nu mai este vorba doar de servere într‑un centru de date, ci de o rețea spațială care funcționează ca un super‑centru distribuit. Dacă modelul se dovedește eficient din punct de vedere energetic și al costurilor, ar putea remodela peisajul economic al infrastructurilor AI, în special dacă costurile de lansare vor scădea sub 200 USD/kg și comunicațiile optice inter‑satelit vor ajunge la zeci de terabiți pe secundă. Un exemplu concret: două prototipuri cu TPU‑uri pe orbită până în 2027, teste HBM tolerante până la 2 krad(Si) înainte de apariția neregulilor și estimarea de 200 USD/kg pentru lansări în anii 2030 conturează pașii următori. Reflectați asupra implicațiilor pentru aplicații precum procesarea în timp real a datelor satelitare sau antrenarea unor modele fără constrângerile energetice terestre. Ce scenarii vi se par cele mai plauzibile pentru utilizarea unei astfel de rețele spațiale de calcul?

Fii primul care comentează

Lasă un răspuns

Adresa ta de email nu va fi publicată.


*