De mai bine de cincizeci de ani, prognozele meteo s-au bazat în principal pe modele fizice rulate pe supercomputere, însă acum apare o schimbare semnificativă: modelele AI, precum DeepMind de la Google, încep să ofere rezultate comparabile sau chiar superioare la prognoza uraganelor. Într-un sezon recent, DeepMind a reușit să anticipeze atât traiectoriile, cât și variațiile de intensitate ale uraganelor la un nivel surprinzător de ridicat, ceea ce ridică întrebarea cât de rapid se va transforma modul în care realizăm previziunile pentru fenomene atmosferice severe.
DeepMind a înregistrat performanțe remarcabile pe două paliere esențiale: urmărirea traiectoriei furtunii și estimarea intensității. Estimarea intensității este recunoscută ca mult mai dificilă, deoarece depinde de procese locale, transferuri de energie și interacțiuni complexe în interiorul ochiului furtunii. Interesant este că modelul AI a funcționat bine în ambele privințe în prima sa perioadă de testare „sezonieră”, demonstrând capacitatea rețelelor neuronale de a învăța tipare din date istorice și observații recente. În plus, modelele bazate pe date promit timpi de calcul mult mai scurți decât modelele tradiționale care rezolvă ecuațiile fizicii atmosferice, acestea din urmă necesită supercomputere costisitoare și ore de procesare, ceea ce înseamnă previziuni mai rapide, esențiale când fiecare minut contează înainte de impact.
De menționat: comparația inițială nu a inclus modelul de referință ECMWF, cel construit pe principii fizice, însă istoricul arată că ECMWF nu întotdeauna depășește centrele specializate pentru uragane sau modelele consensuale care combină mai multe prognoze. Prin urmare, nu surprinde faptul că o abordare AI precum DeepMind poate concura cu cele mai bune opțiuni. Michael Lowry, specialist în uragane și autor al newsletterului Eye on the Tropics, subliniază că modelele AI nu doar că oferă rezultate mai rapide, dar au și potențialul de a învăța din erori și de a se corecta în timp real prin arhitecturile lor neuronale. E ca un elev care învață din teste, doar că miza este mult mai mare.
Pe de altă parte, modelul nord-american GFS a avut un sezon slab, considerat de unii meteorologi inexplicabil. Până nu demult, GFS era cel puțin o opțiune luată în considerare; în acest sezon mulți forecasteri l-au ignorat frecvent. Cauzele exacte nu sunt limpezi: s-au vehiculat ipoteze privind reduceri în colectarea de date sau probleme administrative, iar factorii politici, cum ar fi un shutdown guvernamental, pot complica accesul la informații și explicații. O posibilă explicație tehnică este că revizuirea majoră a nucleului dinamic al modelului, începută în 2019, nu a oferit rezultatele așteptate. Dacă acum un deceniu GFS era doar puțin în urmă față de concurenți, acum pare că a început să piardă teren mai rapid.
Această tranziție către modele AI ridică întrebări practice și conceptuale. Din punct de vedere practic, centrele meteorologice și serviciile publice vor trebui să combine validarea tradițională cu utilizarea vitezei și flexibilității modelelor data-driven. Din punct de vedere conceptual, apare problema transparenței: modelele fizice se bazează pe ecuații cunoscute, în timp ce rețelele neuronale funcționează adesea ca „cutii negre”, pot prezice corect, dar explicarea motivelor deciziilor lor rămâne mai dificilă. Aceasta are implicații pentru încrederea publică și pentru modul în care sunt comunicate avertismentele înaintea unui eveniment meteorologic sever.
DeepMind a arătat că modelele AI pot concura la calcule privind traiectoria și intensitatea, iar GFS a evidențiat vulnerabilități după update-uri majore. Rămâne de văzut cum vor evolua aceste instrumente: vor coopera, se vor completa reciproc sau vor intra într-o competiție tehnologică care să accelereze progresul? Dacă rețelele neuronale continuă să se perfecționeze, viitorul prognozelor ar putea aduce previziuni mai rapide și, posibil, mai precise pentru uragane, un beneficiu concret pentru comunicarea riscului și deciziile de protecție civilă.
DeepMind, GFS și ECMWF sunt nume frecvent invocate în discuțiile tehnice despre prognoze. Datele sezoniere și modernizările software din ultimii ani, inclusiv schimbări majore ale nucleelor dinamice, sunt exemple clare care influențează fiabilitatea modelelor. Când un model nou excelează la intensitate și traiectorie, iar altul scade după o actualizare, rezultatul reflectă nu doar tehnologia în sine, ci și integrarea sa în structuri instituționale, accesul la date și metodele de verificare. Ce urmează: o serie de upgrade-uri, mai mulți competitori AI sau o armonizare între abordările fizice și cele bazate pe date? Care dintre aceste direcții credeți că ar reduce cel mai mult erorile de prognoză în următorii cinci ani?

Fii primul care comentează