Companiile de infrastructură pentru inteligență artificială au prezentat la Santa Clara un sistem de inferență distribuit care rulează pe procesoare AMD, într-un eveniment în care parteneriatele între furnizori hardware și dezvoltatori de software par tot mai importante pentru viitorul AI. Evenimentul provine din AI Hardware Summit din 2018 și a evoluat în AI Infra Summit, locul unde se discută despre cum să rulezi modele mari mai eficient și mai ieftin, adică exact acea parte tehnică, poate plictisitoare pentru unii, dar esențială ca aplicațiile AI să funcționeze în lumea reală.
La AI Infra Summit 2025, care s-a desfășurat între 9 și 11 septembrie cu aproximativ 3.500 de participanți și peste 100 de parteneri, firma sud-coreeană Moreh a făcut o serie de anunțuri concrete. CEO-ul Moreh, Gangwon Jo, a prezentat în sesiunea Enterprise AI din 10 septembrie sistemul lor de inferență distribuit optimizat pentru procesoare AMD și a arătat benchmark-uri care, potrivit lor, ilustrează optimizări superioare față de soluții bazate pe NVIDIA pentru anumite modele de învățare profundă, inclusiv DeepSeek. În paralel, Moreh a anunțat o combinație de software propriu cu hardware Tenstorrent, sugerând apariția unor alternative competitive la ecosistemul dominat în mare măsură de NVIDIA.
Moreh a lucrat la summit împreună cu SGLang, o companie specializată în software pentru inferență deep learning, și a avut stand și sesiuni de networking pentru a-și consolida prezența în ecosistemul global, în special pe piața nord-americană. Planul este să dezvolte în colaborare cu SGLang un sistem de inferență distribuit pe AMD pentru a accelera intrarea pe piața inferenței pentru modele de învățare profundă, un segment care se extinde rapid. În esență, se urmărește crearea de soluții gata de utilizat care îmbină motorul software al Moreh cu procesoare AMD și, în anumite configurații, cu acceleratoare Tenstorrent.
Gangwon Jo a subliniat că Moreh este privită ca un partener software de încredere în ecosistemul AMD și că lucrează acum la proiecte de validare a conceptului cu mai multe companii mari care dezvoltă modele de limbaj. De asemenea, a menționat că colaborarea strânsă cu AMD, Tenstorrent și SGLang are ca scop poziționarea Moreh ca furnizor global care oferă clienților opțiuni diverse de infrastructură AI, nu doar dependență de un singur furnizor.
Pe lângă software-ul de inferență, Moreh dezvoltă propriul motor de infrastructură AI și, prin Motif Technologies, filiala sa dedicată LLM, își asigură capabilități în zona modelelor. Aceste mutări indică o strategie dublă: construire de tehnologie internă și colaborare cu jucători hardware precum AMD și Tenstorrent pentru a livra pachete competitive companiilor care trebuie să ruleze modele mari în producție.
Anunțurile de la Santa Clara nu sunt doar cifre și demonstrații. Ele reflectă o tendință mai amplă din industrie: furnizorii de software de infrastructură încearcă să ofere alternative la stack-urile dominante, în timp ce producătorii de hardware caută parteneri care să le furnizeze software optimizat. Pentru companii, asta înseamnă mai multe opțiuni în termeni de cost, performanță și flexibilitate. Exemple concrete din text: Moreh a prezentat rezultate legate de DeepSeek, a colaborat cu Tenstorrent la un nou sistem de semiconductori AI și lucrează cu SGLang pentru o versiune pe AMD. Sunt cifre și nume specifice, nu simple promisiuni vagi.
Ce urmează? Pe termen scurt, ne putem aștepta la rezultate de testare și la proiecte pilot cu clienți mari de LLM. Pe termen mediu, dacă aceste soluții se dovedesc competitive, ele pot diminua dependența de un singur furnizor și pot stimula concurența în optimizarea hardware‑software pentru inferență. Voi ce părere aveți: credeți că alternative precum combinațiile AMD + Tenstorrent + Moreh pot schimba echilibrul în infrastructura pentru AI?
Interesant — dacă optimizările pe AMD + Tenstorrent se confirmă în testele pilot, concurența la nivel de inferență ar putea scădea costurile.
da, pai amd e bun, dar ce facem cu curentul?