Black Duck a introdus o funcționalitate care ajută companiile să identifice și să gestioneze modelele AI open source integrate în aplicațiile lor, oferind vizibilitate asupra utilizării, licențelor și originii datelor. Anunțul, făcut la Burlington, Mass., pe 12 noiembrie 2025, apare într-un context de creștere accelerată a integrării modelelor AI în ciclurile de dezvoltare software și a necesității unei guvernanțe clare pentru aceste componente.
Până acum, multe organizații descopereau prea târziu că un model AI fusese incorporat, uneori ascuns în pachete preluate de pe platforme precum Hugging Face sau modificat pentru a evita detectarea. Noutatea din release-ul 2025.10.0 al Black Duck SCA este un set de instrumente denumit AI Model Risk Insights, care detectează modelele, le identifică versiunile și furnizează informații despre seturile de date folosite la antrenare, chiar și atunci când modelul nu apare în manifestele de build sau a fost obfuscat. Practic, folosește o scanare bazată pe semnături, CodePrint, pentru a recunoaște tipul și versiunea modelului chiar și în situații mai puțin transparente.
Pe planul conformității, funcția afișează licențele modelelor și metadatele relevante într-un ecran dedicat din interfață, inclusiv elemente asemănătoare model card-urilor și detalii despre datele de antrenament. Astfel, echipele juridice și de compliance pot verifica rapid dacă un model respectă cerințele proiectului și ce riscuri ar putea exista la nivel de licențiere sau proveniență a datelor. Integrarea se realizează fără a modifica fluxurile de lucru existente: CodePrint și BOM Engine sunt folosite pentru o configurare minimă, astfel încât echipele de dezvoltare să nu fie nevoite să oprească sau să reproiecteze procesele curente.
Un alt punct subliniat de companie este pregătirea pentru reglementările în evoluție. AI Model Risk Insights furnizează rapoarte gata pentru audit, menite să sprijine organizațiile în fața cerințelor din acte precum propunerea de regulament european AI Act, directive sau ordine executive internaționale și ghiduri specifice industriei. În teorie, asta diminuează expunerea legală și simplifică munca departamentelor de conformitate în cazul controalelor sau solicitărilor de clarificare.
Reprezentanții Black Duck prezintă această lansare ca o etapă importantă în evoluția soluțiilor de software composition analysis, menită să atenueze riscurile asociate adoptării AI. Funcționalitatea este oferită ca feature licențiat, parte din portofoliul Black Duck SCA, și se adresează organizațiilor care caută un echilibru între viteză, acuratețe și conformitate atunci când gestionează software la scară. Pentru cei interesați, Black Duck oferă detalii pe site și un blog mai amplu despre modul de funcționare al scanării modelelor AI.
În esență, introducerea acestei funcționalități reflectă două realități: proliferarea modelelor AI open source în produse software și necesitatea stringentă de trasabilitate a elementelor care pot afecta securitatea, licențierea sau confidențialitatea datelor. Exemple din anunț: scanarea recunoaște modele din Hugging Face, folosește CodePrint și BOM Engine, a fost lansată în versiunea 2025.10.0 și este disponibilă sub licență separată în Black Duck SCA. Rămâne de urmărit cât de rapid vor adopta organizațiile aceste controale și cum vor evolua reglementările precum AI Act în raport cu practicile din industrie.
Black Duck SCA a lansat AI Model Risk Insights pentru a răspunde nevoii de transparență în utilizarea modelelor AI, oferind identificare, detalii despre licențe și date și rapoarte pentru conformitate, începând cu versiunea 2025.10.0. Creșterea utilizării modelelor open source ridică întrebări practice despre cine controlează ce intră în produsul final și cum se poate dovedi conformitatea și proveniența datelor. Cât de pregătită este organizația ta să prezinte, la cerere, lista completă a modelelor AI folosite în aplicațiile sale?

Fii primul care comentează