Transformările din tehnologia militară au avut adesea salturi bruște: de la descifrarea codurilor la Bletchley Park până la dronele care au reinventat războiul, iar acum accentul cade pe modelele de inteligență artificială. În Statele Unite, disputa se poartă între Departamentul Apărării și Anthropic, iar miză e clară: Pentagonul dorește acces extins la instrumentele principalelor companii de AI pentru uz militar, în timp ce Anthropic respinge anumite concesii de natură etică și operațională. Negocierile se desfășoară în contextul unor acorduri similare semnate de actori precum OpenAI, Google și xAI, transformând disputa într-un test al modului în care tehnologiile civile pot fi aplicate în domeniul securității naționale.
Oficialii americani susțin că Departamentul Apărării urmărește ca armata să poată folosi instrumentele AI ale marilor firme pentru toate scopurile legale, inclusiv dezvoltarea de armament, colectarea de informații și operațiuni pe câmpul de luptă. Anthropic nu a acceptat însă aceste condiții, iar relația cu Pentagonul este tensionată după luni de discuții privind ridicarea restricțiilor asupra utilizării modelelor în operațiuni sensibile. Alte companii importante din sector au încheiat acorduri pentru a furniza instrumente în scopuri militare, dar Anthropic a păstrat în negocieri anumite limite etice.
Reprezentanții Anthropic au afirmat că nu au discutat cu Pentagonul aplicarea specifică a modelului Claude în misiuni concrete; discuțiile s-au concentrat mai degrabă pe politici de utilizare, incluzând restricții stricte privind armele complet autonome sau supravegherea în masă. Pe de altă parte, Wall Street Journal a relatat că modelul Claude ar fi fost folosit în operațiuni militare americane legate de capturarea fostului președinte venezuelean Nicolás Maduro, într-un parteneriat care ar fi implicat Palantir. Acea utilizare a complicat suplimentar discuțiile dintre Anthropic și Pentagon.
O cerință cheie a armatei este ca instrumentele AI să fie disponibile și pe rețele clasificate, fără restricțiile standard impuse utilizatorilor comerciali. Accesul la astfel de rețele ar permite folosirea tehnologiilor în contexte critice pentru securitatea națională și, posibil, antrenarea sau adaptarea modelelor pe date clasificate. Aceasta ridică întrebări legate de transparență, responsabilitate și supraveghere: cine verifică comportamentul modelului în situații sensibile, cine răspunde pentru erori și în ce măsură utilizarea se aliniază la principiile etice adoptate anterior de Departamentul Apărării.
Decizia finală are implicații financiare și strategice: sunt în joc contracte importante, iar inteligența artificială capătă un rol tot mai vizibil în strategiile de apărare. Integrarea tehnologiei va depinde nu doar de capacitățile tehnice, ci și de reguli, responsabilități juridice și acorduri între sectorul privat și instituțiile statului. Istoria arată că adaptarea tehnologiei civile la nevoi militare a mers mână în mână cu dezbateri etice și mecanisme de control; acum aceleași discuții se poartă în jurul AI.
Modelul Claude se află în centrul negocierilor dintre Anthropic și Pentagon. Între problema accesului pe rețele clasificate, implicarea Palantir în operațiuni concrete și limitele propuse de companie privind armele complet autonome, se conturează o discuție despre câtă autonomie și transparență sunt acceptabile în domeniul apărării. Rămâne de văzut dacă acordurile semnate de OpenAI, Google și xAI vor deveni modelul de urmat sau dacă negocierile cu Anthropic vor conduce la stabilirea unor standarde mai stricte. Ce părere aveți: ar trebui companiile de AI să accepte condiții largi pentru colaborarea cu armata sau ar trebui ca limitele etice să primeze chiar și în fața unor contracte majore?

Fii primul care comentează