Washingtonul vrea control total asupra utilizării modelelor AI în contractele publice. Administrația americană pregătește un set de reguli mult mai stricte pentru companiile care furnizează tehnologii de inteligență artificială către guvernul federal, într-un moment în care relația dintre instituțiile de apărare și sectorul AI devine tot mai tensionată.
Potrivit unui raport publicat de Financial Times, noile linii directoare ar obliga firmele care vor să colaboreze cu statul american să permită utilizarea modelelor lor de inteligență artificială pentru „orice scop legal”. Măsura vine în contextul unui conflict între Pentagon și compania Anthropic, specializată în dezvoltarea de sisteme AI avansate, arată Reuters.
Documentele analizate de publicația britanică arată că Washingtonul dorește să evite situațiile în care companiile private limitează modul în care guvernul poate folosi tehnologia achiziționată. Această schimbare de politică ar putea influența semnificativ modul în care instituțiile federale cumpără software și sisteme bazate pe inteligență artificială, într-o perioadă în care competiția globală pentru dominația tehnologică este în plină intensificare.
Tensiunile dintre autoritățile americane și compania de inteligență artificială au escaladat recent.
U.S. Department of Defense a desemnat compania Anthropic drept „risc în lanțul de aprovizionare”, decizie care a dus la interzicerea utilizării tehnologiei sale de către contractorii implicați în proiecte pentru armata americană.
Decizia a venit după luni de dispute între oficialii militari și companie, legate de modul în care sistemele AI ar trebui utilizate în contexte sensibile, inclusiv în domeniul apărării.
Anthropic a insistat asupra unor restricții de siguranță pentru modelele sale, menite să limiteze anumite utilizări considerate riscante. În schimb, reprezentanții Pentagonului au considerat că aceste limitări merg prea departe și pot afecta capacitatea armatei de a utiliza tehnologia în mod eficient.
În urma acestei dispute, contractorii guvernamentali au fost nevoiți să renunțe la integrarea tehnologiei companiei în proiectele destinate armatei americane.
Proiectul de reglementare elaborat de U.S. General Services Administration (GSA) prevede că firmele de inteligență artificială care colaborează cu guvernul trebuie să ofere Statelor Unite o licență irevocabilă pentru utilizarea sistemelor lor. Această licență ar permite instituțiilor federale să folosească tehnologia pentru orice activitate legală, fără restricții impuse ulterior de furnizorul privat.
Regulile s-ar aplica în special contractelor civile, însă ar reflecta și abordarea adoptată de Pentagon în contractele militare, sugerând o strategie guvernamentală coordonată pentru gestionarea tehnologiilor AI.
Autoritățile americane încearcă astfel să evite dependența de furnizori care ar putea limita utilizarea sistemelor sau ar putea impune condiții suplimentare după semnarea contractelor.
Disputa dintre guvern și companie a avut deja consecințe concrete.
Potrivit lui Josh Gruenbaum, comisar în cadrul serviciului federal de achiziții din GSA, guvernul a decis să pună capăt acordului OneGov semnat anterior cu Anthropic.
„Ar fi iresponsabil față de poporul american și periculos pentru națiunea noastră ca GSA să mențină o relație de afaceri cu Anthropic”, a declarat oficialul. El a precizat că, la instrucțiunile președintelui Donald Trump, contractul a fost anulat, ceea ce înseamnă că tehnologia companiei nu mai este disponibilă pentru instituțiile din ramurile executivă, legislativă și judiciară prin intermediul contractelor pre-negociate ale GSA.
Proiectul de reglementare include și cerințe legate de modul în care sistemele AI sunt construite și configurate.
Potrivit documentelor citate de Financial Times, contractorii nu vor avea voie să introducă în mod deliberat judecăți ideologice sau partizane în răspunsurile generate de sistemele de inteligență artificială.
În plus, companiile vor fi obligate să dezvăluie dacă modelele lor au fost modificate pentru a respecta reglementări sau standarde de conformitate impuse de guverne sau organizații din afara Statelor Unite. Aceste prevederi reflectă preocupările tot mai mari ale autorităților americane privind influența geopolitică asupra tehnologiilor emergente și riscurile ca sistemele AI să fie influențate de reguli sau valori impuse din alte jurisdicții.
Noile linii directoare se află încă în fază de proiect, însă ele indică direcția în care Washingtonul intenționează să reglementeze colaborarea dintre sectorul public și industria inteligenței artificiale.