Sistemele iresponsabile sunt imprevizibile și, prin urmare, ineficiente. Interzicerea totală a tehnologiilor AI în domeniul militar nu este realistă. Toate statele ar trebui, deci, să ajungă la un acord asupra unor norme comune de utilizare responsabilă și legală a inteligenței artificiale în domeniul militar.
Într-o lume dominată de competiție geopolitică intensă, oportunitățile de a încheia acorduri internaționale devin tot mai rare, scrie Financial Times. În ciuda provocărilor, toate statele ar trebui să ajungă, însă, la un acord cu privire la necesitatea de a reduce riscurile de accidente și de erori de calcul în aplicațiile militare. În primul rând, pentru a preveni ca eventuale conflicte să izbucnească din greșeală. Sunt vitale, deci, atât măsuri de consolidare a încrederii, cât și crearea unui forum incluziv pentru dezvoltarea capacităților de acest tip. Guvernele ar putea învăța unele de la altele, astfel încât să poată elabora politici de utilizare responsabilă a inteligenței artificiale în domeniul militar.
Sectorul privat accelerează dezvoltarea inteligenței artificiale, iar armatele investesc în diverse tipuri de aplicații, ce variază de la administrație, la scenarii active de pe câmpul de luptă. Întrebarea este dacă acest proces va întări sau va submina securitatea internațională, comentează sursa citată. Este urgentă stabilirea unor norme clare de comportament responsabil și formarea capacităților militare necesare integrării prudente a AI. Acest lucru presupune aplicarea principiului „responsabilității prin proiectare”, scrie Financial Times. Responsabilitatea pe întreg ciclul de viață al unui sistem militar bazat pe AI este ideea centrală a raportului Comisiei Globale pentru Inteligență Artificială Responsabilă în Domeniul Militar, publicat luna trecută.
Conceptul presupune integrarea respectării etice și legale încă din faza de design, până la implementare. De la misiunile pentru care sunt concepute sistemele, până la modul în care sunt testate și evaluate, armatele trebuie să prevadă posibilele erori și consecințele acestora. Colaborarea dintre ingineri și operatorii militari poate duce la protocoale de instruire mai eficiente. Totodată, pot stimula și planificarea unor trasee de auditare, acolo unde este posibil. La fel ca în alte domenii, acest proces ar putea reduce accidentele cu sisteme AI și ar crea lanțuri clare de responsabilitate.
Multe propuneri privind cooperarea internațională în domeniul AI militar le cer guvernelor acțiuni nerealiste, cum ar fi interzicerea dezvoltării unor sisteme ce pot crește eficiența operațională. Abordarea de tip „responsabilitate prin proiectare” evită această capcană, oferind pași concreți, pe care guvernele îi pot urma. Această strategie se bazează pe realități tehnologice și pe bune practici deja aplicate de armate, ceea ce contribuie la creșterea încrederii în sistemele AI militare.
Guvernele și ministerele naționale de apărare ar trebui să susțină această abordare, deoarece reflectă principiile utilizate deja în dezvoltarea și testarea armamentului convențional. Totodată, asigură respectarea dreptului internațional umanitar. Sistemele iresponsabile sunt imprevizibile și, prin urmare, ineficiente. Există totuși un domeniu unde restricțiile pot fi aplicate imediat: deciziile critice privind utilizarea armelor nucleare. Acest tip de armament trebuie să rămână sub control uman. Politicile Statelor Unite, ale Regatului Unit și Franței, precum și un acord SUA–China, semnat în noiembrie 2024, confirmă acest consens. Pentru cele mai periculoase arme din lume, prezența decidenților umani este esențială. Raportul Comisiei Globale susține, la rândul său, impunerea unor interdicții legale privind controlul AI asupra armelor nucleare.
Printre cele mai mari riscuri ale utilizării AI militare se numără „biasul de automatizare”. Adică tendința de le a acorda sistemelor AI mai multă încredere decât justifică datele disponibile. Acest fenomen ar putea apărea mai ales în contexte tensionate. În momente în care liderii militari se simt presați să decidă pe baza informațiilor furnizate de mașină. De asemenea, riscurile cresc atunci când lipsesc reguli clare privind interacțiunea sistemelor autonome aflate în luptă. Situațiile pot duce la accidente similare celor din perioada Războiului Rece, când nave și avioane americane și sovietice s-au apropiat periculos în misiuni de recunoaștere.
Astfel de măsuri nu vor opri apariția sistemelor militare bazate pe AI. Acestea au devenit inevitabile într-o lume competitivă, comentează sursa citată. Însă pot reduce probabilitatea ca aceste tehnologii să fie folosite în mod iresponsabil. Principiul „responsabilității prin proiectare” nu va elimina toate riscurile asociate AI militar, dar oferă o direcție esențială pentru cooperarea internațională. El poate contribui la reducerea pericolelor, fără a limita dezvoltarea capacităților militare legitime.