V-ați întrebat vreodată cum ar putea învăța vehiculele autonome bazate pe inteligență artificială să ia decizii morale în trafic?
O echipă de cercetători americani propune o soluție inedită, inspirată din filosofia morală și validată cu ajutorul unui grup de filosofi specializați în etică.
Într-un moment în care vehiculele autonome (VA) nu mai sunt doar un experiment futurist, ci o realitate care prinde tot mai mult contur, modul în care o astfel de mașină poate lua decizii morale în trafic devine o preocupare primordială.
Cercetători de la Universitatea de Stat din Carolina de Nord propun o metodă surprinzătoare, care se bazează pe filosofia morală clasică, care va ajuta sistemele de inteligență artificială să ia decizii similare celor pe care le iau oamenii. Un studiu publicat în revista „Frontiers in Psychology ”, descrie un nou tip de test conceput să antreneze AI-ul VA-urilor folosind judecăți morale validate de filosofi.
Metoda propusă pornește de la deciziile mărunte pe care șoferii le iau zi de zi, și anume depășirea ușoară a limitei de viteză, ignorarea unui semn „Stop” sau alegerea unei manevre riscante. „Foarte puțini oameni se urcă la volan cu intenții negative, însă accidentele se nasc din astfel de decizii”, explică Veljko Dubljevic, autorul principal al studiului.
Pentru a înțelege cum gândesc oamenii în astfel de situații, echipa a folosit modelul teoretic ADC (Agent Deed Consequence – Consecința Faptei Agentului), care evaluează o acțiune din trei perspective: intenția persoanei care acționează (agentul), acțiunea în sine (fapta) și rezultatul final (consecința).
Scenariile create au fost evaluate de 274 de filosofi specializați în etică, fiecare cu propriile viziuni: utilitariști și deontologi. Deși se așteptau la diferențe majore, cercetătorii au fost surprinși să constate un nivel ridicat de consens între participanți. După cum notează TechXplore, această convergență de opinii în contextul traficului oferă o bază consistentă pentru antrenarea AI-ului, într-un domeniu în care moralitatea părea imposibil de programat.
„Această coerență între filosofii cu viziuni diferite ne arată că moralitatea în trafic este mai clară decât am crezut”, afirmă Dubljevic. Astfel, algoritmii AI pot învăța nu doar reguli de circulație, ci și cum să le încalce justificat, exact cum o fac oamenii, într-un mod conștient și moral.
Potrivit autorilor studiului, următorul pas constă în extinderea testării în rândul unor populații diverse și în mai multe limbi, cu scopul de a determina măsura în care această abordare poate fi generalizată atât în cadrul culturii occidentale, cât și dincolo de aceasta.
Pe măsură ce legislațiile se pregătesc să reglementeze condusul autonom, iar companiile investesc miliarde în dezvoltarea acestor sisteme, capacitatea AI-ului de a acționa „moral” devine nu doar un deziderat teoretic, ci o cerință practică. Studiul echipei americane aduce o contribuție valoroasă și tangibilă în această direcție: nu trebuie să reinventăm etica, ci doar să o traducem pentru mașini.