Un nou raport internațional, semnat de cercetători de la MIT, OpenAI și Google DeepMind, stabilește priorități globale pentru siguranța AI. Colaborarea internațională revine pe agenda politică, în ciuda scepticismului exprimat, recent, de lideri americani. Profesorul MIT Max Tegmark avertizează că firmele din domeniul inteligenței artificiale trebuie să cuantifice riscul ca variantele avansate AI să scape de sub control, înainte de a le lansa public. Tegmark afirmă că, în propriile simulări, riscul ca un AI avansat să scape de sub control ajunge la 90%. Inspirat de calculele făcute înaintea primului test nuclear, Tegmark propune introducerea unei „constante Compton” – probabilitatea ca o superinteligență să devină incontrolabilă.
Giganții tehnologici sunt chemați să realizeze o evaluare riguroasă a riscului reprezentat de dezvoltarea sistemelor de tip superinteligență artificială (ASI), înainte de lansarea acestora, avertizează Max Tegmark, profesor la MIT și una dintre cele mai proeminente voci în domeniul siguranței AI.
„Nu este suficient ca firmele să aibă încredere în propriile sisteme. Trebuie să cuantifice riscul, procentual, prin calcule clare și reproductibile. Asta înseamnă responsabilitate științifică”, a declarat Tegmark, citat de The Guardian.
Guvernele ar trebui să trateze AI-ul așa cum a fost tratată, cu ani în urmă, biotehnologia: cu reglementări clare și teste riguroase înainte de lansare. Tegmark propune un model de analiză inspirat din calculele fizicienilor americani care au lucrat pentru „Proiectul Manhattan”, când, înaintea testului nuclear Trinity, se estimase că probabilitatea este aproape nulă ca bomba atomică să declanșeze o reacție în lanț care să distrugă atmosfera.
Într-un studiu publicat – alături de alți trei cercetători de la Massachusetts Institute of Technology -, Tegmark introduce conceptul de „constanta Compton” — un indicator al probabilității ca o superinteligență să scape controlului uman. Denumirea este un omagiu adus fizicianului Arthur Compton, carea autorizat în 1945 testul nuclear, după ce a calculat un risc de „mai puțin de unu la trei milioane” pentru un scenariu catastrofal.
El susține că o astfel de abordare, aplicată transparent și colaborativ de mai multe companii, ar putea genera voința politică necesară pentru a construi un regim global de siguranță în domeniul AI.
Tegmark este cofondator al Future of Life Institute, organizație non-profit care promovează dezvoltarea responsabilă a inteligenței artificiale. În 2023, institutul a lansat o scrisoare deschisă semnată de peste 33.000 de persoane, inclusiv Elon Musk și Steve Wozniak, prin care cerea o pauză în dezvoltarea AI-urilor avansate. Scrisoarea denunța o „cursă scăpată de sub control” pentru crearea unor „minți digitale tot mai puternice”, care ar putea deveni imposibil de anticipat sau controlat.
Apelul lui Tegmark vine în contextul elaborării unui nou cadru global pentru prioritățile cercetării în siguranța AI. Raportul, intitulat Singapore Consensus on Global AI Safety Research Priorities, a fost redactat în colaborare cu specialiști de la OpenAI, Google DeepMind și alți actori cheie din industrie. Documentul identifică trei direcții strategice: măsurarea impactului sistemelor AI, definirea comportamentului dorit al acestora și dezvoltarea unor mecanisme pentru controlul comportamentului emergent.
În ciuda unui climat tensionat, reflectat la summitul guvernamental din Paris, (unde vicepreședintele SUA, JD Vance, a minimalizat preocupările privind siguranța AI), Tegmark afirmă că „pessimismul s-a risipit, iar colaborarea internațională a revenit în forță”.