Curtea Supremă a emis un avertisment ferm către avocații din Regatul Unit, cerându-le să ia măsuri urgente pentru a preveni utilizarea incorectă a inteligenței artificiale în activitatea juridică, după ce au fost depistate zeci de citări false în dosare, conținând fie decizii judiciare inventate complet, fie pasaje fabricate.
Tot mai mulți avocați folosesc sisteme de inteligență artificială pentru a-și construi argumentele juridice. Cu toate acestea, în acest an, două cazuri majore au fost afectate de citări false de jurisprudență, care au fost fie clar generate de IA, fie se bănuiește că au fost astfel create.
Într-un proces privind daune în valoare de 89 de milioane de lire sterline împotriva Qatar National Bank, reclamanții au făcut 45 de citări de jurisprudență, dintre care 18 s-au dovedit a fi fictive, iar multe dintre celelalte conțineau citate false, scrie The Guardian. Reclamanții au recunoscut că au folosit instrumente de inteligență artificială disponibile public, iar avocatul lor a admis că a citat aceste surse false.
Un alt caz implică Haringey Law Centre, care a contestat Consiliul local din Haringey pentru presupusa neasigurare a unei locuințe temporare unui client. Avocatul centrului a citat de cinci ori decizii judiciare inexistente. Suspiciunile au apărut atunci când avocatul apărării a întrebat în mod repetat de ce nu poate găsi nicio urmă a acestor surse invocate.
Acest lucru a dus la o acțiune legală pentru costuri judiciare irosite, iar instanța a constatat că centrul juridic și avocatul său, un stagiar, au fost neglijenți. Avocatul a negat utilizarea IA în acel caz, dar a recunoscut că ar fi putut să o folosească involuntar în pregătirea unui alt dosar, unde a citat de asemenea surse fictive, posibil bazându-se pe rezumate generate de IA fără să realizeze acest lucru.
Într-o decizie emisă vineri, Dame Victoria Sharp, președinta Diviziei King’s Bench, a subliniat că „utilizarea incorectă a inteligenței artificiale are implicații serioase asupra administrării justiției și încrederii publicului în sistemul judiciar”. Ea a avertizat că avocații care folosesc excesiv inteligența artificială riscă sancțiuni ce pot varia de la mustrări publice până la proceduri pentru sfidarea instanței și sesizarea poliției.
Dame Victoria Sharp a solicitat Baroului și Societății Juridice să ia măsuri urgente pentru a combate această problemă și a cerut liderilor barourilor și partenerilor din firmele de avocatură să se asigure că toți avocații cunosc obligațiile lor profesionale și etice în utilizarea IA.
„Aceste instrumente pot genera răspunsuri aparent coerente și plauzibile, dar ele pot fi complet eronate,” a scris ea. „Pot face afirmații încrezătoare care sunt pur și simplu false. Pot cita surse inexistente sau pot pretinde că reproduc pasaje din surse reale care, de fapt, nu există.”
Ian Jeffery, directorul executiv al Societății Juridice din Anglia și Țara Galilor, a declarat că această decizie „scoate în evidență pericolele utilizării IA în activitatea juridică”. El a adăugat:
Instrumentele de inteligență artificială sunt tot mai folosite pentru a sprijini serviciile juridice, dar riscul real al rezultatelor incorecte generate de IA impune avocaților să verifice și să asigure acuratețea muncii lor.”
Aceste incidente nu sunt unice. În 2023, un tribunal fiscal din Marea Britanie a fost înșelat de un apelant care a prezentat nouă decizii juridice false, pretinzând că a fost ajutat de „un prieten dintr-un birou de avocatură”. Apelantul a recunoscut că „este posibil” să fi folosit ChatGPT, dar a susținut că acest lucru nu schimbă nimic, deoarece există și alte cazuri care îi susțin punctul de vedere.
În Danemarca, în 2025, părțile implicate într-un proces de 5,8 milioane de euro au evitat cu greu proceduri pentru sidarea instanței după ce au invocat o decizie inventată, pe care judecătorul a identificat-o ca fiind falsă.
În Statele Unite, un proces din 2023 în districtul sudic din New York a degenerat în haos când un avocat a fost pus să prezinte cele șapte cazuri aparent fictive pe care le citase. Aceștia au cerut IA-ului ChatGPT să rezume cazurile pe care le inventase anterior, iar rezultatul a fost, în opinia judecătorului, „un nonsens”. Atât cei doi avocați, cât și firma lor au fost amendați cu 5.000 de dolari.