Un studiu realizat de cercetători din Marea Britanie și Italia a analizat modul în care inteligența artificială procesează jocurile de cuvinte. Rezultatele au arătat că modelele lingvistice mari pot identifica structura unui joc de cuvinte, dar nu reușesc să înțeleagă gluma.
Echipa de la Cardiff University, din sudul Țării Galilor, și Ca’ Foscari University din Veneția a condus cercetarea. Concluzia lor a fost că inteligența artificială recunoaște tiparele lingvistice, dar nu percepe sensul comic.
Un exemplu analizat a fost: „Obișnuiam să fiu comedian, dar viața mea a devenit o glumă.”. Când propoziția a fost schimbată în: „Obișnuiam să fiu comedian, dar viața mea a devenit haotică,” modelele au continuat să perceapă existența unui joc de cuvinte.
Cercetătorii au încercat și: „Poveștile lungi au tendința să dragon/Long fairy tales have a tendency to dragon”. Când „dragon” a fost înlocuit cu „prolong” sau chiar cu un cuvânt aleatoriu, modelele au considerat în continuare că există un joc de cuvinte.
Profesorul Jose Camacho Collados, de la Cardiff University, a afirmat că înțelegerea umorului de către inteligența artificială este fragilă.
„În general, modelele lingvistice mari tind să memoreze ceea ce au învățat în timpul antrenării. Astfel, ele recunosc jocurile de cuvinte existente, dar asta nu înseamnă că le înțeleg cu adevărat,” a spus el.
„Am reușit să păcălim constant modelele prin modificarea jocurilor de cuvinte existente, eliminând dublul sens care le făcea originale. În aceste cazuri, modelele asociază propozițiile cu jocuri de cuvinte anterioare și inventează diverse motive pentru a justifica existența unui joc de cuvinte. În cele din urmă, am descoperit că înțelegerea jocurilor de cuvinte este o iluzie,” a adăugat profesorul.
Echipa a concluzionat că, atunci când se confruntă cu jocuri de cuvinte necunoscute, rata de succes a modelelor scade la 20%. Aceasta arată limitele inteligenței artificiale în recunoașterea umorului.
Un alt joc de cuvinte testat a fost: „Modelele lingvistice mari nu mor niciodată, doar își pierd atenția.”. Când „atenția” a fost înlocuită cu „ukulele”, modelul a perceput în continuare existența unui joc de cuvinte. Motivul a fost că „ukulele” suna asemănător cu „you-kill-LLM”. Cercetătorii au fost surprinși de creativitate, dar au constatat că modelul nu a înțeles gluma.
Cercetătorii au spus că studiul arată de ce oamenii trebuie să fie atenți când folosesc inteligența artificială pentru aplicații ce necesită înțelegerea umorului, empatiei sau nuanțelor culturale.
Cercetarea a fost prezentată la începutul lunii noiembrie 2025, la Conferința privind Metode Empirice în Procesarea Limbajului Natural, desfășurată la Suzhou, China. Studiul este detaliat într-o lucrare intitulată Pun unintended: LLMs and the illusion of humor understanding.