O cercetare recentă realizată de experți de la Massachusetts Institute of Technology (MIT) aruncă o lumină îngrijorătoare asupra impactului inteligenței artificiale (AI) asupra capacităților cognitive umane. Studiul arată că utilizarea chatboților AI, precum ChatGPT, poate reduce activitatea cerebrală și împiedica dezvoltarea gândirii critice, a memoriei și a abilităților lingvistice.
Cercetătorii de la MIT au monitorizat 54 de participanți împărțiți în trei grupuri: un grup care a scris eseuri cu ajutorul ChatGPT, un altul care a folosit motoare de căutare online pentru documentare și un grup care s-a bazat exclusiv pe propriile resurse mentale. În timpul procesului, participanții au fost supuși unor electroencefalograme (EEG) pentru a măsura activitatea cerebrală.
Rezultatele au fost clare: cei care au folosit ChatGPT au avut o activitate cerebrală semnificativ mai scăzută comparativ cu cei care s-au bazat doar pe propriul creier.
„Performanța grupului AI a fost inferioară la toate nivelurile: neural, lingvistic și de evaluare,” au precizat cercetătorii, citați de The Guardian.
Mai mult, conectivitatea cerebrală a scăzut proporțional cu gradul de sprijin extern, fiind cea mai redusă în cazul utilizatorilor de chatboți AI.
În mod particular, s-a observat o diminuare a undelor „theta”, asociate cu învățarea și formarea memoriei. Studiul explică acest fenomen prin faptul că o parte din „gândirea și planificarea umană” a fost „delegată” inteligenței artificiale.
Interesant este faptul că utilizarea motoarelor de căutare a avut un impact mult mai redus asupra activității cerebrale și performanței. Participanții care au folosit aceste instrumente au avut niveluri de implicare cerebrală și capacitate de reamintire apropiate de cele ale persoanelor care au scris fără ajutor tehnologic.
În schimb, 83% dintre cei care au folosit chatbotul AI nu au reușit să ofere niciun citat corect din eseurile scrise, comparativ cu aproximativ 10% în celelalte grupuri. Aceasta indică faptul că utilizatorii de AI fie nu s-au implicat suficient în material, fie nu au reținut informațiile.
Rezultatele acestui studiu vin să confirme temerile tot mai mari privind efectele negative ale AI asupra creierului uman. Un alt studiu realizat de Microsoft și Carnegie Mellon, publicat în februarie, a arătat că angajații care folosesc AI raportează o scădere a gândirii critice. Autorii avertizează că utilizarea excesivă a AI poate duce la „atrofierea mușchilor cognitivi”, lăsând creierul nepregătit pentru momentele în care este nevoie de efort mental.
Nataliya Kosmyna, cercetătorul principal al studiului MIT, a subliniat că aceste descoperiri indică „o problemă urgentă legată de scăderea probabilă a abilităților de învățare” în rândul celor care folosesc frecvent instrumentele AI la școală sau la locul de muncă.
Chiar dacă grupul care a folosit AI a avut voie să se sprijine pe chatbot în primele trei eseuri, în ultima sesiune li s-a cerut să lucreze doar cu propriile resurse mentale. Cu toate acestea, aceștia au continuat să manifeste niveluri scăzute de memorie și gândire critică, ceea ce indică faptul că „utilizatorii frecvenți de AI evită adesea o implicare profundă cu materialul, ceea ce duce la ‘atrofierea abilităților’ în sarcini precum brainstorming-ul și rezolvarea problemelor”.
Eseurile realizate cu ajutorul ChatGPT au fost, de asemenea, caracterizate printr-o uniformitate izbitoare, repetând teme și limbaj similare. Cercetătorii avertizează că utilizarea pe scară largă a chatboților AI poate crește „datoria cognitivă” în rândul elevilor și studenților, generând costuri pe termen lung, precum diminuarea spiritului critic, vulnerabilitatea crescută la manipulare și scăderea creativității.
Cadrele didactice semnalează deja o creștere alarmantă a fenomenului de fraudă academică prin utilizarea AI. Un sondaj realizat în februarie de Higher Education Policy Institute a relevat că 88% dintre studenții din Marea Britanie folosesc chatboți AI pentru a-și susține evaluările și procesul de învățare, iar 18% au copiat direct texte generate de AI în lucrările lor.