Algoritmul nu mai este un simplu instrument, ci o nouă formă de putere tăcută. El decide ce vedem, ce simțim și, treptat, ce credem. În era hiperconectată, nu adevărul circulă cel mai repede, ci o suită de narațiuni care concurează în atenția publică. Se prea poate ca cea mai puternică dintre ele, cea care va decide ce este realitatea, să fie impusă, îndividual, pentru fiecare om în parte, de algoritm.
Trăim într-o eră în care algoritmii nu doar distribuie informație, ci modelează percepții, declanșează emoții și trasează granițele invizibile ale realităților noastre digitale. În acest climat polarizat, în care furia și confirmarea propriei opinii au devenit monede informaționale, încrederea publică se erodează rapid. Nu mai e vorba doar de tehnologii defectuoase, ci de o ecologie socială alterată, în care adevărul pierde teren în fața eficienței emoționale. Cum mai putem vorbi despre civism și coeziune într-o lume în care alegerile ne sunt dictate invizibil? Cum reconstruim punțile dintre oameni într-un peisaj informational fracturat algoritmic?
În peisajul digital actual, algoritmii nu mai sunt simpli curatori de conținut, ci arhitecți ai emoțiilor colective. Platforme precum Facebook, TikTok sau YouTube optimizează distribuția nu pentru veridicitate, ci pentru „engagement” – o metrică ce măsoară cât de mult ne țin captivi în feeduri. Adevărul devine secundar în fața reacțiilor intense. Conform investigațiilor Wall Street Journal asupra documentelor interne Meta, aceste sisteme au fost conștient concepute pentru a promova conținut polarizant, tocmai pentru că furia și indignarea generează mai multe clicuri și comentarii decât nuanțarea sau dialogul rațional.
Efectele nu sunt doar sociale, ci și economice. „Toxicitatea informațională” devine un nou risc sistemic: afectează reputația platformelor, creează presiune de reglementare și influențează chiar evaluările bursiere ale companiilor. Organizații precum Center for Humane Technology atrag atenția că nu pierderea audienței e riscul major, ci prăbușirea încrederii publice în întregul ecosistem digital.
Conținutul care le este livrat utilizatorilor este filtrat printr-o logică a confirmării: dacă dai like unui anumit tip de postare, algoritmul presupune că vrei mai mult din același lucru. Așa ia naștere „camera de ecou”, unde opiniile proprii sunt amplificate, iar cele opuse – estompate. Aceasta duce la întărirea prejudecăților și la ceea ce psihologia numește „confirmation bias”.
„Algoritmii creează camere de ecou prin afișarea repetată a conținutului care validează convingerile existente ale utilizatorilor, ignorând opiniile diferite”, arată mediaandsociety.org.
Consecința: polarizarea devine un produs predictibil și profitabil. Informațiile false, titlurile șocante sau teoriile conspirației sunt propagate mai rapid decât știrile verificate – nu pentru că sunt mai „credibile”, ci pentru că sunt mai „engaging”.
Una dintre cele mai periculoase trăsături ale acestor algoritmi este natura lor invizibilă. Platformele decid ce vezi înainte ca tu să alegi – pe baza comportamentului anterior, a profilului psihologic dedus, a locației și chiar a stării emoționale. Ceea ce pare a fi „alegere liberă” este, de fapt, o selecție controlată.
Într-un experiment Meta, a fost demonstrat că modificarea subtilă a tipului de postări din feed poate influența starea de spirit a utilizatorilor – un semnal clar despre capacitatea algoritmilor de a manipula emoțiile la scară largă, arată studiul Experimental evidence of massive-scale emotional contagion through social networks.
Mai grav, această manipulare nu este doar comercială, ci și politică. În Myanmar, distribuirea algoritmică a urii etnice pe Facebook a contribuit direct la violențe reale. În alte țări, microtargetarea electorală a dus la dezinformare și la erodarea proceselor democratice, a evidențiat într-un articol Ipsos, aici.
Soluțiile nu lipsesc, dar presupun o voință politică și corporatistă care întârzie. Cercetători în IA propun un „bridging-based ranking” – un sistem de recomandare care privilegiază conținutul ce leagă perspective diferite, în loc să le dezbine. De asemenea, platforme deliberative ca ConsiderIt arată că utilizatorii pot fi încurajați să reflecteze critic dacă li se oferă un cadru care impune expunerea la ambele părți ale unei probleme.
Educație digitală: cum învațăm să nu ne conducă algoritmul
Totuși, algoritmii nu sunt singurii actori din această ecuație. O cercetare recentă realizată de Center for Social Media and Politics (NYU) arată că polarizarea este alimentată într-o măsură cel puțin egală de factori psihologici, culturali și politici, iar algoritmii funcționează ca multiplicatori ai acestor tensiuni preexistente, arată Center for Social and Media Politics aici.
O înțelegere bazată pe cunoaștere care reduce impulsivitatea și stimulează empatia nu este utopic, este deja testat. În plus, ar putea deveni un avantaj competitiv într-o piață saturată de indignare artificială.
Polarizarea nu înseamnă doar opinie diferită, ci percepții incompatibile asupra realității. Fenomene precum „iluzia cunoașterii” (credința că adversarii politici sunt pur și simplu ignoranți) și „homofilia digitală” (preferința pentru conexiuni similare) alimentează o fragmentare afectivă periculoasă.
Studiile în psihologie socială, în special teoria contactului intergrupal, arată că doar interacțiunile directe și egalitare reduc ura și stereotipurile. Simplul contact cu o opinie contrară nu e suficient: este nevoie de cadru moderat, dialog repetat și obiectiv comune.
În acest climat, legitimitatea nu mai poate fi impusă. Ea trebuie construită. La conferința ISC-JRC din Ispra, 2024, cercetătorii au propus reconceptualizarea expertului ca mediator cognitiv – nu un deținător al adevărului, ci un interpret transparent al incertitudinii. Astfel, știința nu mai este o dogmă, ci un proces colaborativ cu societatea.
Manipularea online nu e o greșeală a internetului, ci o industrie care exploatează limitele naturale ale minții umane prin algoritm. Nu suntem manipulați pentru că suntem slabi, ci pentru că suntem umani: căutăm certitudini, evităm ambiguitatea și ne atașăm de idei care ne validează identitatea.
Realitatea devine o experiență tribală, nu un bun comun. Iar adevărul nu mai e ceea ce e real, ci ceea ce se simte adevărat.
Algoritmul și creierul FOTO: Shutterstock
Polarizarea online nu mai este doar o impresie difuză sau o anxietate culturală, este un fenomen riguros documentat, cu ramificații sociale profunde și măsurabile. Rețelele sociale conduse de algoritm, departe de a fi simple interfețe de comunicare, funcționează tot mai mult ca acceleratoare ale diviziunilor ideologice.
Potrivit unui raport publicat de Pew Research Center în 2023, nu mai puțin de 64% dintre utilizatorii americani cred că platformele de social media contribuie la divizare, mai degrabă decât la coeziune. Acestea sunt percepute nu ca spații de dialog, ci ca arene ale confruntării afective influențate de algoritm, arată pewresearch.org.
Această percepție este susținută de date empirice. Un studiu de referință realizat de MIT Media Lab, publicat în Science, a demonstrat că știrile false au o probabilitate de șase ori mai mare de a fi redistribuite comparativ cu informațiile verificate. Viralitatea nu este un accident, ci o consecință structurală a modului în care emoția și senzaționalul sunt favorizate algoritmic, se arată în studiul publicat de science.org.
În acest context, devine clar că nu putem trata problema doar tehnologic, prin „repararea” codului. Soluțiile reale trebuie să integreze și dimensiunea umană: biasuri cognitive, mecanisme de apărare, motivații emoționale, dinamici sociale și culturale. Altfel spus, nu doar ce distribuie platformele contează, ci și ce suntem dispuși să credem, să simțim, și de ce.
Pentru a recâștiga încrederea publică și a repara coeziunea socială bazată pe adevăr, e nevoie de un efort sistemic și multistratificat cu privire la algoritm:
Într-o lume în care prin algoritm totul este hiperpersonalizat și aparent „convenabil”, este esențial să înțelegem că libertatea autentică nu înseamnă absența fricțiunii sau a conflictului, ci capacitatea de a gândi critic și de a discerne între adevăr și minciună. Civismul viitorului nu se va clădi doar pe valori, ci și pe cunoaștere, gândire critică, alfabetizare psihologică și digitală, precum și pe calitatea deliberării colective. Reparația încrederii începe cu demontarea iluziei confortului informațional și cu reconstrucția, bucățică cu bucățică a narativului adevărat raportat la realitatea obiectivă.
Reconstruirea încrederii publice în era polarizării algoritmice nu este o misiune tehnologică, ci una profund umană. Algoritmii pot fi regândiți, platformele pot fi reglementate, dar fără o schimbare în cultura noastră civică, cognitivă și emoțională, rămânem vulnerabili la aceleași dinamici care ne-au divizat. Adevărata soluție nu stă doar în coduri și platforme, ci în curajul de a gândi critic, în educația care cultivă discernământul și în instituțiile care aleg transparența în locul autorității opace. Într-o lume alimentată de confirmări și reacții, civismul devine act de rezistență lucidă. Iar reparația încrederii începe acolo unde încetăm să ne lăsăm manipulați de confortul unei realități fabricate și începem să căutăm, împreună, adevărul care ne poate lega din nou.