Pe internet circulă ideea că există o listă secretă de cuvinte interzise. Mulți utilizatori cred că algoritmii ascund conținutul care folosește anumite expresii. Astfel, oamenii recurg la termeni inventați: „unalived” în loc de „ucis”, „pew pews” pentru arme sau „seggs” pentru sex.
Acest fenomen este cunoscut sub numele de algospeak. Este un limbaj codificat creat pentru a evita algoritmii care ar putea penaliza postările. Mulți cred că platformele ascund conținut pentru a proteja interese politice sau pentru a menține un mediu curat pentru advertiseri.
Reprezentanții industriei tech neagă existența unei liste de cuvinte interzise. Boot Bullwinkle, purtător de cuvânt YouTube, a declarat:
„YouTube nu are o listă de cuvinte interzise sau restricționate. Politicile noastre reflectă faptul că contextul contează și cuvintele pot avea sensuri și intenții diferite. Eficiența acestei abordări nuanțate este evidentă din diversitatea subiectelor, vocilor și perspectivelor de pe YouTube.”.
Meta și TikTok au transmis același mesaj: nu există o astfel de listă, totul este un mit.
Ambiguitatea a dus la un regim larg de autocenzură. Mulți vorbesc despre subiecte serioase folosind un limbaj ridicol. Alții evită complet anumite teme pentru a nu risca să fie penalizați.
Creatorul de conținut Alex Pearlman are milioane de urmăritori pe TikTok, Instagram și YouTube. El a spus pentru BBC că cenzura algoritmică este mereu prezentă în munca sa.
„Pe TikTok rar spun cuvântul ‘YouTube’. Dacă spun ‘mergi pe canalul meu de YouTube’, videoclipul va eșua,” a explicat Pearlman.
În august, mai multe videoclipuri despre Jeffrey Epstein i-au fost șterse pe TikTok, dar au rămas pe Instagram și YouTube. Pearlman a început să folosească un cod: „Island Man/Omul de pe insulă”, referindu-se la insula privată a lui Epstein.
„Problema cu limbajul codificat este că o mare parte din public nu știe despre cine vorbești,” a spus el.
Un purtător de cuvânt TikTok nu a comentat direct situația lui Pearlman. Compania a transmis doar informații generale, susținând că ideea de cuvinte interzise este o concepție greșită.
În 2019, documente scurse au arătat că TikTok le cerea moderatorilor să suprime conținutul utilizatorilor „urâți”, săraci, cu dizabilități sau LGBTQ+. Scopul era crearea unui mediu „mai atrăgător”. TikTok a spus că măsura era o metodă „brută” de prevenire a bullyingului și că nu mai este aplicată. Alte documente au arătat că TikTok interzicea transmisiuni „controversate” când utilizatorii criticau guverne, dar compania a spus că acea politică nu era pentru piața americană.
În 2023, TikTok a recunoscut existența unui buton secret numit „heating”, folosit pentru a face virale anumite videoclipuri. Acest instrument era utilizat pentru parteneriate de afaceri și uneori abuzat de angajați.
YouTube a fost acuzat în 2019 de un grup de creatori LGBTQ+ că a demonetizat videoclipuri cu termeni precum „gay” sau „trans”. Procesul a fost respins, iar compania a declarat că nu a avut niciodată politici care să interzică sau să demonetizeze conținutul LGBTQ+.
În august 2025, mii de utilizatori au postat despre un festival muzical în Los Angeles. Se vorbea despre concerte Sabrina Carpenter și spectacole de lumini. Dar festivalul nu exista. Totul era un cod. În realitate, proteste masive izbucniseră în SUA după raidurile ICE.
„Suntem în Los Angeles, California, unde are loc un festival muzical,” a spus creatorul Johnny Palmadessa într-un videoclip TikTok, în timp ce protestatarii scandau în fundal.
Lingvistul Adam Aleksic, autorul cărții „Algospeak: Cum transformă rețelele sociale viitorul limbajului”, a spus:
„Sigur, TikTok va preveni gruparea excesivă a conținutului politic, dar în general permite acoperirea protestelor.”.
El a explicat că termenul „festival muzical” a apărut din hiper-corectarea utilizatorilor, care nu știau ce va fi cenzurat. Ironia este că folosirea codului a făcut videoclipurile mai populare și mai virale.
Cercetătorii numesc fenomenul „imaginar algoritmic”. Oamenii își schimbă comportamentul în funcție de credințele despre algoritmi. Chiar dacă aceste credințe nu sunt corecte, comportamentul utilizatorilor modelează algoritmul.
Între 2023 și 2025, Meta a suprimat conținut politic, dar a renunțat la această politică după inaugurarea președintelui Donald Trump.
Profesorul Roberts de la UCLA a explicat:
„Nu este vorba despre politică. Este vorba despre bani. Companiile de social media câștigă din publicitate. Scopul lor este să creeze aplicații pe care mulți oameni vor să le folosească, să le umple cu conținut care să facă advertiserii confortabili și să prevină intervenția guvernului.”.
Roberts a adăugat:
„Și este adevărat că, de cele mai multe ori, interesele moderării conținutului se aliniază cu cele ale majorității utilizatorilor. Dar când trebuie să se abată, o fac.”.