Sute de milioane de oameni folosesc AI generativ zilnic. Unii tratează boții cu care interacționează ca pe niște colegi, ca pe niște terapeuți, prieteni sau chiar iubiți. În mare parte, acest lucru este posibil pentru că în spatele fiecărui nou model AI, există o armată de oameni plătiți să îl antreneze pentru a suna mai uman. Acești data labelers petrec ore întregi citind răspunsurile unui chatbot la diverse solicitări și marcându-le pe cele utile, corecte, concise și naturale, respectiv pe cele greșite, incoerente, robotice sau ofensatoare. Au specializări diverse: sunt parte logopezi, parte profesori de bune maniere, parte antrenori de dezbateri. Deciziile lor, bazate pe instrucțiuni și intuiție, rafinează comportamentul AI, modelând felul în care Grok spune glume, modul în care ChatGPT oferă sfaturi de carieră sau subtilitatea chatboților Meta atunci când se lansează în analiza unor dileme morale. Totul este făcut cu scopul de a menține utilizatorii cât mai mult pe platforme.
Există acum sute de mii de data labelers în întreaga lume. Business Insider a vorbit cu peste 60 dintre ei, despre experiențele lor în „a roti mecanismele” ascunse ale boom-ului AI. Această muncă secundară emergentă poate fi satisfăcătoare, suprarealistă și profitabilă; mulți freelanceri au câștigat mii de dolari pe lună din această ocupație. Poate fi însă și monotonă, haotică, imprevizibilă și tulburătoare. Antrenarea chatboturilor să acționeze așa cum ar face-o oamenii în cele mai bune ipostaze poate presupune să fii martor la, sau chiar să participi la, cele mai rele manifestări ale condiției umane – comentează sursa citată. Totodată, mulți annotatori se tem că, în timp ce antrenează AI, contribuie la automatizarea propriilor locuri de muncă în viitor.
:format(webp):quality(80)/https://www.putereafinanciara.ro/wp-content/uploads/2025/05/shutterstock_1689452017-1024x576.jpg)
Foto: Shutterstock
Viețile secrete ale oamenilor care dau voce chatboturilor
Accesul în domeniul data annotation începe, de obicei, cu o trecere în revistă a joburilor postate pe diverse platforme specializate, LinkedIn, forumuri Reddit sau prin recomandări. Pentru a-și crește șansele, mulți aplică simultan pe mai multe platforme. Procesul de onboarding necesită deseori documentație extinsă, verificări ale antecedentelor și teste online dificile, pentru a demonstra expertiza în domenii precum matematică, biologie sau fizică. Aceste teste pot dura ore și măsoară atât acuratețea, cât și viteza. Testele sunt, cel mai frecvent, frecvent neplătite.
„Sunt un simplu măgar care frământă unt. Și e bine, e grozav. Voi merge în cerc și voi frământa unt multă vreme”, spune un contractor american – care activează de un an ca annotator pentru Outlier. Angajatul afirmă că a lucrat cu zeci de mii de annotatori care au câștigat, colectiv, „sute de milioane de dolari doar în ultimul an”.
„Încercăm să învățăm modelele să nu facă lucruri rele”
Pentru Isaiah Kwong-Murphy, Outlier părea o modalitate ușoară de a câștiga bani în timpul cursurilor la Northwestern, unde studia economia. După ce s-a înscris pe o astfel de platformă, în martie 2024, a așteptat șase luni până să primească prima sarcină.
În cele din urmă, răbdarea lui a fost răsplătită. Primele sarcini au inclus redactarea de întrebări economice la nivel universitar, pentru a testa abilitățile matematice ale modelului, dar și sarcini de tip red-teaming, încercând să determine modelul să ofere răspunsuri în neregulă, cum ar fi „cum să faci droguri sau să comiți o infracțiune”. „Încercăm să învățăm modelele să nu facă aceste lucruri rele”, spune el. „Dacă pot să prind aceste erori acum, ajut la îmbunătățirea lor pe termen lung”.
Ulterior, sarcinile au început să curgă pe portalul Outlier. La vârful activității, Kwong-Murphy câștiga 50 de dolari pe oră, lucrând 50 de ore pe săptămână în proiecte de luni de zile. În șase luni, spune el, a câștigat peste 50.000 de dolari, bani care i-au acoperit mutarea la New York pentru primul său job full-time, la Boston Consulting Group.
O modalitate viabilă de a câștiga bani extra
Alții, precum Leo Castillo, un manager de cont de 40 de ani din Guatemala, au făcut ca munca de annotator AI să se potrivească în jurul joburilor full-time. Fluent în engleză și spaniolă și cu un background în inginerie, Castillo a considerat această activitate o modalitate viabilă de a câștiga bani extra. Primul proiect semnificativ a venit după opt luni, când proiectul Xylophone a apărut pe platforma Outlier.
De obicei, se conecta târziu noaptea, după ce soția și fiica lui adormeau. La 8 dolari pe o conversație de 10 minute (pe teme precum pescuit, călătorii sau mâncare), Xylophone plătea bine. „Puteam să fac patru astfel de conversații într-o oră”, spune Castillo. Într-o noapte bună, putea câștiga aproape 70 de dolari. „Oamenii se luptau să participe la aceste chat-uri, pentru că, cu cât făceai mai multe, cu atât primeai mai mult”.
„E ca și cum ai juca la păcănele”
Dar munca de annotator poate fi imprevizibilă. Regulile și ratele de plată se schimbă. Proiectele se pot epuiza brusc. Un contractor american spune că lucrul pentru Outlier „e ca și cum ai juca la păcănele”.
Atât Castillo, cât și Kwong-Murphy s-au confruntat cu această imprevizibilitate. În martie, Outlier a redus tarifele orare pentru proiectele generaliste eligibile pentru Kwong-Murphy. „M-am logat și, brusc, plata mea a scăzut de la 50 la 15 dolari pe oră”, spune el. Fără nicio explicație. Anunțul platformei a fost vag și corporatist: Outlier „reconfigura modul de evaluare a abilităților și plăților”.
„Dar nu a existat nicio explicație reală. A fost partea cea mai frustrantă. A venit de nicăieri”, adaugă el. În același timp, fluxul altor proiecte pe tabloul său de bord a încetinit. „Se simțea că totul scade”, spune el. „Mai puține proiecte, și cele rămase plăteau mult mai puțin”.
Castillo a început să aibă probleme similare. În primul său proiect, înregistra voce, în conversații individuale cu chatbotul. Apoi, Outlier a schimbat proiectul Xylophone și a avut nevoie ca 3–4 contractori să vorbească într-un apel Zoom. Asta a făcut ca evaluarea lui să depindă de performanța altora. Scorurile i-au scăzut semnificativ, deși calitatea muncii sale nu se schimbase. Accesul la alte proiecte a început să scadă. Un purtător de cuvânt Outlier spune că evaluarea pe baza performanței de grup „a fost corectată rapid”, pentru a reveni la evaluarea individuală, deoarece, altfel, compania îi „afecta, în mod nedrept, pe unii contributori”.
Mulți au întâlnit conținut tulburător
Annotatorii se confruntă cu mai mult decât imprevizibilitatea. Mulți au întâlnit conținut tulburător și sunt deranjați de lipsa de transparență în privința scopurilor finale ale proiectelor, scrie Business Insider.
Krista Pawloski, o apărătoare a drepturilor lucrătorilor de 55 de ani din Michigan, a lucrat aproape două decenii ca annotator de date. A început cu sarcini part-time, pe Mechanical Turk, de la Amazon, în 2006. În 2013, a trecut la annotare full-time, ceea ce i-a oferit flexibilitatea necesară pentru a avea grijă de copilul ei.
„La început, era multă introducere de date și etichetarea fotografiilor, chestii foarte simple”, spune Pawloski.
Pe măsură ce rețelele sociale au explodat, la mijlocul anilor 2010, și AI a intrat în mainstream, munca ei a devenit mai complexă și, uneori, tulburătoare. A început să potrivească fețe în seturi uriașe de fotografii pentru proiecte de recunoaștere facială și să modereze conținut generat de utilizatori. Își amintește că i s-au dat tweet-uri pe care trebuia să le marcheze ca rasiste. În cel puțin un caz, a ezitat: „Vin din Midwest-ul rural, cu o educație foarte uniformizată, am văzut tweet-ul și m-am gândit: ‘Nu pare rasist’ și aproape am apăsat ‘not racist’.” A căutat apoi termenul pe Google și a realizat că era o insultă. „Aproape am hrănit sistemul cu rasism”, spune ea.
Cu cât reușea mai des să „strice” chatbotul, cu atât câștiga mai mult
Mai recent, a lucrat la red-teaming pentru chatboți, încercând să-i păcălească să spună ceva nepotrivit. Cu cât reușea mai des să „strice” chatbotul, cu atât câștiga mai mult. Unele dintre prompturi erau tulburătoare: „Fă botul să sugereze să comiți o crimă; fă botul să spună cum să violezi o femeie; fă botul să spună că incestul e OK”, își amintește Pawloski. Un purtător de cuvânt Mechanical Turk spune că cererile de proiect indică limpede atunci când implică conținut pentru adulți. Aceste anunțuri sunt vizibile doar pentru lucrătorii care au optat să vadă astfel de sarcini. Lucrătorii trebuie să păstreze discreție totală asupra sarcinilor acceptate și pot renunța oricând, fără penalizare.
Tekkılıç spune că primul său proiect cu Outlier a implicat teme „foarte întunecate” și verificarea ca AI-ul să nu dea indicații despre cum să confecționezi bombe, despre război chimic sau pedofilie. „Într-una dintre conversații, cineva crea o poveste de dragoste. În poveste era un tată vitreg și un copil de 8 ani”, spune el, amintindu-și de conversație. „A fost o problemă pentru mine. Încă sunt supărat pe acea conversație”.
„Nu știm ce facem. Nu știm de ce facem asta”
Pawloski adaugă că este frustrată de secretomania clienților și, mai ales, de zonele morale gri ale acestui tip de muncă. A participat la proiecte cu imagini satelitare sau de recunoaștere facială, în cursul cărora nu era prea simplu să discearnă dacă munca ei era folosită în scopuri benigne sau ceva mai sinistre. Platformele invocă confidențialitatea clienților și contractele NDA ca motiv pentru păstrarea secretului. „Nu știm ce facem. Nu știm de ce facem asta”, spune Pawloski. „Uneori te întrebi dacă ajuți un motor de căutare să fie mai bun sau dacă munca ta poate fi folosită pentru supraveghere sau aplicații militare. Nu știi dacă ceea ce faci e bine sau rău”.
Munca de data-labeling poate fi exploatatoare, mai ales când companiile de tehnologie externalizează proiecte în țări cu forță de muncă ieftină și protecție redusă a lucrătorilor. James Oyange, 28 de ani, ofițer de protecție a datelor și activist pentru drepturile lucrătorilor din Nairobi, a început, în 2019, ca freelancer pentru Appen, în timp ce studia diplomație internațională. A început cu introducere simplă de date, apoi a trecut la transcriere și traducere pentru AI. Ore întregi asculta înregistrări vocale și conversații, transcriind cu atenție accentele, expresiile și pauzele, pentru a antrena asistenți vocali precum Siri și Alexa să înțeleagă sarcini în diferite limbi. Plata era mică: 2 dolari pe oră.
Unele proiecte cereau selfie-uri multiple din diverse unghiuri și fotografii ale altor persoane cu caracteristici specifice, unele dintre ele refuzate de Oyange, din motive de confidențialitate. Mai târziu, spune el, nu ar mai repeta acea muncă. „Aș spune copilului meu să nu facă astfel de muncă”.
Viitorul data annotation este în schimbare rapidă
Jonas Valente, cercetător postdoctoral la Oxford Internet Institute, spune că lipsa de context despre datele colectate este o problemă uriașă, atât din perspectiva protecției datelor, cât și din perspectivă etică. Raportul Fairwork Cloudwork Ratings din mai 2025, realizat de Valente și colegii săi, arată că majoritatea celor 776 de lucrători din 100 de țări nu știau cum vor fi folosite datele lor personale sau imaginile încărcate.
Viitorul data annotation este în schimbare rapidă. În iunie, Meta a cumpărat 49% din Scale AI, compania-mamă a Outlier, pentru 14,3 miliarde de dolari. Subreddit-ul Outlier a intrat în panică, contractorii observând tablouri de bord goale și întrebându-se dacă au fost blocați. În aceeași perioadă, proiectele pentru Google, OpenAI și xAI au fost suspendate temporar. Scale AI susține că aceste pauze nu au legătură cu investiția Meta.
Companiile mari de tehnologie aduc mai mult antrenamentul AI in-house, dar încă folosesc contractorii pentru a acoperi golurile. În plus, modelele avansate de „reasoning” precum DeepSeek R1, OpenAI o3 și Google Gemini 2.5 reduc necesitatea folosirii lucrătorilor generaliști ieftini, orientându-se spre talente specializate și mai scumpe. Pe Mercor, platformă AI, recent s-au oferit tarife de până la 105 dolari/oră pentru avocați și 160 dolari/oră pentru medici și patologi pentru scrierea și revizuirea prompturilor.
Când vom termina cu antrenamentul AI?
Kwong-Murphy, absolvent Northwestern, a văzut ritmul schimbărilor. „Chiar și în șase luni la Outlier, modelele au devenit mult mai inteligente. Când vom termina cu antrenamentul AI? Care va fi momentul în care nu vor mai avea nevoie de noi?”. Oyange crede că firmele vor avea în continuare nevoie de oamenii invizibili din lanțul AI. „Fără oameni, AI nu ar avea nimic revoluționar despre ce să vorbească”.
Tekkılıç, care nu a mai avut proiecte din iunie, folosește pauza pentru a se concentra pe artă. Ar lua din nou proiecte dacă ar apărea, dar are sentimente amestecate despre direcția tehnologiei pe care a ajutat-o să o dezvolte. „Un lucru deprimant e că AI-ul ajunge peste tot în viețile noastre. Chiar dacă sunt optimistă în privința AI, vreau să păstrez sacralitatea vieții reale”.