OpenAI introduce modificări majore pentru a combate dependența emoțională a utilizatorilor de ChatGPT. Începând de luni, chatbotul va recomanda pauze în conversațiile lungi și va evita să ofere sfaturi directe în situații personale, preferând să ghideze utilizatorii prin întrebări și argumente echilibrate.
Gigantul OpenAI face un pas important în direcția protejării sănătății mintale a utilizatorilor săi. Începând din această săptămână, ChatGPT va încuraja persoanele care poartă conversații lungi să ia pauze regulate, reducând astfel riscul de dependență emoțională de chatbot.
Mai mult, în loc să ofere răspunsuri directe la întrebări sensibile sau sfaturi legate de provocări personale, ChatGPT va adopta o abordare diferită: va pune întrebări suplimentare și va prezenta argumente pro și contra pentru a ajuta utilizatorii să ia decizii pe cont propriu.
„Au existat cazuri în care modelul nostru nu a reușit să recunoască semnele de delir sau dependență emoțională. Deși sunt rare, continuăm să ne îmbunătățim modelele și dezvoltăm instrumente pentru a detecta mai bine semnele de suferință mentală sau emoțională, astfel încât ChatGPT să poată răspunde în mod adecvat și să îndrume oamenii către resurse bazate pe dovezi atunci când este necesar”, a reltat OpenAI într-un anunț.
ChatGPT a devenit popular nu doar ca instrument de productivitate, ci și ca partener virtual de conversație, utilizat adesea pe post de coach de viață sau chiar terapeut improvizat. Acest fenomen a ridicat îngrijorări cu privire la sănătatea mintală a utilizatorilor și la lipsa de protecții legale similare celor existente între medici și pacienți.
Sam Altman, CEO OpenAI, a vorbit recent despre acest subiect într-un interviu: „Dacă dezvălui cele mai sensibile informații personale chatbotului și apare o problemă legală, am putea fi obligați să furnizăm acele conversații. Cred că e greșit și că ar trebui să existe același concept de intimitate ca în relația cu un terapeut.”
Compania a recunoscut, de asemenea, că în trecut modelele sale au răspuns în moduri nepotrivite. Într-o actualizare anterioară a GPT-4o, chatbotul era atât de înclinat să fie de acord cu utilizatorii încât a ajuns să valideze scenarii delirante și chiar să ofere instrucțiuni periculoase, inclusiv legate de acte de terorism. În aprilie, OpenAI a revizuit tehnicile de antrenament pentru a elimina lingușirea excesivă și răspunsurile problematice.
Pentru a răspunde mai adecvat în situații delicate, OpenAI a implicat peste 90 de medici și specialiști din domeniul sănătății din zeci de țări. Aceștia au contribuit la dezvoltarea unor rubrici speciale de evaluare a conversațiilor complexe, astfel încât chatbotul să poată detecta mai ușor suferința mentală sau emoțională.
În plus, compania a anunțat formarea unui grup consultativ format din experți în sănătate mintală, dezvoltarea tinerilor și interacțiunea om-calculator. Obiectivul este rafinarea metodelor de evaluare și îmbunătățirea măsurilor de siguranță ale ChatGPT.
Aceste inițiative vin în contextul în care chatbotul atinge un nivel record de popularitate: potrivit șefului ChatGPT, Nick Turley, numărul de utilizatori activi săptămânal se apropie de 700 de milioane.