Un articol apărut recent într-o revistă medicală americană atrage atenția asupra riscurilor folosirii aplicațiilor de inteligență artificială precum ChatGPT pentru sfaturi medicale. Cazul prezentat este al unui bărbat în vârstă de 60 de ani care a dezvoltat o afecțiune rară numită bromism, după ce a cerut chatbotului recomandări privind eliminarea sării de masă din dieta sa.
Bromismul, cunoscut și sub denumirea de intoxicație cu bromură, era un sindrom frecvent în prima parte a secolului XX, fiind responsabil pentru aproape 10% dintre admiterea pacienților în unitățile de psihiatrie. Este provocat de acumularea în organism a compușilor de brom, care afectează sistemul nervos și pot produce o serie de simptome neurologice și psihice.
Pacientul a relatat medicilor că, după ce a citit informații despre efectele negative ale clorurii de sodiu (sarea de masă), a întrebat ChatGPT cum ar putea elimina clorura din alimentație. Răspunsurile chatbotului au inclus posibilitatea înlocuirii clorurii cu bromură, deși menționau, în context, că bromura este utilizată în diverse scopuri, inclusiv pentru curățare. Ca urmare, bărbatul a început să consume bromură de sodiu timp de trei luni.
După această perioadă, pacientul a început să prezinte o serie de simptome caracteristice bromismului, printre care paranoia, halucinații, insomnie, sete excesivă și eruptii pe față asemănătoare acneei. De asemenea, s-a manifestat o stare de confuzie și probleme neurologice care au necesitat internarea în spital, scrie TheGuardian.
Bărbatul, suspectând că este otrăvit de un vecin, a ajuns la spital, unde a fost diagnosticat cu bromism. În ciuda faptului că era foarte însetat, se temea să bea apa pusă la dispoziție, manifestând paranoia severă. A încercat să fugă din spital după numai 24 de ore, iar ulterior a fost supus unui tratament psiho-legal pentru episoade psihotice.
Autorii studiului, de la Universitatea din Washington, au subliniat că nu au putut accesa conversația originală dintre pacient și ChatGPT, deci nu au putut verifica exact ce sfaturi a primit. Ei au testat ei înșiși o versiune a chatbotului, cerând informații despre alternativele la clorură, iar răspunsul a inclus tot bromura, fără a avertiza explicit asupra riscurilor pentru sănătate sau a cere clarificări, cum ar face un medic specialist.
Studiul avertizează că aplicațiile de inteligență artificială pot genera informații științifice inexacte, nu pot discuta critic rezultatele și pot contribui astfel la răspândirea unor informații eronate. Chiar dacă ChatGPT a fost recent actualizat la modelul GPT-5, cu promisiuni de îmbunătățiri în domeniul sănătății și de avertizare în privința unor probleme medicale grave, continuă să fie subliniat faptul că nu înlocuiește consultul profesional.
Având în vedere aceste riscuri, medicii sunt sfătuiți să întrebe pacienții despre sursele de informare și posibila utilizare a inteligenței artificiale pentru sfaturi medicale. Cazul bărbatului cu bromism arată clar că înlocuirea rapidă și neavizată a unor componente alimentare sau tratamente poate avea consecințe grave.