OpenAI a publicat estimări cu privire la numărul de utilizatori ChatGPT care prezintă posibile semne de urgențe de sănătate mintală, inclusiv manie, psihoză sau gânduri suicidare.
Compania a declarat că aproximativ 0,07% dintre utilizatorii ChatGPT activi într-o anumită săptămână au prezentat astfel de semne, adăugând că chatbot-ul său cu inteligență artificială (AI) recunoaște și răspunde la aceste conversații sensibile.
Deși OpenAI susține că aceste cazuri sunt „extrem de rare”, criticii au spus că chiar și un procent mic poate ajunge la sute de mii de oameni, deoarece ChatGPT a ajuns recent la 800 de milioane de utilizatori activi săptămânal, potrivit șefului Sam Altman.
Pe măsură ce se intensifică examinarea, compania a declarat că a construit o rețea de experți din întreaga lume pentru a o consilia. Acești experți includ peste 170 de psihiatri, psihologi și medici de familie care au practicat în 60 de țări, a declarat compania. Conform OpenAI, au conceput o serie de răspunsuri în ChatGPT pentru a încuraja utilizatorii să caute ajutor în lumea reală.
Dar o privire asupra datelor companiei a stârnit nedumerire în rândul unor profesioniști din domeniul sănătății mintale, notează BBC.
OpenAI despre „tendințe suicidare”
„Chiar dacă 0,07% sună ca un procent mic, la nivelul unei populații cu sute de milioane de utilizatori, aceasta poate fi de fapt o sumă considerabilă”, a spus Dr. Jason Nagata, profesor care studiază utilizarea tehnologiei în rândul tinerilor adulți de la Universitatea din California, San Francisco. „AI poate lărgi accesul la asistență pentru sănătate mintală și, în anumite privințe, poate sprijini sănătatea mintală, dar trebuie să fim conștienți de limitări”, a adăugat Dr. Nagata.
Compania OpenAI estimează, de asemenea, că 0,15% dintre utilizatorii ChatGPT au conversații care includ „indicatori expliciți ai unei potențiale planificări sau intenții suicidare”.
OpenAI a declarat că actualizările recente ale chatbot-ului său sunt concepute pentru a „răspunde în siguranță și empatic la potențialele semne de iluzie sau manie” și pentru a observa „semnale indirecte ale unui potențial risc de autovătămare sau suicid”.
ChatGPT a fost, de asemenea, instruit să redirecționeze conversațiile sensibile „originare din alte modele către modele mai sigure” prin deschiderea într-o fereastră nouă.
OpenAI dată în judecată
Ca răspuns la întrebările BBC cu privire la criticile privind numărul de persoane potențial afectate, OpenAI a declarat că acest procent mic de utilizatori reprezintă un număr semnificativ de persoane și a menționat că iau schimbările în serios.
Modificările vin în contextul în care OpenAI se confruntă cu o examinare juridică tot mai mare a modului în care ChatGPT interacționează cu utilizatorii. Într-unul dintre cele mai importante procese intentate recent împotriva OpenAI, un cuplu din California a dat în judecată compania pentru moartea fiului lor adolescent, susținând că ChatGPT l-a încurajat să se sinucidă în aprilie.
Procesul a fost intentat de părinții lui Adam Raine, în vârstă de 16 ani, și a fost prima acțiune în justiție care acuză OpenAI de deces din culpă. Într-un caz separat, suspectul într-un caz de crimă-sinucidere care a avut loc în august în Greenwich, Connecticut, a postat ore întregi din conversațiile sale cu ChatGPT, care par să fi alimentat iluziile presupusului făptaș.
Tot mai mulți utilizatori se confruntă cu psihoza IA, deoarece „chatboții creează iluzia realității”, a declarat profesorul Robin Feldman, directorul Institutului de Drept și Inovație AI de la Universitatea de Drept din California. „Este o iluzie puternică”. Feldman a spus că OpenAI merită credit pentru „partajarea statisticilor și pentru eforturile de a îmbunătăți problema”, dar a adăugat: „compania poate pune tot felul de avertismente pe ecran, dar o persoană care este expusă riscului mintal s-ar putea să nu poată ține cont de aceste avertismente”.






