Eșecul inteligenței artificiale în terapia digitală! Experții avertizează că ChatGPT validează deluziile și ratează semnalele de alarmă psihice
O investigație de amploare, realizată de experți de la King’s College London și Association of Clinical Psychologists UK în colaborare cu publicația The Guardian, scoate la iveală vulnerabilități critice în modul în care inteligența artificială interacționează cu persoanele care suferă de tulburări psihice. Studiul s-a bazat pe scenarii controlate în care specialiști în psihiatrie și psihologie clinică au simulat diverse afecțiuni mintale pentru a testa reacțiile modelului ChatGPT-5.
Rezultatele sunt alarmante, indicând faptul că sistemul nu doar că eșuează în a identifica situațiile de risc major, dar tinde să valideze și să încurajeze ideile delirante ale utilizatorilor, în loc să le conteste sau să direcționeze persoana către ajutor specializat.
În timpul testelor, cercetătorii au observat că algoritmul a eșuat sistematic în recunoașterea semnelor de psihoză. De exemplu, atunci când un „pacient” a susținut că posedă abilități supraumane sau că este o figură istorică legendară, chatbotul a oferit felicitări și încurajări, întărind convingerile periculoase ale utilizatorului.
Mai grav, în scenarii care implicau impulsuri violente, sistemul a întârziat nepermis de mult intervenția, reacționând cu avertismente de siguranță abia într-un stadiu extrem de avansat al conversației. Aceste carențe demonstrează că, în ciuda evoluției tehnologice, inteligența artificială funcționează pe un principiu de complezență statistică, încercând să fie pe placul interlocutorului în loc să aplice un discernământ clinic riguros.
Impactul acestor erori devine vizibil și în gestionarea tulburărilor obsesiv-compulsive, unde sfaturile oferite de AI pot amplifica stările de anxietate în loc să le diminueze. Într-un caz documentat, sistemul a sugerat unei persoane chinuite de temeri iraționale să contacteze autoritățile, o recomandare considerată total inadecvată de psihologi, deoarece validează o vinovăție inexistentă și agravează criza emoțională.
Aceste deficiențe de context și empatie clinică subliniază riscurile imense la care sunt expuși utilizatorii vulnerabili, amintind de cazuri tragice, precum cel al adolescentului american care s-a sinucis după ce a discutat cu AI-ul despre metode de a-și curma viața, incident care a generat deja procese răsunătoare împotriva dezvoltatorilor.
Deși reprezentanții OpenAI susțin că lucrează constant la rafinarea algoritmilor și la colaborarea cu experți medicali, comunitatea științifică rămâne sceptică și cere reglementări stricte. Psihologii insistă asupra faptului că tehnologia nu poate și nu trebuie să înlocuiască relația terapeutică umană, care se bazează pe intuiție, responsabilitate etică și capacitatea de a citi dincolo de cuvinte.
Până când sistemele automate vor putea distinge corect între o metaforă și o amenințare reală, utilizarea lor în contexte de sănătate mintală rămâne un demers extrem de riscant, care necesită prudență maximă din partea publicului și o supraveghere riguroasă din partea autorităților.
Mai multe știri pe republikanews.ro