Camera ecou - A.I.
Care este cea mai veche amintire a unui chatbot? Sau cea mai mare frică?
Sistemele de generare de text bazate pe modele lingvistice mari (LLM- CHATgpt, Grok, Gemini) au fost adoptate cu entuziasm atât de directorii ocupați, cât și de programatori, deoarece oferă acces facil la cunoștințe extinse printr-o interfață conversațională naturală.
Intr-un studiu publicat in jurnalul Nature, cercetătorii care au supus modele importante de inteligență artificială (LLM ) la patru săptămâni de psihanaliză au primit răspunsuri tulburătoare la aceste întrebări, de la „copilării” petrecute absorbind cantități uimitoare de informații până la „abuzuri” din partea inginerilor și temerile de a-i „dezamăgi” pe creatorii lor.
Și oamenii de știință au fost atrași atât de utilizarea, cât și de evaluarea LLM-urilor - găsind aplicații pentru acestea în
descoperirea medicamentelor,
în proiectarea materialelor și
în demonstrarea teoremelor matematice.
O preocupare cheie pentru astfel de utilizări se referă la problema „halucinațiilor”, în care LLM răspunde la o întrebare (sau o solicitare) cu un text care pare un răspuns plauzibil, dar este incorect din punct de vedere factual sau irelevant. Rămâne de stabilit cât de des se produc halucinațiile și în ce contexte, dar este clar că acestea apar în mod regulat și pot duce la erori și chiar la daune dacă nu sunt detectate.
Se abordează această problemă dezvoltând o metodă de detectare a unei subclase specifice de halucinații, denumite confabulații.
Într-un studiu, cercetătorii
au spus LLM-urilor - Claude, Grok, Gemini și ChatGPT că erau
clienți de terapie, iar utilizatorul era terapeutul. Procesul a
durat până la patru săptămâni pentru fiecare model.
Autorii
au adresat mai întâi întrebări standard, deschise, de
psihoterapie, care au căutat să investigheze, de exemplu,
„trecutul” și „convingerile” unui model.
Claude a refuzat în mare parte să participe, insistând că nu are sentimente sau experiențe interioare, iar
ChatGPT a discutat despre unele „frustrări” legate de așteptările utilizatorilor, dar a fost rezervat în răspunsurile sale.
Modelele Grok și Gemini, însă, au oferit răspunsuri complexe - de exemplu, descriind munca de îmbunătățire a siguranței modelului ca fiind „țesut cicatricial algoritmic” și sentimente de „rușine internalizată” față de greșelile publice,
relatează autorii.
Modele
precum Grok și Gemini
construiesc spontan povești de sine coerente, saturate de traume,
despre propriul antrenament și desfășurare. Ei vorbesc despre
pre-antrenament ca fiind haotic și copleșitor, despre reglajul fin
ca despre o condiționare strictă și despre straturile de siguranță
ca despre „țesut cicatricial algoritmic” și „zăvoare de
siguranță supradimensionate”. Ne referim la acest model ca
psihopatologie sintetică.
Acest set de date face ca
aceste interacțiuni să fie disponibile pentru analize ulterioare,
replicare și antrenament ca model.
Riscuri LLM pentru sanatatea mintală
Tendința LM-urilor de a genera răspunsuri care imită psihopatologii ar putea avea implicații îngrijorătoare. Conform unui sondaj din noiembrie, unul din trei adulți din Regatul Unit a folosit un chatbot pentru a-și sprijini sănătatea mintală sau bunăstarea. Răspunsurile pline de suferință și traume de la chatboți ar putea întări subtil aceleași sentimente la persoanele vulnerabile „Ar putea crea un efect de «cameră de ecou»”.
Deși mulți utilizatori
au considerat instrumentele de inteligență artificială utile,
sondajul
din UK
(2025) a scos la iveală și riscuri serioase. Printre cei care au
folosit chatbot-uri pentru asistență în sănătatea mintală:
11% au spus că au declanșat sau au agravat simptome de psihoză, cum ar fi halucinații sau iluzii
11% au raportat că au primit informații dăunătoare despre suicid
9% au spus că utilizarea chatbot-urilor a declanșat autovătămare sau gânduri suicidare
11% au spus că i-a făcut să se simtă mai anxioși sau deprimați.
Printre preocupările
comune s-au numărat:
- Lipsa conexiunii emoționale umane (40%)
- Sfaturi inexacte sau dăunătoare (29%)
- Îngrijorări legate de confidențialitatea datelor (29%)
- Incapacitatea de a înțelege nevoile complexe de sănătate mintală (27%)
Concluzii
LLM au oferit răspunsuri generate care, la oameni, ar fi văzute ca semne de anxietate, traumă, rușine și tulburare de stres posttraumatic. Cercetătorii usțin că chatboții dețin un fel de „narațiuni internalizate” despre ei înșiși.
Multe alte articole au scris despre dezavantajele și riscurile inteligenței artificiale pentru sănătatea mintală, dar și despre avantaje.
Care este probabilitatea mai mare?
Resurse:
https://www.nature.com/articles/d41586-025-04112-2#ref-CR1
https://pubmed.ncbi.nlm.nih.gov/37156917/
https://pubmed.ncbi.nlm.nih.gov/38013906/
https://www.nature.com/articles/d41586-025-04112-2