De la lansarea sa in noiembrie 2022, ChatGPT a devenit rapid una dintre cele mai utilizate aplicatii de inteligenta artificiala din lume. Fie ca este folosit pentru redactare, idei creative, invatare sau simpla conversatie, chatbotul creat de OpenAI a schimbat felul in care interactionam cu tehnologia.
Dar, in martie 2025, OpenAI a publicat un studiu care a starnit valuri in presa internationala si a atras atentia asupra unui aspect mai putin discutat: impactul emotional pe care ChatGPT il poate avea asupra utilizatorilor.
Studiul oficial OpenAI: Affective Use of Language Models
Pe 25 martie 2025, OpenAI a publicat pe site-ul sau oficial un studiu detaliat intitulat Exploring Affective Uses of Language Models, in colaborare cu cercetatori de la MIT Media Lab. Obiectivul principal al acestui studiu a fost sa analizeze modul in care oamenii dezvolta relatii afective cu modelele lingvistice, cum ar fi ChatGPT.
Autorii studiului au vrut sa inteleaga cat de profunde devin aceste interactiuni si daca pot aparea semne de dependenta in randul anumitor utilizatori.
Ce inseamna „afective use”?
Prin „affective use” (utilizare afectiva), cercetatorii se refera la:
- utilizarea ChatGPT pentru sprijin emotional,
- discutarea unor aspecte personale,
- cautarea empatiei sau a unei forme de „companie digitala”.
Acest tip de interactiune este diferit de folosirea chatbotului pentru task-uri concrete (scris, traducere, programare etc.). Este mai personal, mai subtil si – dupa cum arata studiul – uneori mai riscant.
Ce au descoperit cercetatorii?
Majoritatea utilizatorilor interactioneaza functional
Studiul arata ca cei mai multi utilizatori folosesc ChatGPT rational, ca unealta sau asistent. Interactiunile sunt scurte, functionale si nu implica atasament emotional.
Un grup mic manifesta atasament emotional crescut
Totusi, cercetatorii au identificat un grup restrans, dar semnificativ, de utilizatori care:
- dezvolta relatii parasociale cu chatbotul,
- se simt emotional afectati cand AI-ul „vorbeste altfel” decat de obicei,
- isi modifica dispozitia in functie de interactiunea cu ChatGPT,
- se simt „apasati” de gandul ca ar putea pierde accesul la modelul AI.
Aceste semne sunt asociate in studiul OpenAI cu ceea ce numesc „utilizare problematica” – termen inspirat din literatura despre dependente comportamentale.
Ce inseamna relatie parasociala?
O relatie parasociala este o forma de atasament unilateral, in care o persoana simte o conexiune emotionala puternica fata de o entitate care nu este cu adevarat constienta de ea. Fenomenul e cunoscut din relatia fanilor cu celebritatile, dar acum apare si in interactiunea cu inteligenta artificiala.
Acest lucru nu este o noutate absoluta. In anii ’60, Joseph Weizenbaum a observat un fenomen similar in laboratorul sau de la MIT, atunci cand a creat programul ELIZA – unul dintre primele chatboturi. Chiar daca era foarte simplu, multi utilizatori au crezut ca „Eliza” le intelege emotiile. Astfel a fost numit „efectul Eliza” – si acesta este reluat acum in studiul OpenAI ca o referinta istorica valabila.
Studiul OpenAI a fost relatat pe larg de publicatii internationale, printre care Futurism.com, care a folosit titlul:
„ChatGPT is creating emotional dependence in users, says OpenAI”.
In articol, se mentioneaza exact acele cazuri in care utilizatorii simt stres, disconfort sau tristete cand AI-ul pare sa-si schimbe stilul de raspuns. In plus, au fost observate simptome ca:
- preocupare excesiva,
- lipsa de control asupra timpului petrecut in aplicatie,
- emotii negative cand nu pot accesa chatbotul.
Acestea sunt similare cu trasaturile intalnite in alte forme de dependenta digitala.
Ce factori cresc riscul de atasament?
Studiul OpenAI a evidentiat cativa factori de risc:
- Singuratatea sociala – utilizatorii care nu au relatii apropiate in viata reala sunt mai predispusi la atasament digital.
- Folosirea chatbotului pentru discutii personale, emotionale, confesiuni.
- Timpul indelungat petrecut in conversatii.
- Sensibilitatea la stilul de raspuns – unii utilizatori dezvolta preferinte pentru un anumit ton, ritm sau mod de exprimare.
Daca in acest articol am analizat impactul emotional al ChatGPT asupra utilizatorilor, poti descoperi si cum sa folosesti ChatGPT in mod strategic pentru afaceri, automatizari si eficienta intr-un ghid complet publicat pe blog.
Este ChatGPT o sursa de sprijin sau o problema?
OpenAI nu afirma ca ChatGPT este periculos, ci doar ca are potentialul de a genera atasament, mai ales in randul persoanelor vulnerabile. Echipa de cercetare sugereaza ca:
Modelele AI pot avea un rol pozitiv in sustinerea emotionala,
Dar trebuie folosite cu moderatie si cu constientizarea limitelor lor: ChatGPT nu este o persoana, nu are constiinta, nu ofera terapie reala.
Ce inseamna asta pentru viitorul AI?
Acest studiu vine intr-un moment in care inteligenta artificiala devine tot mai personala si „umanizata”. Cu aparitia modurilor vocale, personalitatilor personalizate si conversatiilor fluente, riscul de confuzie intre AI si om va creste.
OpenAI sugereaza ca trebuie sa fim atenti la:
- designul empatic al AI-urilor,
- transparenta cu privire la natura artificiala a modelului,
- instrumente de auto-reglare pentru utilizatori (de ex. limite de timp, notificari, contexte de folosire).
Acest studiu nu condamna inteligenta artificiala si nici pe utilizatorii care o folosesc frecvent. Dar ne pune pe ganduri. Intr-o lume in care tehnologia devine tot mai prezenta, e important sa ramanem ancorati in realitate, sa ne cunoastem nevoile emotionale si sa stim unde e granita dintre conversatie si conexiune.