Sam Altman, directorul executiv al companiei OpenAI, atrage atentia asupra riscurilor majore de confidentialitate asociate utilizarii inteligentei artificiale generative in scopuri terapeutice. Intr-un interviu recent acordat podcastului „This Past Weekend”, gazduit de Theo Von, Altman a subliniat faptul ca, spre deosebire de un psiholog licentiat, un chatbot AI precum ChatGPT nu ofera garantii legale privind confidentialitatea discutiilor personale.
Declaratiile vin intr-un moment in care milioane de utilizatori — in special tineri — folosesc AI-ul conversational pentru a primi sprijin emotional, sfaturi despre relatii sau solutii la probleme intime. Cu toate acestea, lipsa unui cadru legal clar privind protejarea datelor sensibile ridica semne serioase de intrebare, inclusiv asupra posibilitatii ca aceste conversatii sa ajunga, teoretic, in fata instantei.
Informatia a fost relatata de publicatia Mashable, care noteaza si implicatiile mai largi ale acestei probleme asupra viitorului industriei AI.
ChatGPT nu este un terapeut: lipsa confidentialitatii legale
Sam Altman a subliniat in cadrul podcastului ca utilizatorii apeleaza frecvent la ChatGPT pentru chestiuni extrem de personale. „Oamenii vorbesc despre cele mai intime lucruri din viata lor cu ChatGPT. Tinerii, mai ales, il folosesc ca terapeut sau coach de viata, cerand sfaturi despre relatii si alte subiecte sensibile”, a declarat acesta.
Diferenta majora, insa, consta in lipsa unui statut legal de protectie. „Daca discuti cu un terapeut, avocat sau medic, acea conversatie este protejata legal prin ceea ce se numeste ‘privilegiu confidential’. In cazul conversatiilor cu AI-ul, acest mecanism pur si simplu nu exista. Inca nu am rezolvat aceasta problema”, a explicat Altman.
Acest „gol juridic” inseamna ca orice interactiune cu un chatbot AI nu beneficiaza de aceleasi garantii ca relatia pacient–terapeut, lasand datele utilizatorului vulnerabile in fata unor posibile solicitari legale sau accesari neautorizate.
Conversatiile cu AI pot fi accesate legal
Problema devine cu atat mai grava cu cat, in prezent, OpenAI — compania care dezvolta ChatGPT — este implicata intr-un proces cu The New York Times. In cadrul litigiului, instanta a cerut companiei sa pastreze toate inregistrarile conversatiilor utilizatorilor, inclusiv pe cele pe care acestia le-au sters din conturi.
Acest lucru inseamna ca datele private ale utilizatorilor sunt pastrate chiar si in lipsa consimtamantului explicit si pot fi prezentate in fata unei instante, daca este necesar.
Altman a recunoscut gravitatea situatiei, spunand: „Nimeni nu se gandea la asa ceva acum un an. Este o realitate complet noua, si una foarte complicata.” El a calificat contextul drept „extrem de problematic”, subliniind nevoia unei reglementari clare in privinta modului in care datele sensibile sunt colectate, stocate si, mai ales, folosite.
Lipsa unei legislatii uniforme agraveaza problema
In prezent, legislatia privind protectia datelor generate de interactiunile cu inteligenta artificiala variaza semnificativ de la stat la stat in SUA. Unele jurisdictii au implementat reglementari stricte privind deepfake-urile si folosirea vocii sau a imaginii, dar nu exista o lege federala coerenta care sa acopere in mod specific protectia confidentialitatii in cazul interactiunilor cu AI.
Aceasta fragmentare creeaza o incertitudine juridica atat pentru dezvoltatorii de tehnologie, cat si pentru utilizatorii obisnuiti. In absenta unui cadru legal unitar, companiile care ofera servicii AI raman expuse unor procese legale sau acuzatii privind incalcarea vietii private.
In acelasi timp, utilizatorii pot fi indusi in eroare, crezand ca discutiile lor cu un chatbot sunt confidentiale, cand in realitate acestea pot deveni probe in procese civile sau penale.
Ce inseamna „privilegiul confidential” si de ce AI-ul nu il ofera
„Privilegiul confidential” este un concept juridic care protejeaza comunicarile dintre o persoana si anumite profesii reglementate (precum avocati, psihologi, medici) de a fi divulgate fara consimtamantul pacientului/clientului. Acest privilegiu este recunoscut de instante si are ca scop protejarea intimitatii, dar si incurajarea exprimarii sincere in fata specialistilor.
Inteligenta artificiala, in forma actuala, nu se incadreaza in nicio categorie profesionala reglementata. ChatGPT sau alti chatbot-i AI nu sunt entitati umane, nu detin licenta de practica in domenii terapeutice si, prin urmare, nu pot oferi nicio garantie legala privind pastrarea confidentialitatii conversatiilor.
Chiar daca aceste sisteme pot simula empatie sau pot oferi sfaturi utile, ele functioneaza pe baza unor algoritmi care analizeaza date si genereaza raspunsuri — fara discernamant moral sau responsabilitate legala.
Impactul asupra adoptiei AI in domeniul sanatatii mintale
Industria AI se confrunta cu un val tot mai mare de utilizatori care acceseaza chatbot-uri pentru sprijin psihologic, motivational sau educational. In lipsa unor norme clare si transparente, utilizatorii pot confunda acest tip de interactiune cu o forma autentica de terapie.
Desi tehnologia poate avea un rol complementare — de exemplu, pentru oferirea de informatii generale sau de tehnici de auto-ajutor — este periculos sa fie tratata ca substitut al unei relatii terapeutice reale.
In plus, lipsa unor politici de protectie a datelor personale poate conduce la reticenta din partea celor care ar beneficia altfel de pe urma tehnologiei, dar care nu doresc ca informatiile lor personale sa fie arhivate sau expuse in contexte legale sau comerciale.
Un apel pentru reglementare si transparenta
In ciuda avansului tehnologic accelerat, declaratiile lui Altman arata ca industria AI ramane in urma atunci cand vine vorba de reglementarea si etica utilizarii acestor sisteme. Chiar si liderii domeniului admit ca nu exista inca un model clar pentru protectia utilizatorilor.
Altman a sugerat in discutie ca o posibila colaborare intre companiile tech si institutiile guvernamentale ar putea ajuta la definirea unor standarde clare. Vicepresedinta Rezervei Federale a SUA, Michelle Bowman, prezenta la conferinta organizata recent de Fed, s-a aratat deschisa ideii: „Asta ar putea fi ceva la care merita sa colaboram”, a declarat aceasta.
Insa, pana cand vor exista reguli clare si responsabilitati bine definite, utilizatorii trebuie sa fie constienti de limitele actuale ale tehnologiei — si mai ales de riscurile reale pe care le implica tratarea AI-ului ca pe un confesor sau terapeut.


