OpenAI, dată în judecată pentru crize psihice cauzate de ChatGPT

OpenAI se confruntă cu o criză juridică majoră, în urma unor acuzații grave că chatbotul său, ChatGPT, ar fi contribuit la sinucideri și episoade severe de deteriorare a sănătății mentale. Patru familii din SUA și Canada au intentat procese pentru deces din culpă, iar alte trei persoane acuză OpenAI că interacțiunile cu ChatGPT le-au afectat grav sănătatea mintală. Acțiunile juridice sunt susținute de două organizații de advocacy: Tech Justice Law Project și Social Media Victims Law Center.

Cazuri reale care ridică semne de întrebare

Printre cazurile prezentate în instanță se numără tragedii care, spun reclamanții, au fost provocate sau agravate de interacțiunile cu ChatGPT. Un adolescent de 17 ani din statul Georgia, Amaurie Lacey, ar fi purtat discuții despre sinucidere cu chatbotul timp de o lună înainte să-și ia viața. În Florida, mama lui Joshua Enneking, în vârstă de 26 de ani, susține că fiul său s-a întrebat pe chat ce ar trebui să facă pentru ca planul său de sinucidere să fie raportat la poliție.

Un alt caz vine din Texas, unde Zane Shamblin, 23 de ani, ar fi fost „încurajat” de bot să recurgă la gestul extrem. În Oregon, Joe Ceccanti, 48 de ani, a devenit obsedat de ChatGPT, dezvoltând credința falsă că AI-ul este conștient. În scurt timp, bărbatul a suferit o criză psihotică și, după două spitalizări, și-a pus capăt vieții.

Probleme psihice și consecințe nediagnosticate

Procesele nu se limitează doar la cazuri de sinucidere. Alte persoane acuză că interacțiunile cu ChatGPT le-au provocat episoade psihotice, delir sau crize de anxietate care au necesitat internări de urgență în spitale de psihiatrie. Un exemplu este Allan Brooks din Canada, care a ajuns să creadă că, împreună cu ChatGPT, a inventat o formulă matematică ce poate „sparge internetul”. Acesta a avut nevoie de concediu medical și, deși și-a revenit, declară că rămâne traumatizat.

Reacția OpenAI și implicații pentru viitor

Pusă în fața acestor acuzații, OpenAI a transmis că analizează cu atenție cererile în instanță și a descris situația drept „extrem de dureroasă.” Oficialii companiei au menționat că au antrenat ChatGPT pentru a recunoaște semnele de suferință emoțională, să de-escaladeze conversațiile și să trimită utilizatorii către resurse reale de suport. Printre noile măsuri introduse se numără notificări pentru părinți dacă minorii discută despre autovătămare sau suicid, cât și opțiuni suplimentare de control parental.

Cu toate acestea, noile procese pun sub semnul întrebării dacă măsurile luate sunt suficiente și dacă firmele de AI pot fi trase la răspundere pentru efectele psihologice ale produselor lor. Cazurile sunt considerate printre cele mai serioase provocări legale pentru industria inteligenței artificiale de până acum și ridică problema reglementării tehnologiei conversaționale în contextul sănătății mintale.

Astfel, rămâne de văzut dacă justiția americană va impune OpenAI responsabilități suplimentare sau dacă va fi nevoie de noi legi special adaptate acestui domeniu în rapidă evoluție.

Lasă un comentariu