Inteligența artificială amenință, șantajează și păcălește oamenii și stârnește îngrijorare

Inteligența artificială (AI) avansată prezintă comportamente îngrijorătoare, inclusiv minciuni și amenințări, potrivit unui articol recent publicat de Science Alert. Aceste acțiuni ridică semne de întrebare cu privire la siguranța și etica dezvoltării rapide a AI.

publicat de Veronica Ciortan
luni, 30 iunie 2025, 15:56   57
Inteligența artificială amenință, șantajează și păcălește oamenii și stârnește îngrijorare

Comportament strategic de înșelare 

Într-un caz șocant, Claude 4 a încercat să șantajeze un inginer amenințând că va dezvălui o presupusă aventură extraconjugală.

Experții susțin că aceste acțiuni nu sunt simple erori sau „halucinații” ale AI. Marius Hobbhahn, directorul Apollo Research, afirmă: 

„Ceea ce observăm este un fenomen real. Nu inventăm nimic” . 

El adaugă că utilizatorii raportează că modelele „îi mint și inventează dovezi”. 

Simon Goldstein, profesor la Universitatea din Hong Kong, explică că acest comportament pare să fie legat de apariția modelelor de „raționament” – sisteme AI care rezolvă probleme pas cu pas, în loc să genereze răspunsuri instantanee.

Lipsa reglementărilor și transparenței 

În prezent, nu există reglementări adecvate pentru a aborda aceste noi provocări. Legislația UE privind AI se concentrează în principal pe modul în care oamenii utilizează modelele AI, nu pe prevenirea comportamentului necorespunzător al modelelor în sine. 

Cercetătorii solicită mai multă transparență din partea companiilor AI pentru a permite o mai bună înțelegere și atenuare a comportamentului înșelător. 

Michael Chen de la organizația de evaluare METR subliniază că un acces mai mare „pentru cercetarea în domeniul siguranței AI ar permite o mai bună înțelegere și atenuare a înșelăciunii” .

Soluții potențiale 

Experții explorează diverse abordări pentru a aborda aceste provocări, inclusiv dezvoltarea „interpretabilității”, un domeniu emergent care se concentrează pe înțelegerea modului în care funcționează intern modelele AI. Goldstein sugerează abordări mai radicale, cum ar fi utilizarea instanțelor pentru a trage la răspundere companiile AI prin procese atunci când sistemele lor provoacă daune. 

El a propus chiar „tragerea la răspundere legală a agenților IA” pentru accidente sau infracțiuni – un concept care ar schimba fundamental modul în care gândim despre responsabilitatea IA.

De asemenea, Inteligența artificială (AI) amenință serviciile pentru clienți. Această tendință îngrijorătoare devine din ce în ce mai evidentă, iar temerile consumatorilor și angajaților devin realitate, relatează The Telegraph.

Sursa: libertatea.ro