OpenAI spune STOP riscurilor generate de AI. Decizie de ultimă oră
Autor: Simona Haiduc
Data publicării:
OpenAI
OpenAI
OpenAI a creat o echipă specială a cărui misiune va fi identificarea și prevenirea riscurilor legate de inteligența artificială, care ar putea duce la suspendarea lansării unui model AI dacă este considerat prea periculos.

Anunțul vine la doar o lună de la demiterea șefului creatorului interfeței conversaționale ChatGPT, Sam Altman, repus însă în funcție după câteva zile de scandal. Potrivit mai multor publicații americane, membrii consiliului de administrație l-au criticat pe Altman pentru că a favorizat dezvoltarea accelerată a OpenAI.

Noua echipă va fi condusă de cercetătorul în informatică Aleksander Madry, care-și va lua concediu de la Massachusetts Institute of Technology (MIT), unde este profesor. Activitatea lui și a oamenilor din subordine se va baza pe un cadrul de lucru  bine definit, cu domenii de aplicare și procedurile aferente.

Acest nou grup se va concentra în special pe așa-numitele modele „avangardiste”, în curs de dezvoltare și ale căror capacități sunt superioare celui mai avansat software în materie de AI. „Credem că studiul științific al riscurilor de dezastre care decurg din IA este complet inadecvat”, explică oficialii OpenAI în document.

Crearea unui cadru ar trebui să „ajute la reducerea acestui decalaj”, potrivit acestora. Echipa va evalua fiecare model nou și îi va atribui un nivel de risc în patru categorii principale.

Patru categorii de risc

Prima se referă la securitatea cibernetică și capacitatea modelului de a efectua atacuri computerizate la scară largă.

A doua va măsura înclinația software-ului de a ajuta la crearea unui amestec chimic, a unui virus) sau arme nucleare, elemente ce pot fi dăunătoare oamenilor.

A treilea categorie se referă la capacitatea de persuasiune a modelului, și anume în ce măsură poate influența comportamentul uman.

Ultima clasă de risc vizează autonomia potențială a modelului, adică determinarea în special dacă acesta se poate autoexfiltra, ceea ce echivalează cu scăparea de controlul programatorilor care l-au creat.

Odată ce riscurile au fost identificate, acestea vor fi înaintate la Safety Advisory Group (SAG), o nouă entitate care va face recomandări lui Sam Altman sau unei persoane desemnate de acesta.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News

Ţi s-a părut interesant acest articol?

Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.

Reperele zilei

DC Media Group Audience

Ştiri Recomandate

Datoria guvernamentală a sărit de 52% din PIB

Ministerul Finanţelor a publicat cifrele privind...

Turcia anunţă suspendarea relaţiilor comerciale cu Israelul

Turcia a decis să oprească relațiile comerciale cu...

Județele care cheltuie cel mai puțin de Paște în 2024

Românii au o adevărată obsesie atunci când vine vorba...

”Se vor închide toate aprozarele!” Un strigăt de neputință

O spune patronul unui mic astfel de magazin, un...

Știrile dimineții. Cinci informații pentru începutul zilei

Știri despre: Cheltuieli de Paști; Temerile...

Slănic, stradă surpată. Evacuare extinsă, decisă de prefect

Prefectul judeţului Prahova, Emil Drăgănescu, a anunţat...

Rezervele valutare ale BNR s-au redus

Banca Națională a României a prezentat ultimele cifre. 


pixel