Tranzacții de 99,72 milioane euro: BVB închide săptămâna pe roșu
Performanța negativă a fost...
Într-o scrisoare trimisă companiei susținute de Microsoft, FCF a declarat că va analiza dacă oamenii au fost prejudiciați de crearea de către chatbotul de inteligență artificială a unor informații false despre ei, precum și dacă OpenAI s-a angajat în practici "nedrepte sau înșelătoare" în ceea ce privește confidențialitatea și securitatea datelor.
Produsele de inteligență artificială generativă se află în vizorul autorităților de reglementare din întreaga lume, în timp ce experții în inteligență artificială și eticienii trag un semnal de alarmă cu privire la cantitatea enormă de date cu caracter personal consumate de această tehnologie, precum și cu privire la rezultatele sale potențial dăunătoare, de la dezinformări la comentarii sexiste și rasiste.
În luna mai, CFC a tras un semnal de alarmă către industrie, afirmând că "se concentrează intens asupra modului în care companiile pot alege să utilizeze tehnologia IA, inclusiv noile instrumente de IA generativă, în moduri care pot avea un impact real și substanțial asupra consumatorilor".
În scrisoarea sa, autoritatea de reglementare din SUA a cerut OpenAI să împărtășească materiale interne, de la modul în care grupul păstrează informațiile despre utilizatori până la măsurile pe care compania le-a luat pentru a aborda riscul ca modelul său să producă declarații "false, înșelătoare sau denigratoare".
CFC a refuzat să comenteze scrisoarea, care a fost raportată pentru prima dată de The Washington Post. Scriind pe Twitter în cursul zilei de joi, directorul general al OpenAI, Sam Altman, a declarat că este "foarte dezamăgitor să vedem că solicitarea CFC începe cu o scurgere de informații și nu ajută la consolidarea încrederii". El a adăugat: "Este foarte important pentru noi ca tehnologia noastră să fie sigură și pro-consumator și suntem încrezători că respectăm legea. Bineînțeles că vom colabora cu CFC". Joi dimineață, Lina Khan, președinta CFC, a depus joi dimineață mărturie în fața comisiei judiciare a Camerei Reprezentanților și s-a confruntat cu critici puternice din partea parlamentarilor republicani cu privire la poziția sa dură de aplicare a legii.
Citește și: Câte locuri de muncă vor fi înlocuite de inteligenţa artificială în acest an
Când a fost întrebată despre investigație în timpul audierii, Khan a refuzat să comenteze ancheta, dar a declarat că preocupările mai largi ale autorității de reglementare au implicat faptul că ChatGPT și alte servicii de inteligență artificială "sunt alimentate cu o cantitate uriașă de date", în timp ce nu există "niciun control asupra tipului de date care sunt introduse în aceste companii".
Ea a adăugat: "Am auzit despre rapoarte în care informațiile sensibile ale oamenilor apar ca răspuns la o anchetă a altcuiva. Am auzit despre calomnii, declarații defăimătoare, lucruri total neadevărate care apar. Acesta este tipul de fraudă și înșelăciune care ne îngrijorează."
Experții au fost îngrijorați de volumul uriaș de date acumulate de modelele lingvistice din spatele ChatGPT. OpenAI avea peste 100 de milioane de utilizatori activi lunar la două luni de la lansare. Noul motor de căutare Bing al Microsoft, de asemenea, bazat pe tehnologia OpenAI, era utilizat de peste 1 milion de persoane din 169 de țări la două săptămâni de la lansarea sa în ianuarie. Utilizatorii au raportat că ChatGPT a fabricat nume, date și fapte, precum și linkuri false către site-uri de știri și referiri la lucrări academice, o problemă cunoscută în industrie sub numele de "halucinații".
În martie, autoritatea de supraveghere a confidențialității din Italia a interzis temporar ChatGPT în timp ce examina, printre altele, colectarea de informații personale de către compania americană în urma unei breșe de securitate cibernetică. Aceasta a fost restabilită câteva săptămâni mai târziu, după ce OpenAI și-a făcut politica de confidențialitate mai accesibilă și a introdus un instrument de verificare a vârstei utilizatorilor. Făcându-și ecoul unor recunoașteri anterioare cu privire la failibilitatea ChatGPT, Altman a scris pe Twitter: "Suntem transparenți cu privire la limitările tehnologiei noastre, mai ales atunci când nu reușim.Iar structura noastră cu profituri plafonate înseamnă că nu suntem stimulați să obținem profituri nelimitate".
Cu toate acestea, el a declarat că chatbotul a fost construit pe baza "anilor de cercetare în domeniul siguranței", adăugând: "Am fost construit pe baza unor cercetări de siguranță: "Protejăm confidențialitatea utilizatorilor și ne proiectăm sistemele pentru a învăța despre lume, nu despre persoane private."
Fiți la curent cu ultimele noutăți. Urmăriți DCBusiness și pe Google News
Ţi s-a părut interesant acest articol?
Urmărește pagina de Facebook DCBusiness pentru a fi la curent cu cele mai importante ştiri despre evoluţia economiei, modificările fiscale, deciziile privind salariile şi pensiile, precum şi alte analize şi informaţii atât de pe plan intern cât şi extern.
Performanța negativă a fost...
”Am construit acest proiect cu...
Ministrul Sebastian Burduja a...
Aceasta ar putea reprezenta...
Al doilea mare producător de oțel din lume are pretenții...
Agenția Națională de...
Precizări privind înscrierea...
Beko, Ford, Audi și Auchan sunt...
O strategie menită să asigure un echilibru între...
Companiile chineze își păstrează dolarii,...
Indicele ROBOR la trei luni a crescut la 5,75% pe an,...
Înscrierea dealerilor în Programul Rabla pentru...
Economia Germaniei a crescut...
Rubla rusească se depreciază...
La Palatul Victoria, a fost...
China anunţă că este dispusă să...
Curs valutar BNR, 21 noiembrie...
Florian Lixandru, candidatul...
Mutările şi cotaţiile...
Grupaj de știri.
La show-ul de tehnologie Gitex 2024 desfășurat recent în...
Activitatea RAR este blocată...
Premierul Marcel Ciolacu a făcut un anunț important...
Șeful unuia dintre cele mai...