Înapoi la știri

Problema este Sam Altman”: Insiderii OpenAI nu au încredere în CEO

1 oră în urmă
9 minute min
Maria Simionescu
Problema este Sam Altman”: Insiderii OpenAI nu au încredere în CEO

Pe fondul unor probleme de încredere, insiderii OpenAI își exprimă îngrijorările legate de CEO-ul Sam Altman, ridicând întrebări despre capacitatea acestuia de a respecta promisiunile organizației. În aceeași zi, OpenAI a lansat recomandări de politici menite să asigure beneficiile inteligenței artificiale pentru umanitate, conform arstechnica.com.

👉 Politicile OpenAI pentru siguranța și beneficiul umanității

OpenAI a anunțat că va milita pentru politici care să „păstreze oamenii pe primul loc” pe măsură ce AI începe „să depășească cei mai inteligenți oameni, chiar și atunci când sunt ajutați de AI”. Compania s-a angajat să rămână „clară” și transparentă în privința riscurilor, pe care le-a recunoscut că includ monitorizarea scenariilor extreme, cum ar fi sistemele AI care scapă de sub controlul uman sau guvernele care folosesc AI pentru a submina democrația. Fără o atenuare corespunzătoare a acestor riscuri, „oamenii vor fi afectați”, a avertizat OpenAI, înainte de a descrie cum compania s-ar putea dovedi demnă de încredere pentru a promova un viitor în care atingerea superinteligenței înseamnă o „calitate mai bună a vieții pentru toți”.

Pe de altă parte, The New Yorker a intervievat peste 100 de persoane familiarizate cu modul în care Altman își desfășoară afacerile, revizuind, de asemenea, memorii interne și realizând mai mult de 12 interviuri cu Altman. Articolul rezultat oferă o contrabalansare extinsă care explică de ce publicul ar putea avea dificultăți în a avea încredere în CEO-ul OpenAI pentru a „controla viitorul” AI, indiferent de cât de optimistă ar părea viziunea companiei. Insiderii l-au descris pe Altman ca pe un „cuminte” care le spune celorlalți ce vor să audă, în timp ce caută puterea în ceea ce susțin că este o tentativă de a se pune pe sine pe primul loc. Un membru al consiliului a rezumat astfel: „Are două trăsături care sunt aproape niciodată întâlnite în aceeași persoană. Prima este o puternică dorință de a-i face pe alții să-l plătească.”

👉 Critici interne și contestări ale CEO-ului

De asemenea, The New Yorker a constatat că nu a descoperit „niciun relief de fum”, dar jurnaliștii au revizuit mesaje de la fostul chief scientist al OpenAI, Ilya Sutskever, și de la fostul șef de cercetare, Dario Amodei, care documentau „o acumulare de minciuni și manipulări suspectate”. Multe dintre incidente ar putea fi neglijate individual, dar împreună, ambii bărbați au ajuns la concluzia că Altman nu a creat un mediu sigur pentru AI avansată. „Problema cu OpenAI”, a scris Amodei, „este Sam însuși.”

Altman a contestat fie afirmațiile din articol, fie a susținut că a uitat de anumite evenimente. De asemenea, el a atribuit unele dintre narațiunile sale schimbătoare peisajului în schimbare al AI și a recunoscut că a fost evaziv în trecut. Cu toate acestea, contradicțiile sale apar tot mai des pe măsură ce exagerarea OpenAI se intensifică în contextul creșterii dependenței guvernului de modelele sale și a proceselor judiciare care îi contestă tehnologia ca fiind nesigură.

Pe plan public, Altman a schimbat recent poziționarea OpenAI de la a fi un fel de salvator care blochează scenariile apocaliptice de AI, la a adopta un „ton” de „optimism efervescent”. Recomandările de politici subliniază această abordare, discutând idei precum experimentele cu săptămâni de lucru mai scurte și crearea unui fond public de bunăstare pentru a împărtăși profiturile din AI. „În timp ce își anunța marii bani pentru a proteja umanitatea de pericolele AI, OpenAI a promovat, de asemenea, un program pilot de burse și granturi de cercetare.”

Totuși, raportul The New Yorker face mai ușor de pus la îndoială dacă recomandările au fost lansate pentru a distrage atenția de la temerile publice crescânde legate de siguranța copiilor, pierderea locurilor de muncă sau consumul ridicat de energie al centrelor de date. Un recent sondaj Harvard/MIT a descoperit că cea mai mare îngrijorare a americanilor este că alimentarea AI va afecta calitatea vieții lor. Aceste îngrijorări ar putea influența voturile pentru democrați și republicani înainte de alegerile de la mijlocul mandatului, deoarece moratoriile asupra centrelor de date, care ar putea încetini avansul AI, câștigă teren.

Fără un nivel adecvat de încredere în Altman, este probabil să fie mult mai greu să convingă publicul că OpenAI nu spune pur și simplu orice pentru a-și consolida propria dominație. „Nu avem toate, sau măcar majoritatea răspunsurilor”, a declarat OpenAI. În schimb, compania își caracterizează „politica industrială pentru era inteligenței” ca fiind „idei inițiale pentru o agendă de politică industrială care să păstreze oamenii pe primul loc în tranziția către superinteligență”. OpenAI a promis să protejeze lucrătorii, inclusiv implicarea acestora în discuțiile despre cum să funcționeze sistemele AI pentru a îmbunătăți productivitatea și a face locurile de muncă mai sigure.

În concluzie, toate aceste beneficii publice pe care OpenAI le promite nu pot fi realizate decât dacă construim o „societate rezilientă” care poate răspunde rapid la implementările riscante și să „țină AI sigur, guvernabil și aliniat la valorile democratice”. Această viziune necesită dezvoltarea de sisteme de siguranță și alte eforturi pentru a ajuta la îmbunătățirea încrederii publicului în AI. Pe măsură ce ne îndreptăm spre superinteligență, OpenAI a subliniat că va exista un moment în care un set restrâns de modele extrem de capabile va necesita controale mai stricte.

Alte postari din Economie
Economie

Nou sistem de monitorizare a calității aerului în București

Bucureștiul va beneficia de un nou sistem de monitorizare a calității aerului, menit să ofere informații precise și în timp real despre poluare. Proiectul, dezvoltat în colaborare cu Uniunea Europeană, va include senzori amplasați în diverse zone ale capitalei.

Economie

Competitia în domeniul securității Bitcoin: Inițiative cheie pentru protejarea împotriva tehnologiei cuantice

Dezvoltatorii explorează metode de a face cea mai veche criptomonedă din lume rezistentă la computerele cuantice, pe măsură ce amenințarea devine din ce în ce mai reală. Potrivit coindesk.com, cercetările Google sugerează că un computer cuantic suficient de puternic ar putea sparge criptografia esențială a Bitcoin în mai puțin de nouă minute, având implicații grave pentru securitatea acesteia.

Economie

S&P Global reconfirmă ratingul de credit al României, păstrând perspectiva negativă

Agenția de rating S&P Global Ratings a reconfirmat ratingul pentru datoria guvernamentală a României, menținând niveluri de BBB-/A-3 atât pentru datoria pe termen lung, cât și pentru cea pe termen scurt. De asemenea, potrivit Mediafax, perspectiva a rămas negativă, ceea ce subliniază provocările economice cu care se confruntă țara.

Economie

OpenAI își aduce în casă operațiunea de propagandă media tehnologică

OpenAI a anunțat că a achiziționat emisiunea Technology Business Programming Network (TBPN), plătind o sumă considerabilă, conform Financial Times. Acest demers a stârnit îngrijorări online cu privire la independența unei operațiuni de media care s-a vândut uneia dintre cele mai mari companii din Silicon Valley, însă criticile sunt nerealiste deoarece TBPN a acționat deja ca o platformă de promovare pentru tehnologia bogată.

Acasa Recente Radio Județe