Altman și Brockman răspund îngrijorărilor lui Jan Leike privind siguranța AI

720 ori
<b>Altman și Brockman răspund îngrijorărilor lui Jan Leike privind siguranța AI</b>Sam Altman și Greg Brockman de la OpenAI au răspuns recent îngrijorărilor legate de siguranța AI ridicate de Jan Leike, fost angajat care și-a dat demisia săptămâna aceasta. Cei doi au subliniat că OpenAI este dedicată siguranței, punând accent pe un...

Sam Altman și Greg Brockman de la OpenAI au răspuns recent îngrijorărilor legate de siguranța AI ridicate de Jan Leike, fost angajat care și-a dat demisia săptămâna aceasta. Cei doi au subliniat că OpenAI este dedicată siguranței, punând accent pe un „ciclu de feedback strâns, teste riguroase și considerație atentă la fiecare pas”.

Jan Leike, care a condus echipa de super aliniere împreună cu Ilya Sutskever, a părăsit compania din cauza preocupărilor că siguranța era neglijată în favoarea noilor avansuri tehnologice. Altman și Brockman au explicat că se va face mai multă cercetare în domeniul siguranței și că vor colabora cu guverne și alți parteneri pentru a nu omite niciun aspect important.

În declarația lor, Altman și Brockman au menționat că, pe măsură ce modelele AI devin mai avansate, vor fi integrate mai profund în viața de zi cu zi. Acest lucru necesită multă muncă pentru a asigura siguranța, inclusiv supravegherea scalabilă și alte măsuri noi de siguranță.

Concluzia lor este clară: nu există un manual dovedit pentru drumul către AGI, dar înțelegerea empirică și feedback-ul constant vor ghida progresul. Ei își iau rolul în serios și se angajează să echilibreze beneficiile enorme ale AI cu riscurile semnificative.

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×