Marile companii de tehnologie au semnat un acord ce ar trebui să garanteze siguranța inteligenței artificiale; Va exista un „buton de urgență” care permite oprirea modelelor AI care prezintă riscuri

752 ori
<b>Marile companii de tehnologie au semnat un acord ce ar trebui să garanteze siguranța inteligenței artificiale; Va exista un „buton de urgență” care permite oprirea modelelor AI care prezintă riscuri</b>A avut loc recent Summitul pentru Siguranța Inteligenței Artificiale, organizat în Seul. Aici s-au întâlnit reprezentanți din cadrul celor mai importante companii tech, inclusiv Microsoft, Amazon sau OpenAI. Ei bine, giganții în materie de AI s-au

A avut loc recent Summitul pentru Siguranța Inteligenței Artificiale, organizat în Seul. Aici s-au întâlnit reprezentanți din cadrul celor mai importante companii tech, inclusiv Microsoft, Amazon sau OpenAI. Ei bine, giganții în materie de AI s-au înțeles între ei să introducă un sistem global de control pentru a asigura dezvoltarea fără riscuri a celor mai avansate modele de inteligență artificială. Mai jos am detalii.

Dezvoltatorii AI au fost de acord să stabilească împreună „liniile roșii”, un mod în care vor măsura pericolul, precum și utilizarea într-un mod neadecvat a sistemelor AI. Riscurile includ, dar nu se limitează la, atacuri cibernetice automatizate sau dezvoltarea de arme biologice (având în vedere eficiența AI în cercetarea medicală). 

Companiile au fost de acord chiar să implementeze un buton de urgență, cunoscut drept „kill switch”, care va opri imediat dezvoltarea unui model AI care nu poate garanta atenuarea acestor riscuri. În plus, pactul semnat prevede implicarea guvernelor din țările de origine ale companiilor în definirea și controlul acestor „linii roșii”. 

Uniunea Europeană a votat marți și prima legislație din lume care stabilește limite pentru dezvoltarea AI-ului, dar astfel de reguli nu există în SUA, UK sau China. 

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×