A avut loc recent Summitul pentru Siguranța Inteligenței Artificiale, organizat în Seul. Aici s-au întâlnit reprezentanți din cadrul celor mai importante companii tech, inclusiv Microsoft, Amazon sau OpenAI. Ei bine, giganții în materie de AI s-au înțeles între ei să introducă un sistem global de control pentru a asigura dezvoltarea fără riscuri a celor mai avansate modele de inteligență artificială. Mai jos am detalii.
Dezvoltatorii AI au fost de acord să stabilească împreună „liniile roșii”, un mod în care vor măsura pericolul, precum și utilizarea într-un mod neadecvat a sistemelor AI. Riscurile includ, dar nu se limitează la, atacuri cibernetice automatizate sau dezvoltarea de arme biologice (având în vedere eficiența AI în cercetarea medicală).
Companiile au fost de acord chiar să implementeze un buton de urgență, cunoscut drept „kill switch”, care va opri imediat dezvoltarea unui model AI care nu poate garanta atenuarea acestor riscuri. În plus, pactul semnat prevede implicarea guvernelor din țările de origine ale companiilor în definirea și controlul acestor „linii roșii”.
Uniunea Europeană a votat marți și prima legislație din lume care stabilește limite pentru dezvoltarea AI-ului, dar astfel de reguli nu există în SUA, UK sau China.


