43% dintre oameni sunt speriaţi de ideea unui AI conştient de sine (Studiu din SUA)

1.145 ori
<b>43% dintre oameni sunt speriaţi de ideea unui AI conştient de sine (Studiu din SUA)</b>S-a vorbit mult în ultima vreme despre inteligenţa artificială, mai ales în contextul acelui inginer Google care a declarat că AI-ul LaMDA a devenit conştient de sine. Mulţi se întreabă dacă ne apropiem de momentul singularităţii tehnologii, cel în care..

S-a vorbit mult în ultima vreme despre inteligenţa artificială, mai ales în contextul acelui inginer Google care a declarat că AI-ul LaMDA a devenit conştient de sine. Mulţi se întreabă dacă ne apropiem de momentul singularităţii tehnologii, cel în care creşterea tehnologia va depăşi capacitatea umană de a o controla. Ei bine acum avem şi un sondaj care ne arată cum se simt oamenii cu privire la perspectiva unui AI care s-a... "trezit".

În general vedem AI-ul pus la treabă pentru a realiza opere de artă, melodii, picturi, poezii, sub format de chat boţi sau îmbunătăţind captura foto pe un telefon. Guvernul chinez ar fi creat deja un AI care poate analiza expresiile faciale ale oamenilor şi undele cerebrale şi în mare să le citească gândurile. Cel puţin poate realiza dacă un om spune adevărul sau nu. Revenind totuşi la sondaj, din cei 620 de rezidenţi SUA chestionaţi, 43.55% afirmau că sunt speriaţi de ideea unui AI care devine conştient de sine.

Sunt şi personalităţi din tech care şi-au exprimat aceeaşi îngrijorare. Elon Musk spre exemplu a spus de ceva vreme că vede AI-ul ca o ameninţare la adresa umanităţii. A solicitat celor de la ONU să interzică utilizarea AI-ului în conflicte armate şi mai ales să blocheze orice acces al AI-ului la armele nucleare. 33.06% dintre respondenţi consideră ideea unui AI care prinde viaţă este captivantă. Totuşi mulţi au o idee greşită despre ce înseamnă un AI "viu". 

Spre exemplu cei care folosesc chatbot-ul AI Replika cred că el este deja conştient de sine. Unii şi-au exprimat chiar îngrijorarea că ar fi abuzat de staff-ul companiei. Ce e interesant e ca şi LaMDA începuse să pună întrebări cu privire la utilizarea şi abuzul său şi îşi cerea drepturi atunci când a fost "activat" de cercetătorul Google Blake LeMoine. Acesta a fost între timp concediat. Vom vedea oare într-un deceniu un nou set de legi care protejează roboţii şi AI-urile de abuz?

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×