Inteligența artificială pare că a intrat cu „bocancii” în viața multor oameni, devenind un instrument tot mai des folosit pretutindeni pe glob. Fie că e folosit pentru a căuta rețete noi și interesante, a primi sfaturi sau a realiza eseul acela care trebuie să fie gata în câteva ore, e clar că AI-ul e util în vaste domenii. Totuși, mulți nu știu încă cum să ceară corect ceea ce doresc, aparent, iar experții își dau cu părerea și oferă sugestii pentru a obține rezultate cât mai relevante.
Sergey Brin, co-fondatorul Google, a spus-o fără ocolișuri într-un podcast recent: modelele AI, inclusiv cele ale Google, reacționează mai bine dacă le... ameninți. Da, ai citit bine, nu cu bug-uri sau atacuri cibernetice, ci cu violență fizică. Deși sună a glumă proastă, afirmația a fost făcută public în cadrul podcast-ului All-In-Live Miami, iar reacțiile din comunitatea tech n-au întârziat.
Afirmația lui Brin intră în contrast direct cu ceea ce susținea Sam Altman acum ceva vreme, și despre care am scris deja: politețea excesivă în conversațiile cu chatboții AI costă zeci de milioane de dolari anual în electricitate, dar îți poate aduce răspunsuri favorabile la întrebările tale.
Prompt engineering-ul, adică „arta” de a scrie cereri cât mai eficiente pentru AI, a trecut prin mai multe etape. De la mesaje politicoase și elaborate, până la încercări de jailbreak cu mesaje toxice sau insistențe non-etice. Brin pare să sugereze că aceste abordări mai dure funcționează mai bine, dar alți cercetători, cum ar fi Daniel Kang de la University of Illinois, spun că dovezile sunt pur anecdotice.
Stuart Battersby, CTO la Chatterbox Labs, susține că așa-numitele „amenințări” sunt mai degrabă tentative de a sparge protecțiile de securitate ale AI-ului. Deci, nu vorbim despre o strategie de productivitate, ci mai degrabă despre exploatare. La fel ca în hacking, e nevoie de teste riguroase pentru a verifica dacă o metodă e universal valabilă.
Rămâne de văzut dacă Brin voia să fie doar ironic în cadrul podcast-ului, luând în considerare că prompturile „agresive” nu sunt tocmai sigure. Ele pot activa răspunsuri nedorite, ironice, poate chiar periculoase din partea chatboților AI.


