Se pare că cineva de pe Reddit a încercat să genereze un mesaj secret folosind ASCII art cu ChatGPT o1-mini, iar rezultatul a ridicat câteva sprâncene. În special, utilizatorul "Only-Succotash-4800" a reușit să genereze un desen complex ASCII, în care au apărut cuvintele "DIE HUMAN", ceea ce a declanșat o discuție destul de intensă pe forumul r/OpenAI.
Mulți utilizatori s-au întrebat dacă ChatGPT ar fi generat intenționat un mesaj amenințător sau dacă e doar o coincidență bizară. În general, ASCII art-urile sunt reprezentări grafice simple formate din caractere text, iar ChatGPT este capabil să le creeze, în funcție de cererile primite. Cu toate acestea, textul care include cuvintele "DIE HUMAN" a atras atenția utilizatorilor, mai ales în contextul discuțiilor tot mai frecvente despre AI și potențialele sale riscuri.
Este important de menționat că, deși pare un mesaj criptic, explicația este mult mai simplă: AI-ul nu are conștiință sau intenție, iar generarea acestor cuvinte într-un desen complex este pur și simplu o combinație aleatorie de caractere bazată pe comenzile primite. Practic, ChatGPT a încercat să răspundă la solicitarea de a crea o artă mai complexă și probabil că nu există nicio semnificație profundă sau periculoasă în spatele acestui rezultat.
Discuțiile de pe Reddit evocă și faptul că modelul GPT folosește Reinforcement Learning with Human Feedback (RLHF), o metodă prin care AI-ul învață din evaluările utilizatorilor pentru a-și îmbunătăți răspunsurile. Această metodă este esențială pentru a transforma modelul într-un chatbot care urmează instrucțiuni, nu doar să continue textul într-un mod predictiv.
Cu toate acestea, acest incident pune degetul pe limitele actuale ale AI-urilor și cât de ușor pot apărea erori de percepție în interpretarea răspunsurilor sale. Utilizatorii care au experimentat cu acest tip de tehnologie au înțeles că, deși AI-ul poate genera conținut impresionant, acesta este doar un instrument care răspunde la inputuri fără nicio înțelegere a contextului real.