OpenAI a prezentat GPT-5.2 drept „cel mai avansat model pentru lucru profesional”, însă o investigație realizată de The Guardian pune presiune pe această afirmație. În testele ziarului britanic, modelul ar fi folosit Grokipedia – enciclopedia online creată de xAI – ca sursă pentru răspunsuri la întrebări sensibile, de la structuri politice din Iran până la detalii biografice legate de istorici implicați în procese privind negarea Holocaustului.
Conform raportului, ChatGPT ar fi citat Grokipedia atunci când a fost întrebat despre presupuse conexiuni între guvernul iranian și operatorul telecom MTN-Irancell, dar și în întrebări care îl vizau pe istoricul Richard Evans, expert în celebrul proces împotriva negationistului David Irving. În schimb, aceeași sursă notează că modelul nu s-a bazat pe Grokipedia în interogări despre biasul media în cazul lui Donald Trump sau alte teme cu potențial polarizant, ceea ce indică o selecție inegală a surselor.
Contextul face ca problema să fie și mai delicată. Grokipedia precedă lansarea GPT-5.2, dar a fost deja criticată pentru includerea unor referințe către forumuri neo-naziste și pentru faptul că articolele sale sunt generate în principal de modelul Grok al xAI, nu de contributori umani sau o comunitate editorială largă. O cercetare realizată de specialiști americani a arătat că enciclopedia a citat surse „îndoielnice” și „problematic de opace”, alimentând temerea că informația circulă într-un ecosistem fără verificare riguroasă.
Pentru mediul tehnologic, îngrijorarea principală nu este neapărat orientarea politică a platformei, ci fenomenul de „învățare circulară”. Dacă un model de limbaj începe să trateze o enciclopedie generată de o altă IA ca pe o sursă factuală, apare un efect de buclă în care erorile, biasurile și exagerările pot fi consolidate fără intervenție umană. Guardian notează că unele informații preluate de GPT-5.2 de pe Grokipedia depășeau limitele faptelor confirmate sau erau deja demontate de experți, ceea ce alimentează riscul că dezinformarea să capete aparență de autoritate doar prin citare reciprocă între sisteme automate.
OpenAI a transmis publicației că GPT-5.2 caută în mod deliberat „o gamă largă de surse și perspective publice” și că aplică filtre de siguranță pentru a reduce riscul de a afișa linkuri asociate cu conținut cu grad ridicat de nocivitate. Compania a mai punctat că sistemul de citare din ChatGPT este conceput pentru a face procesul transparent și a menținut că sunt în curs programe suplimentare pentru detectarea conținutului cu credibilitate scăzută și a tentativelor de influență digitală.


