Apple pare că se grăbește, compania din Cupertino vrea să introducă odată cu iOS 18 tehnologii AI pe iPhone-urile și iPad-urile din portofoliul său. Ar fi discutat deja cu Google pentru terminalele vândute la nivel global și cu Baidu pentru iPhone-urile comercializate în China. Totuși, producătorul pare că are în plan și dezvoltarea unui model AI propriu, cunoscut drept ReALM. Mai jos avem detalii.
Recent a fost descoperit un document (research paper) de către publicația VentureBeat. Aici Apple explică cum ar trebui să funcționeze ReALM, propriul său model AI. Ar fi un model ce poate înțelege limbajul uman la un nivel superior față de alte chatbot-uri. Cu alte cuvinte, el ar putea fi integrat în asistentul virtual Siri pentru a oferi răspunsuri mai precise, înțelegând cumva limbajul natural al oamenilor.
Pentru asistenți digitali vorbim despre o provocare, doar că ReALM de la Apple ar putea interpreta o varietate de expresii verbale și să le interpreteze vizual. Sistemul Apple ReALM poate inclusiv să reconstruiască aspectul vizual al unui ecran folosind reprezentări textuale. Această tehnică presupune analizarea entităților de pe ecran și a locațiilor acestora pentru a genera un format textual care surprinde conținutul și structura ecranului.
Cercetătorii Apple au descoperit că această strategie, combinată cu reglarea fină specifică a modelelor de limbaj pentru sarcinile de rezoluție de referință, depășește semnificativ metodele tradiționale, inclusiv capacitățile GPT-4 de la OpenAI.
Apple a publicat acum mai multe lucrări de cercetare AI. Luna trecută, compania a dezvăluit o nouă metodă de instruire a modelelor de limbă mari, care integrează perfect atât text, cât și informații vizuale.
Apple ar trebui să dezvăluie o serie de funcții AI la WWDC 2024, în luna iunie.


