În această săptămână am aflat că chatbot-ul Bing a „luat-o razna”, dând semne că cedează nervos, jignind utilizatorii și fiind mult prea emoțional. Aparent, odată ce e provocat cu o serie de întrebări, chatbot-ul deraiază și începe să ofere răspunsuri repetitive, informații false și surprinzătoare. Ei bine, deși Microsoft a încercat să nege acuzațiile, spunând că screenshot-urile apărute pe web sunt false, compania a anunțat că va limita discuțiile utilizatorilor cu chatbot-ul. Detalii avem mai jos.
Microsoft spune că utilizatorii pot acum să îi adreseze chatbot-ului Bing doar 5 întrebări pentru a afla răspunsurile căutate. Compania a concluzionat că aceasta e media de întrebări pentru a afla un răspuns prompt. La o conversație ce include peste 15 întrebări din partea utilizatorului, chatbot-ul începe să o ia razna și să ofere răspunsuri nesatisfăcătoare, conform companiei. O altă limitare adusă utilizatorilor e faptul că aceștia pot experimenta doar 50 de sesiuni de căutare pe zi.
Microsoft prioritizează acum proiectele AI. În trecut compania se axa pe Metaverse și proiecte legate de HoloLens. Conform Gizchina, proiectul s-a oprit brusc, divizia care se ocupa de aceste proiecte fiind inactivă de mai bine de 4 luni. Pare că nici proiectul legat de AI nu decurge prea bine momentan. MKBHD a testat chatbot-ul limitându-se la câteva întrebări simple, iar răspunsurile conțin erori.
Faptul că Bing Search oferea răspunsuri surprinzătoare a popularizat serviciul în ultimele zile. Totuși, Microsoft e de părere că oamenii n-ar trebui să folosească AI-ul pentru entertainment, iar el ar trebui văzut drept „o unealtă pentru a descoperi lumea”.