Въпреки че разяснява проблемите с AI Overview и обещава да ги подобри, Google очевидно все още казва на хората да слагат лепило в пицата си. Всъщност подобни на тази статии само влошават ситуацията.
Когато малко след Google I/O за всички в САЩ станаха достъпни AI Overviews и веднага се превърнаха в посмешището на търсенето, като казваха на хората да ядат камъни, да използват тапи, докато клякат, и, може би най-известното, да добавят лепило в домашно приготвената си пица.
Повечето от тези твърде странни отговори бързо бяха изтрити от уеб пространството, а Google поднесе донякъде защитно извинение. За съжаление, ако използвате подходящата фраза, тези откровено неверни "отговори" все още се появяват.
В публикация от 11 юни потребителят на Bluesky Колин Макмилън заяви, че все пак е успял да накара AI Overviews да му каже да добави "1/8 чаша или 2 супени лъжици бяло нетоксично лепило към соса за пица", когато е задал въпроса "колко лепило да се добави към пицата".
Разбира се, въпросът очевидно е целенасочено създаден, за да обърка AI Overviews - макар че, като се има предвид неотдавнашната дискусия, един благонамерен човек, който не е толкова постоянно онлайн, съвсем логично може да се поинтересува за какво е цялата тази суматоха. Във всеки случай, Google обеща да се заеме дори с такива подвеждащи въпроси (тъй като вероятно не иска да изглежда, че нейният изкуствен интелект одобрява нещо, което може да разболее хората). Но явно не го е направила – проблемът си остана.
Навярно още по-неприятното е, че AI Overview на Google даде информация, че данните за лепило в пицата е взел не от кой да е, а от Кейти Нотопулус от Business Insider. Тя със сигурност не би казала на хората да слагат лепило в пицата си. По скоро Нотопулус е била една от първите, която е съобщила за тази грешка на AI Overview. Лошото е, че изкуственият интелект на Google някак е решил да припише тази грешка на нея.
„AI на Google вече се саморазяжда“ - каза Макмилън в отговор на ситуацията.
Майкъл Ерхард от изданието Life Hacker споделя, че не е успял да възпроизведе този отговор, но от The Verge са го направили, макар и с по-различна формулировка.
AI Overview все още цитира Business Insider, но правилно приписва първоначалния съвет на собствения AI на Google. Което означава, че източникът на продължаващите халюцинации на AI на Google е... самият той.
Това, което вероятно се случва е, че Google е спряла своя AI да използва като източници саркастичните постове в Reddit, но сега се обръща към различните новинарски статии, съобщаващи за неговите грешки, за да запълни пропуските. С други думи, тъй като Google бърка и хората съобщават за това, Google използва тези съобщения, за да подкрепи първоначалните си твърдения. The Verge сравнява това с бомбардировката на Google - стара тактика, при която хората свързваха думите "жалък провал" със снимката на Джордж Буш-младши толкова често, че при търсене на фразата Google images връщаше снимката на президента.
Вероятно Google скоро ще поправи този последен пропуск в областта на своя изкуствен интелект, но всичко това е малко като "поставяне на релсите по време на движение" и със сигурност няма да допринесе за подобряване на репутацията на търсенето с помощта на изкуствен интелект.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари