ChatGPT се „депресира“ и го „мързи“ да отговаря на въпроси

Стоян Ненов Последна промяна на 13 декември 2023 в 18:54 1951 0

ChatGPT

Снимка Jonathan Kemper/Unsplash

И създателят OpenAI не знае защо

Когато изкуственият интелект (AI) започна да набира популярност, основните теми на разговор бяха как тази технология може да стане всесилна и всемогъща и да засенчи човека по всички показатели. Рискът от това ще е за цялата цивилизация, казват скептици като Илон Мъск.

Това обаче би могло да се случи, ако бъдат допуснат поредица от груби грешки в разработката, регулацията и използването на AI. И… ако AI просто не го домързи да се занимава. Оказва се, че и това е възможно. От около месец насам са зачестили оплакванията на потребители на популярния чатбот ChatGPT, че алгоритъмът е станал все „по-мързелив“ и дори отказва да изпълни задачи, съобщава Ars technica.

Преди дни и създателят на ChatGPT, компанията OpenAI, обяви, че е наясно с проблема: „Чухме обратната ви връзка, че GPT4 става по-мързелив! Не сме актуализирали модела от 11-ти ноември и това поведение определено не е нарочно. Поведението на модела може да е непредвидимо и работим, за да го поправим.“

Компанията споделя, че не знае каква е причината за изненадващото нежелание на ChatGPT да дава подробни отговори както преди или дори да не иска да изпълни команди, които преди е следвал. В социалните мрежи много експерти, обикновени потребители и дори служители на OpenAI дискутират потенциалните причини.

Една от тях звучи глупаво, но пък с времето събира най-много привърженици. А имено, че ChatGPT го е обхванала зимна „депресия“. Теорията идва от факта, че моделът GPT-4 се учи от данни в интернет. А от тях може да е забелязал, че през декември хората традиционно се отпускат, искат да си почиват повече и отлагат големите решения за след празниците. Може ли наистина да става дума за класически случай на „с какъвто се събереш такъв ставаш“ и ботът да имитира наученото от хората?

Според някои от аргументите – да. Потребителите казват, че когато помолят бота по-упорито, тогава той все пак решава да изпълни команда, която е отказал или да даде по-подробен отговор. Това включва дори директно молене да помогне, тъй като човекът се страхува, че може загуби работата си, ако не даде указания стъпка по стъпка или… няма ръце, с които да си напише отговора сам.

Скептиците обаче смятат, че всичко е преувеличено. Те отбелязват, че ChatGPT по принцип има история на разнородни отговори на едни и същи въпроси и команди и че е трудно да се пресъздадат всички съобщени проблеми. Възможно е те да са повлияни и от личните разговори с бота и той да се е адаптирал към поведението на конкретни служители. Също така са изтъкнати и оплаквания, че ботът е бил „мързелив“ и от лятото, макар и те да са по-малко.

Със сигурност и всички тези опити и дълги увещания на бота с молби, също ще се отразят на GPT-4 и „мотивацията му“. Това са неочаквани последици от развитието на AI, но пък може би не трябва да ни изненадват. Все пак става дума за технология, която се създава от хора, за да върши неща като човек. Изглежда логично да развие и някои от не толкова положителните човешки качества.

Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !