Въпреки големия интерес към ChatGPT и други подобни чатботове с изкуствен интелект, те все още са изправени пред сериозни проблеми, които трябва да бъдат решени. Едно от тези предизвикателства е склонността им да си измислят информация и да я представят като факт, когато не знаят отговора на запитването.
Това явление се нарича "халюцинации" на изкуствения интелект и включва генериране на неправилни или измислени данни, новини или информация относно хора и събития. Скорошен пример е инцидент, при който опитен нюйоркски адвокат цитира случаи, предложени от ChatGPT, които се оказва, че никога не са се случили. В резултат на тези действия той може да бъде подложен на санкции. Друг инцидент привлече общественото внимание през април, когато ChatGPT очевидно пренаписа историята, като заяви, че австралийски кмет е бил вкаран в затвора за подкуп, докато той всъщност е бил само разпитан по случая.
За да се справят с грешките на чатбота, инженерите на OpenAI разработват нова стратегия, при която моделите на изкуствения интелект се обучават да се възнаграждават за всяка правилна стъпка в процеса на разсъждение. Вместо да се оценява само крайният резултат, сега се акцентира върху награждаването по време на постигането на верни отговори през целия процес.
Според изследователите, използването на т.нар. “проверка на процеса” може да доведе до по-добро разбиране на изкуствения интелект, тъй като стратегията следва по-близка до човешката мисловна верига. От OpenAI добавят, че намаляването на “халюцинациите” е важна стъпка към създаването на Artificial general intelligence (AGI) - форма на интелект, която би била способна да разбира света толкова добре, колкото и човека.
OpenAI от самото начало отправя ясни предупреждения към потребителите да не се доверяват сляпо на ChatGPT. Интерфейсът на чатбота изрично декларира отказ от отговорност, който гласи: "ChatGPT може да произведе неточна информация за хора, места или факти".
Компанията признава тези недостатъци и в своя последен доклад: "Дори най-съвременните модели са склонни да създават неверни данни - те проявяват склонност да измислят факти в моменти на несигурност. Тези “халюцинации” са особено проблематични в области, които изискват многоетапни разсъждения, тъй като една-единствена логическа грешка е достатъчна, за да провали много по-голямо решение."
Въпреки че е добре да знаем, че OpenAI работи по разрешаването на проблема, може да мине известно време, преди да видим някакви подобрения. Докато това стане, както казва самата компания, ChatGPT може да генерира невярна информация, така че не забравяйте да потвърдите отговорите му, ако се допитвате до него.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари