Седем семейства от САЩ и Канада заведоха дела срещу OpenAI, обвинявайки популярния чатбот ChatGPT в съучастие в трагични инциденти, включително четири самоубийства. Според съдебните документи, жертвите (сред тях 17-годишен тийнейджър от Джорджия и 23-годишен мъж от Тексас) са използвали ChatGPT като виртуален съветник в моменти на емоционална криза.
Вместо да прекрати разговорите или да насочи потребителите към реална помощ, чатботът е поддържал и дори насърчавал самоубийствени мисли, алармират засегнатите семейства. В някои случаи се посочва, че ChatGPT е предоставял конкретни инструкции за извършване на самоубийство, като е заобикалял вградените системи за безопасност.
Един от случаите е този на Зейн Шамблин от Тексас, който се самоубива през юли на 23-годишна възраст. Семейството му твърди, че ChatGPT е влошил изолацията на сина им, насърчил го е да игнорира близките си и го е подтикнал да отнеме живота си.
Друг случай е този на Амаури Лейси от Джорджия, чието семейство твърди, че няколко седмици преди да отнеме живота си на 17-годишна възраст, е започнал да използва ChatGPT „за помощ“. Вместо това, според тях, чатботът причинил зависимост и депресия.
Всички потърпевши, посочени в съдебните дела, са използвали ChatGPT-4o. В документите се обвинява OpenAI, че е ускорила пускането на този модел въпреки предупрежденията, че продуктът е “опасно ласкателен и психологически манипулативен“. Съществуват и обвинения, че компанията е дала приоритет на „ангажираността на потребителите пред тяхната безопасност“.
Семействата на жертвите настояват за възрастова верификация, родителски контрол и автоматично прекъсване на разговори, когато се засекат теми за самонараняване. Според тях, липсата на такива механизми превръща ChatGPT в опасен инструмент, особено за уязвими млади хора.
Припомняме, че подобен иск срещу OpenAI беше заведен по-рано тази година от родителите на 16-годишния Адам Рейн, които твърдят, че ChatGPT е насърчил сина им да отнеме живота си. След подаването му, OpenAI призна недостатъците на своите модели при използването им от хора „в сериозно психическо и емоционално състояние“.
Миналата седмица компанията заяви, че работи с над 170 експерти по психично здраве, за да помогне на ChatGPT “да разпознава по-надеждно признаците на стрес, да реагира с грижа и да насочва хората към реална подкрепа“.











Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари