Служители на OpenAI, DeepMind и Anthropic искат повече усилия за справяне с рисковете на AI

Стоян Ненов Последна промяна на 05 юни 2024 в 18:12 509 0

ChatGPT

Снимка Matheus Bertelli/Pexels

Служители на OpenAI, DeepMind и Anthropic искат повече усилия за справяне с рисковете на AI

Група настоящи и бивши служители на OpenAI, DeepMind и Anthropic публикуваха отворено писмо, в което призовават всички AI компании да положат повече усилия за адресиране на рисковете, свързани с AI. Според служителите, някои от които остават анонимни, AI може да донесе огромни ползи на човечеството, но има и опасни рискове, които не бива да се подценяват, съобщава The Washington Post.

Служителите казват, че липсата на ясни регулации за развитието и използването на AI прехвърля отговорностите върху самите компании. А пък фирмите често имат „силни финансови стимули“ да ограничават надзора в името на конкурентното предимство, по-бързата разработка на продуктите и пускането им на пазара.

Като цяло критиките на писмото са в духа и на предишното изявление на Ян Лейке, който беше един от двигателите в OpenAI, но напусна през май т.г. заедно със съоснователя Иля Сътскевер. Лейке също публикува своите критики към OpenAI и обвини компанията, че е позволила „сигурността да отстъпи на лъскавите продукти“.

Нито Лейке, нито Сътскевер са в публичната част на списъка на служители на OpenAI подкрепили новото отворено писмо. Малко вероятно е те да са и в анонимната част, тъй като те вече публично са критикували компанията.

А и писмото е доста по-критично: „AI компаниите притежават значителна непублична информация за възможностите и ограниченията на техните системи, адекватността на техните защитни мерки и нивата на риск. Понастоящем обаче те имат само слаби задължения да споделят част от тази информация с правителствата и нищо с гражданското общество. Не смятаме, че може да се разчита на всички те да споделят доброволно“, пишат служителите.

Те допълват, че работниците в тези компании трябва да подписват широкообхватни конфиденциални споразумения, които не им позволяват да повдигат темата за рисковете. Освен това те твърдят, че наличните правни рамки и защити за т.нар. whistleblower разкрития в името на обществото, не са достатъчни. „Причината е, че те се концентрират над нелегални действия, а много от рисковете, които притесняват нас, просто нямат регулация“, твърдят служителите.

Затова те предлагат четири принципа, които да бъдат приети от всички AI компании. Те са сходни, като накратко предвиждат компаниите да обещаят, че няма да ограничават служителите да повдигат темата за рисковете на AI, няма да им „отмъщават“ за критиките и ще създадат отворена култура на критики и процеси, които да гарантират на служителите възможност да подават сигнали, включително анонимно. Самите работници казват, че трябва да има и процес за уважаване на интелектуалната собственост и търговската тайна на компаниите, когато даден казус бива оповестяван публично.

„Ние вярваме в потенциала на AI технологиите да предложат безпрецедентни ползи на човечеството. Също така обаче разбираме и сериозните рискове, които тези технологии носят. Те се простират от задълбочаване на неравенството, през манипулиране и дезинформация до загуба на контрол над автономните AI системи с потенциал да се унищожи човечеството“, предупреждават служителите.

Именно затова искат повече съвместна работа от компаниите, обществото и институциите, както ида бъде обръщано по-сериозно внимание на критиките и сигналите за рискове. Писмото е подкрепено и от т.нар. „кръстници на AI” – Йошуа Бенгио и Джефри Финтън, както и известния учен Стюарт Ръсел.

Пред CNBC от OpenAI дават кратък отговор по темата. Говорител на компанията казва, че тя подкрепя повече мерки за сигурност и съвместна работа.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !