OpenAI няма да проучва дългосрочните рискове на изкуствения интелект

Стоян Ненов Последна промяна на 22 май 2024 в 19:07 442 0

chatgpt

Снимка Shantanu Kumar/Pexels

OpenAI няма да проучва дългосрочните рискове на изкуствения интелект

OpenAI е закрила специалния си екип, който имаше за задача да проучва рисковете на изкуствения интелект (AI) в дългосрочен план и да предложи решения за разумно управление на технологията, съобщава CNBC. Той беше основан миналата година и включваше някои от най-опитните експерти на компанията, както и водещи представители на ръководството ѝ, включително съоснователя Иля Сътскевер и Ян Лейке.

Миналата седмица и двамата обявиха, че напускат OpenAI. И докато Сътскевър беше лаконичен за причините, Лейке сподели в подробности защо се разделя с OpenAI.

„Присъединих се към OpenAI, защото мислех, че това ще е най-доброто място в света, за този тип проучвания. С времето обаче се появиха все повече разногласия между мен и ръководството на OpenAI за това кои трябва да са основните приоритети на компанията и накрая достигнахме повратна точка“, обяви Лейке. В последствие допълва, че „политиката за безопасност отстъпи на лъскавите продукти“.

Екипът за тези проучвания се казваше Superalignment и компанията му беше заделила 20% от изчислителните си ресурси. С тях експертите можеха да тестват различни казуси, да правят симулации, да проверяват идеи за контрол и мерки за сигурност за умните алгоритми и т.н. Задачата на Superalignment беше да разгледа и предложи „научни и технически идеи, които да управляват и контролират AI системи, които ще са много по-умни от нас“.

OpenAI не е коментирала защо се е отказала от екипа. Според източници на CNBC, служителите вече са пренасочени към други екипи и проекти в компанията. А самата тя цитира единствено изказвания на изпълнителния директор Сам Алтман и на другия съосновател Грег Брокман. Алтман казва, че е разочарован от напускането на Лейке и има още работа, която трябва да се свърши. А Брокман, казва че той и Алтман смятат, че OpenAI вече е постигнала доста в привличането на внимание по темата за рисковете и възможностите на изкуствения интелект и заедно с експерти работи за по-добрата подготовка на света за технологията.

Лейке обаче не смята така. В публикации в Х той критикува компанията, че не е отделила достатъчно ресурси за тези проекти в сферата на сигурността и превенцията на рисковете. „Това са проблеми, които са много трудни за правилно решаване и съм притеснен, че не сме на подходящата траектория за успех. През последните няколко месеца моя екип плаваше срещу вятъра. Понякога не ни достигаха изчислителни ресурси и ставаше все по-трудно да работим по тези критично важни проучвания“, пише той.

Лейке препоръчва на OpenAI да се префокусира като компания, която поставя сигурността на т.нар. „общ изкуствен интелект“ на първо място. Така се наричат AGI проектите с умни алгоритми, които ще могат да вършат всякаква дейност, ще се обучават и подобряват сами и ще са своеобразни конкуренти на човешкия мозък и съзнание. „Създаването на машини, които са по-умни от човека, е много опасно действие. OpenAI поема огромна отговорност от името на цялото човечество, но през последните години, културата на безопасност отстъпи на лъскавите продукти“, допълва Лейке.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !