Сам Алтман лично ще следи за безопасността на OpenAI

Стоян Ненов Последна промяна на 30 май 2024 в 19:59 927 0

Sam Altman

Снимка TechCrunch

Сам Алтман лично ще следи за безопасността на OpenAI

OpenAI, създател на популярния чатбот ChatGPT, наскоро отново влезе в новините, след като закри специалния екип за безопасност на изкуствения интелект, който създаде миналата година. По същото време напуснаха и двама от съоснователите на компанията, като един от тях, Ян Лейка остро критикува бившия си работодател след това.

Лейке заяви, че „безопасността отстъпи на лъскавите продукти“. Той заяви в социалните мрежи, че дълго време е имал различия с ръководството по отношение на сигурността на изкуствения интелект. И докато OpenAI не коментира темата, изглежда, че компанията все пак е решила да предприеме мерки. Тя обяви, че формира нова Комисия за безопасност и сигурност, която ще се ръководи от изпълнителния директор Сам АЛтман, председателя на борда на директорите Брет Тейлър, както и другите двама водещи директори в компанията – Адам Д‘Анджело и Никол Сейлгман.

В комисията ще участват водещите експерти на OpenAI от различните отдели, като тя ще се консултира и с външни експерти. Задачата ѝ ще бъде да анализира и препоръчва на борда на директорите мерки за безопасност и за гарантиране на сигурността на проектите и действията на OpenAI и технологиите ѝ.

Комисията има 90 дни да разгледа и анализира настоящите процеси за сигурност на OpenAI и да препоръча мерки за подобряването им. След въпросните 90 дни, комисията ще даде доклад на борда на директорите, който ще го разгледа и след това ще публикува препоръките и заключенията „по начин, който запазва сигурността и безопасността“.

Комисията ще има важна роля и в подготовката на следващото поколение алгоритми на OpenAI. Компанията казва, че наскоро е започнала обучението на новия си модел и очаква системите, които ще са базирани на него, да постигнат ново ниво на възможности по пътя на индустрията към AGI – общия изкуствен интелект. Това е алгоритъм, който може да се справя с всякакви теми, задачи и въпроси, не е тясно специализиран и ще има способности да комуникира и учи като човек.

AGI е деликатна тема в бранша, тъй като има огромен потенциал, но и сериозни рискове. Никой не може да предвиди как подобна система ще се развие и съответно има много призиви тя да бъде разработвана в строго контролирана и дори изолирана среда. А някои критици предпочитат изобщо да не бъдат създавани такива алгоритми.

В действителност процесът няма как да бъде спрян. Затова е по-добре да бъде регулиран. Компаниите също предпочитат да положат сами усилия, за да покажат на обществото, че не подценяват рисковете и искат да направят технологии, на които хората да имат доверие.

Затова и OpenAI си навлече критики, когато разпусна предишния екип, който имаше дори достъп до хардуерните ресурси и можеше да прави различни тестове с технологиите. Компанията не дава подробности дали и новата комисия ще има тази възможност или ще се занимава само с анализи.

Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !