Служители на OpenAI са предупредили за „застрашаващ човечеството“ пробив преди уволнението на Сам Алтман

Юлиян Арнаудов Последна промяна на 23 ноември 2023 в 15:21 1534 1

Terminator

Снимка Nathan Rupert/Flickr CC

Служители на OpenAI са предупредили за „застрашаващ човечеството“ пробив преди уволнението на Сам Алтман

Малко преди Сам Алтман да бъде уволнен от OpenAI, няколко служители на компанията са предупредили за голям пробив, който може да „застраши човечеството“. Според източници на Reuters бордът на директорите е получил писмо от няколко инженери за последните ключови развития в генеративния изкуствен интелект.

То е било един от няколкото фактора, които са довели и до решението на управителния съвет да уволни главния изпълнителен директор Сам Алтман. Сред другите е по-силното развитие на комерсиализирането на технологията, което ръководителят на OpenAI преследва през последните години. Като в същия момент е занемарил одита за възможностите на изкуствения интелект и последствията от бързото му пускане на пазара.

OpenAI работи в посока на създаване на генерален изкуствен интелект (AGI), който да може да действа напълно самостоятелно без човешка намеса и съответно да е в пъти по-добър от създателите си. Проектът носи кодовото име Q* (или Q-Star). Според източниците на Reuters, новият модел е успял да реши самостоятелно редица математически задачи. Все още познанието на модела е на ученик, но досегашният напредък дава големи надежди на инженерите.

Математиката се смята за един от фундаментите при генеративния AI. В момента той е добър в разработването на езикови модели – основно писане, превод и разбиране. Това е по-скоро статистически умения и възможност да се предскаже коя е следващата дума или приблизителен отговор. Решаването на математически уравнения вдигат летвата, защото в повечето случаи те имат само едно решение. За разлика от калкулаторите, AI специализиран в математиката ще може не само да дава отговори на различни задачи, но и да се учи, разбира и да развива своите умения.

В писмото си до борда, групата от инженери на OpenAI подчертават своите опасения за потенциалните опасности при продължаване на развитието на изкуствения интелект. Засега няма детайли за това какво точно притеснява учените. Знае се, че писмото идва от двата основни екипа, които отговарят за създаването на традиционния за OpenAI генеративен модел и на този за математическия. Различни експерти, както от сферата, така и от технологичния сектор като цяло, предупреждават за опасностите от прекомерното и безконтролно развитие на AI. Почти всички са били покривани в един момент от научната фантастика, като най-известния сценарий е обръщането на машините срещу своите създатели.

Седмица преди уволнението на Алтман, самият той подчерта, че тепърва ще има големи пробиви в сферата на изкуствения интелект. Това той направи като показа няколко нови инструмента, които вече са налични на пазара.

За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

22558

1

dolivo

24.11 2023 в 11:15

https://dune.fandom.com/wiki/Butlerian_Jihad