

Meta обяви, че въвежда по-строг контрол над разработките на изкуствен интелект (AI), като ще съобразява работата си с потенциалните последици от технологията. Компанията е изработила нов документ, в който описва първоначалните рискове пред AI и своите стандарти за гарантиране на безопасността, съобщава TechCrunch.
ИТ гигантът описва AI като технология, която „има потенциала да отключи безпрецендентен технологичен прогрес“. Компанията прави уговорката, че има предвид AI с отворен код. Тя казва, че „отварянето“ на AI не е пожелателно действие, а трябва да се направи задължително, за да се гарантира „позицията на Америка като лидер в технологичните иновации, икономическия растеж и националната сигурност“.
„Ние сме посветени да развиваме най-добрите AI системи, модели и системи, които да разгръщаме отговорно, за да реализираме този потенциал. Не е възможно напълно да елиминираме риска, но ако искаме AI да бъде с положителен резултат за обществото, вярваме, че трябва да работим вътрешно и където е възможно – с правителствата и външни експерти, за да предвидим и неутрализираме сериозните рискове“, казва още Meta.
Затова компанията е изработила своя Frontier AI Framework – рамка, в която описва своите принципи и стандарти. Например тя разделя опасните AI системи в две категории – висок риск и катастрофален риск. Първите ще бъдат системи с ограничен достъп, които няма да бъдат пускани публично, докато не са приложени нужните мерки за защита. Вторите са системи, които дори могат да бъдат спрени от разработка, докато нивото на риск не бъде понижено чрез изготвяне и внедряване на защити.
За целта Meta ще извършва постоянен анализ за идентифициране на рисковете, като ще използва и специални допълнителни тестове на AI моделите и ще изготвя модели на заплахите. Това ще ѝ позволи да определя нивото на риск и как то се променя според предприетите действия.
Компанията вече е определила „потенциални катастрофални последици“, до които може да доведе AI в сферата на киберсигурността, атаки с химическо или биологическо оръжие. Също така се анализира в какви ситуации и варианти AI може да се използва за реализиране на такива атаки или само за помощник в изпълнението им.
Meta отчита, че настоящата версия на рамката ѝ не покрива всички потенциални рискове. Компанията казва, че постоянно ще разширява списъка с опасности и ще подобрява мерките.
„Макар фокусът на рамката е да помогне за справянето със сериозните рискове, важно е да не забравяме, че основната причина да разработваме тези технологии, е защото те имат потенциала да са от голяма полза за обществото. Надяваме се, че чрез споделянето на нашия подход за отговорното развитие на усъвършенстваните AI системи можем да дадем поглед отвътре как взимаме решения и да помогнем на дискусиите и проучванията как да подобрим оценяването на AI от гледна точка на рисковете и ползите“, казва още Meta.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари