Изкуственият интелект (AI) се развива с все по-бързо темпо, а регулациите по света са практически липсващи. Имайки предвид значимостта на тази технология и нейният безспорен потенциал да промени коренно всички индустрии и обществото като цяло, тя трябва да бъде внимателно регулирана.
За момента обаче липсва единен подход как да се постигне това. IT браншът също подкрепя идеята за регулации, но иска те да са възможно най-унифицирани в различните региони, за да може да е по-лесно да се развива технологията. Традиционната бюрократична тромавост си личи особено много на фона на бързото развитие на изкуствения интелект, което само ще ускорява своето темпо през следващите години.
Този път институциите по света поне съзнават, че трябва да действат малко по-бързо и по-гъвкаво. И се опитват да го правят, като се вслушват в призивите на бизнеса и предприемат по-навременни действия. Поне такава е амбицията. Наскоро страните от Г7 приеха общи насоки за регулация на изкуствения интелект, а Европейският съюз има амбицията до края на тази година да приеме и мащабен Закон за изкуствения интелект, който да въведе конкретни правила и отговорности за умните алгоритми и тези, които ги използват и разработват. По-рано т.г. Китай вече въведе първата вълна базови правила за разработка на AI и изисквания използващите го да се идентифицират със своята самоличност, за да носят отговорност, ако злоупотребят с него.
На фона на всичко това САЩ, Великобритания и още 16 държави от целия свят обявиха, че са се обединили около общи принципи, които да гарантират, че AI ще бъде развиван отговорно и ще бъде „сигурен по дизайн“, съобщава 9to5Mac.
Регулаторите във всяка от страните, които са отговорни за киберсигурността, ще са тези, които ще следят за спазването на правилата. Според представителите на САЩ това е първата международна спогодба в сферата, като тя въвежда конкретни норми как AI да бъде запазен от злоупотреби. Смисълът на документа е, че страните се обединяват около общи идеи за правила, които да въведат и прилагат. Друг е въпросът дали това реално ще се случи.
Основната концепция е регулаторите да изискват от компаниите да разработват изкуствения интелект по начин, който да гарантира неговата сигурност. Това включва както самата разработка, така и пускането му до потребителите и да има и мерки как да се гарантира, че те не злоупотребяват с технологията.
Договорената рамка включва и изисквания компаниите да разработят мерки, които защитават AI от това да бъде компрометиран, подлъган или „отвлечен“ от хакери. Въведени са и препоръки да не се прибързва с пускането на нови алгоритми, а да се отделя достатъчно време за обстойното тестване на тяхната сигурност и защити.
Споразумението е подробно от гледна точка на това какви са очакванията от компаниите, но оставя на тях да определя процедурите, системите за контрол и всичко останало. И най-важното – липсват конкретни срокове за привеждането на договореностите в реално законодателство. А това означава, че за пореден път има добри намерения, но реализацията им за момента остава под въпрос. Изглежда ще се наложи да почакаме ЕС да приеме своя Закон, който да „мотивира“ и останалите да въведат реални правила.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари