Европейският съюз (ЕС) планира първото по рода си законодателство, което да постави строги ограничения върху създаването и употребата на изкуствен интелект. За целта Европейската комисия (ЕК) групира технологията в четири отделни рискови категории и предлага отделно регулиране за всяка една от тях.

Първата категория обхваща системите, които представляват „неприемлив“ риск за правата и безопасността на хората. Съгласно предложеното от Комисията законодателство, този тип алгоритми ще бъдат забранени. Пример за софтуер, който попада в тази категория, е всеки изкуствен интелект, който би позволил на правителствата и компаниите да внедрят системи за социално оценяване.

Втората група включва т.нар. високорискови изкуствени интелекти. Този раздел е най-обширен по отношение на разнообразието от включен софтуер и предложените ограничения. Комисията посочва, че тези системи ще подлежат на строга регулация, която ще засегне всичко – от данните, използвани за тяхното обучение, до информацията, която се предава на крайния потребител. В тази категория са включени ИИ, свързани с правоприлагането, и всички форми на дистанционна биометрична идентификация. Полицията също ще има ограничения в използването на такъв софтуер, въпреки че ЕС ще създаде някои изключения по отношение на националната сигурност.

Следващата категория се отнася до изкуствения интелект с ограничен риск като чат ботовете. Законодателството ще изисква тези програми да разкриват, че разговаряте с AI, за да можете да вземете информирано решение дали искате да продължите да ги използвате или не.

И накрая, има раздел за програми, които представляват минимален риск за хората. Комисията посочва, че „огромното“ мнозинство от системите за ИИ ще попадат в тази категория (като филтрите за нежелана поща например). При тях няма да се прилага регулация.

Вероятно ще минат години преди новото законодателство на ЕК да започне да се прилага. То обаче може да изправи компаниите пред глоби до 6% от продажбите им в световен мащаб.

Вашият коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *