След големия бум на технологиите и решения с изкуствен интелект, който последва пускането на чатбота ChatGPT на OpenAI, започнаха да се появяват разбира се и доста притеснения от тази сфера. Това включва различните възможности за злоупотреба, като има дори такива, които са непредвидими с напредъка на AI.
Всичко това кара правителства, а и международни организации да търсят начини за регулиране на сектора. Има обаче много противоречия как точно може да бъде осъществена тази регулация, тъй като технологиите са нови и еволюират постоянно.
Сега Групата на седемте (Г-7), която включва Германия, Франция, Великобритания, Италия, Япония, Канада и САЩ, приема кодекс/правила на поведение за компаниите разработващи системи с изкуствен интелект. С това правителствата на неформалния форум се опитват да намалят рисковете от потенциална злоупотреба с технологията.
С тези правила ще бъде зададена основата на това как страните се отнасят към решенията с изкуствен интелект на фона на притеснения относно личните данни и сигурността. Лидерите на Групата, както и Европейският Съюз, започнаха този процес през май по време на министерски форум наречен Хирошима AI процес.
В кодекса има 11 точки, с които се цели да се постигне по-сигурен, защитен и надежден изкуствен интелект в световен мащаб. Той представлява доброволна насока за действията на организациите разработващи най-съвременните системи с изкуствен интелект, включително и основополагащите модели и генеративни системи.
Целта е да се подсилят положителните черти на ИИ и да се адресират рисковете и предизвикателствата от новите технологии. Призовава се към предприемане на мерки за откриване, оценка и намаляване на рисковете в жизнения цикъл на AI. Освен това трябва да се справят с инцидентите и случаи на злоупотреба след въвеждане на нови технологични решения на пазара.
Предвижда се също така компаниите да публикуват доклади относно възможностите, ограниченията, както и начините на използване и евентуална злоупотреба на системите с AI. Освен това трябва да има и инвестиции в адекватни системи за сигурност.
Иначе ЕС е сред лидерите по отношение на регулиране на новата технология със своя план за рамка за изкуствения интелект. Това е в контраст с подхода на САЩ и Япония например, които по-скоро не се намесват значително. Изглежда обаче цялостната тенденция е за въвеждане на някакви нива за регулиране, тъй като има много предпоставки за значителни опасности от технологиите, ако те бъдат използвани от злонамерени хора и групи.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари