Опасните страни на „добрия“ изкуствен интелект

Стоян Ненов Последна промяна на 29 август 2022 в 12:29 1471 0

Robot

Снимка Arseny Togulev/Unsplash

Robot

Вече много се е говорило за всички хубави неща, които може да постигне и предложи изкуственият интелект. Той ще промени много аспекти на ежедневието ни, но ако се използва по предназначение. Оказва се, че е доста лесно изкуствен интелект, който е разработен за добро, да бъде приучен да създава не дотам ползотворни неща за обществото, съобщава IEEE Spectrum.

Все още голяма част от развитието на изкуствения интелект (AI) е насочено главно към техническата част. Малко са инициативите, които обръщат внимание и на моралния аспект. Той е и по-сложен, тъй като стои въпросът как машина може да се научи на морал и да цени човешкия живот. Всъщност, това е и една от сюжетните линии във филма „Терминатор 2“.

В него посоката е сходна – изкуствен интелект, създаден за защита, решава, че създателите му (човечеството) са опасност и трябва да се защити от тях. Съответно създава още машини със собствен AI, които да го пазят. А хората успяват да препрограмират една от тях, за да спаси човечеството и да научи, че човешкият живот е от значение.

В реалния свят целта е изобщо да не се стига до тази ситуация. Това обаче се оказва доста по-трудно. Има над 150 инициативи за „отговорен AI”, но ако сме честни, надали за тях знаят хора извън определени ниши. Единственият по-известен критик на AI е Илон Мъск, който неколкократно призовава за по-голямо внимание в разработката на тези технологии.

Злоупотребите са налице

И докато ИТ индустрията все още няма единен глас за това как да се регулира изкуственият интелект и да се гарантира, че с него няма да се злоупотребява, някои играчи вече действат активно.

Най-яркият пример е ръстът на т.нар. deepfake видеа. Те се създават именно с помощта на изкуствен интелект. Хакери активно преработват или дори си създават собствени умни алгоритми, които да се използват и за други цели, включително автоматизирани кибератаки, адаптиране в реално време срещу опитите за защита от тях и др.

През март т.г. учени от Collaborations Pharmaceuticals демонстрираха, че изкуствен интелект за добро, може да бъде много опасен. Те са взели AI алгоритъм, който е бил разработен за откриване на лекарства за различни заболявания, като само за шест часа са го преработили да открие и предложи 40 000 потенциално смъртоносни молекули, които да могат да се използват за биологически оръжия. Целта на демонстрацията е именно да се покаже колко лесно дори полезен AI може да се превърне в много опасен.

Общи усилия

Справянето с тези рискове изисква усилия от бизнеса, учените, институциите и обществото. Всички имат с какво да допринесат. „Отговорният изкуствен интелект“ може да се постигне с разработката на инструменти, които да засичат опити за вмешателство в алгоритмите, да предотвратяват промени и да гарантират спазване на общоприети принципи.

За тяхното изготвяне пък роля ще имат и институциите, които да изработят законодателните инициативи за оформянето им в реални регулации. Обществото ще е съгласуващото, за да се постигне баланс между бизнес възможностите, ползите за хората и ефективността на законите. За съжаление, всичко това ще се постигне доста трудно и за много време, но е важно да се започнат да се правят стъпки в тази посока още сега, защото от един момент нататък, навлизането на изкуственият интелект ще се ускори значително и регулирането му ще стане още по-сложно предизвикателство.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !