

Съоснователят и изпълнителен директор на OpenAI Сам Алтман отправи остро предупреждение, че светът е на прага на „криза с измами“, заради изкуствения интелект. Той описа предстоящата заплаха като идваща „много, много скоро“, подчертавайки спешната необходимост обществото и институциите да реагират, съобщава CNN.
Алтман звучи почти изненадан, че това ще се случи. Особено имайки предвид множеството предупреждения от експерти през изминалите години и призиви за повече и по-бързи и строги мерки за развитието и използването на AI.
Основната загриженост на Алтман е съсредоточена върху използването на генерирани от изкуствен интелект гласове – или клониране на глас – за заобикаляне на традиционните биометрични защити. Той подчерта, че някои банки все още разчитат на гласови отпечатъци за удостоверяване при заявки за големи парични преводи: „Нещо, което ме ужасява, е, че очевидно все още има някои финансови институции, които ще приемат гласовия отпечатък като удостоверяване, за да прехвърлите много пари... Това е лудост, която все още се прави. Изкуственият интелект напълно го е победил“, казва Алтман.
На практика, AI вече може да възпроизвежда гласове с такава прецизност, че правят тези системи за гласови отпечатъци безсилни. Освен това, Алтман предупреждава, че опасността вече се разпростира отвъд аудиото – „скоро ще бъде и във видео разговорите във FaceTime и ще бъде неразличимо от реалността“.
В отговор на мрачната прогноза на Алтман, Мишел Боуман, заместник-председател по надзора във Федералния резерв, подчерта необходимостта от проактивни мерки. Тя предложи възможно сътрудничество между регулаторите и разработчиците на изкуствен интелект, „за да се идентифицират тези халюцинации или умишлените имитации“. Откровеността на Боуман сигнализира за преминаване към регулаторни рамки и защитни архитектури, основани на технологии с изкуствен интелект.
Докато финансовата индустрия се надпреварва да използва изкуствения интелект за откриване и ефективност, Алтман напомни на публиката: „Обществото трябва да се справи с този проблем по-общо... Това е от огромно значение.“
Разбира се, той подчертава, че OpenAI не прави софтуерни инструменти за измами и не разрешава продуктите ѝ да бъдат използвани за такива цели. Но съзнава, че няма как да бъде спряна разработката на AI алгоритми, които да бъдат злонамерени. В момента те може и да са екзотика, но в съвсем близко бъдеще ще бъдат предизвикателство, което целият свят ще трябва да решава. Алтман подкрепя инструмент, наречен The Orb, създаден от Tools for Humanity, който твърди, че ще предложи „доказателство за човечество“ в свят, където изкуственият интелект затруднява разграничаването на това кое и кой е истински онлайн.
Технологиите с изкуствен интелект безспорно подобриха производителността – от автоматизиране на генерирането на отчети до интелигентен анализ на данни. И все пак, както предупреждава Алтман, същите възможности могат да бъдат използвани като оръжие: създаване на убедителни имитации в аудио, видео и документи, позволяване на измамни обаждания, оркестрирани кампании за дийпфейк или дори мащабни финансови атаки.
Алтман казва, че това са само малка част от рисковете, като представи враждебни сценарии: потенциално управлявани от изкуствен интелект кибератаки или дори „биологични оръжия“, манипулирани от злонамерени лица, както и атаки насочени към финансовите системи по начини, които са „по-умни от нашите“. Решението? Разбира се, още AI, но добронамерен.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари