Технологични гиганти се обединяват в защита на детската безопасност онлайн

Мария Иванова Последна промяна на 28 април 2024 в 17:09 1038 1

Child safety

Снимка Copilot/Dall-E AI Art

Технологични гиганти се обединяват в защита на детската безопасност онлайн

Едни от най-влиятелните технологични компании в света, като Amazon, Anthropic, Civitai, Google, Meta, Metaphysic, Microsoft, Mistral AI, OpenAI и Stability AI обединяват усилия за защита безопасността на децата при разработването на генеративни AI технологии. Инициативата е ръководена от организацията с нестопанска цел за защита на децата от сексуално насилие Thorn и All Tech Is Human - организация, посветена на проблемите на технологиите и обществото. Тя има за цел да предотврати създаването на материали със сексуално съдържание, в които участват деца (CSAM), и премахването им от социалните мрежи и търсачките.

Новата инициатива идва в момент, когато злоупотребата с генеративен изкуствен интелект представлява все по-голям риск за безопасността на децата. Според данни на Thorn, само в САЩ през 2023 г. са докладвани над 104 милиона файла с материали, за които има съмнения, че са свързани със сексуална злоупотреба с деца. Въпреки това, при липса на колективни действия, генеративният AI е на път да влоши този проблем. Технологията може да създава все по-реалистични изображения и видеоклипове, което затруднява работата на правоприлагащите органи, които вече се борят да идентифицират истинските жертви и да ги разграничат от изображенията, генерирани от AI.

На този фон организациите Thorn и All Tech Is Human публикуваха важен документ, наречен „Безопасност чрез проектиране на генеративен изкуствен интелект: предотвратяване на сексуално насилие над деца“. Документът съдържа препоръки, насочени към различни участници в технологичния сектор, включително компании, създаващи инструменти за изкуствен интелект, търсачки, платформи за социални медии, хостинг компании и разработчици.

Целта на документа е да насърчи тези организации да предприемат конкретни стъпки за предотвратяване на използването на генеративен изкуствен интелект за нанасяне на вреда на децата. Това включва разработването на стратегии и политики, които да предотвратят създаването и разпространението на CSAM материали, генерирани от AI.

Една от препоръките насочва компаниите да избягват набори от данни, които съдържат не само материали, свързани със сексуална злоупотреба с деца (CSAM), а и сексуално съдържание за възрастни. Това се дължи на факта, че генеративният изкуствен интелект е склонен да комбинира двете понятия, което може да доведе до нежелани и потенциално опасни резултати. Thorn също призовава социалните медии и търсачките да премахват връзки към уебсайтове и приложения, които позволяват на хората да „разголват“ изображения на деца, като по този начин създават нови CSAM материали, генерирани от AI.

Някои компании вече са се съгласили да отделят изображенията, видеото и аудиото, в които участват деца, от наборите от данни, съдържащи съдържание за възрастни, за да предотвратят комбинирането им от техните модели. Други също добавят водни знаци към съдържанието, генерирано от изкуствен интелект, за да може лесно да бъде идентифицирано. Въпреки това, този метод не е напълно ефективен, тъй като водните знаци могат лесно да бъдат премахнати.

“Ние сме дълбоко загрижени за безопасността и отговорното използване на нашите инструменти, поради което вградихме силни мерки за безопасност в ChatGPT и DALL-E” - посочва Челси Карлсън, технически директор в OpenAI.

Екипът на компанията, разработила най-популярния чатбот в света, се ангажира да си сътрудничи с Thorn, All Tech is Human и по-широката технологична общност за намаляване на потенциалните вреди на изкуствения интелект върху децата.

Друга водеща компания в областта на изкуствения интелект - Stability AI обяви ангажимент за инвестиции в научни изследвания и разработване на разумни предпазни мерки, с цел предотвратяване на злоупотребите с технологиите и продуктите ѝ от страна на хакери и кибер престъпници.

Технологичният гигант Microsoft също се присъедини към усилията на Thorn и All Tech Is Human, като гарантира, че всички негови технологии с генеративен AI са разработени и поддържани с фокус върху сигурността на децата. “Днес Microsoft се ангажира да въведе превантивни и проактивни принципи в нашите технологии и продукти с генеративен AI” - се посочва в блога на компанията.

Meta също се присъедини към инициативата, като се ангажира с разработването и обучението на модели за генеративен AI, които проактивно да се справят с рисковете за безопасността на децата онлайн.

Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

1005

1

Antares

02.05 2024 в 09:43

Когато технологичните гиганти почнат да размахват "безопасност" - обикновено целта е ограничаване на права или свобода. А намесят ли и децата - обикновено става дума за откровена и нагла цензура.