С развитието на изкуствения интелект (AI) фалшификациите, известни като deepfakes, бързо се превръщат в една от най-големите заплахи в онлайн пространството. Подвеждащи снимки, видеоклипове и аудиозаписи се разпространяват почти всеки ден, като резултат от появата и злоупотребата с инструменти за генеративен изкуствен интелект.
Генератори на изображения и видеоклипове като DALL-E, Midjourney и Sora улесняват създаването на deepfake от хора, дори и без технически умения. Te просто трябва да въведат своята заявка в системата, която след това автоматично генерира съдържание, отговарящо на описанието. На пръв поглед подправените изображения и видеоклипове изглеждат безобидни, но те могат да бъдат използвани за създаване на фалшиви новини, които могат да манипулират общественото мнение и дори да повлияят на политически избори.
И докато доскоро технологията далеч не беше съвършена и често оставяше видими следи от манипулация като ръце с шест пръста или очила с различна форма на стъклата, то с напредъка на технологиите за изкуствен интелект различаването на истинското от фалшивото съдържание става все по-трудно.
“Някои широко разпространени доскоро съвети - като например да се търсят неестествени мигания на очите на хората в deepfake видеоклиповете вече не са валидни” - посочва Хенри Айдер, основател на консултантската фирма Latent Space Advisory и водещ експерт в областта на генеративния AI.
Айдер уточнява, че има някои нови детайли, за които трябва да се внимава. Например много от манипулираните снимки на хора, имат електронен блясък, който прави кожата “да изглежда невероятно полирана”. Той обаче предупреждава, че чрез умело структурирани промптове (заявки) е възможно да бъдат премахнати този и много други признаци за манипулация с AI.
Ето няколко начина, чрез които можете да разпознаете генерираните от изкуствен интелект фалшиви изображения и видеоклипове:
Проверете последователността на сенките и осветлението
Изкуственият интелект вече може да създава убедителни обекти, но често има трудности с реалистичността на сенките и осветлението. Ако те не изглеждат естествени, това може да бъде знак за фалшиво изображение.
Обърнете внимание на лицата
Подмяната на лица е един от най-разпространените методи при създаването на deepfake видеоклипове. При него лицето на един човек се заменя с лицето на друг човек чрез изкуствен интелект. Експертите съветват потребителите да се вглеждат внимателно в ръбовете на лицата и да се запитат дали тенът на кожата му съответства на този на останалата част на главата или тялото.
Ако подозирате, че даден видеозапис е подправен, е препоръчително да се фокусирате също и върху устните на говорещия и да се опитате да установите дали движенията им съвпадат със звука. Айдер съветва да се обръща специално внимание на зъбите - ясни ли са, или са размазани и има ли несъответствие на начина, по който изглеждат в реалния живот. Компанията за киберсигурност Norton твърди, че алгоритмите все още не са достатъчно усъвършенствани, за да генерират отделни зъби, така че липсата на очертания е сигурен знак за deepfake.
Погледнете в по-голяма перспектива
В света на дигиталните медии, където deepfake технологиите стават все по-разпространени, е важно да се обръща внимание на контекста. Журналистическият уебсайт Poynter съветва, че ако видите публична личност да прави нещо, което изглежда “преувеличено, нереалистично или не е в характера ѝ”, това може да е deepfake.
Например, ако видите снимка на папата, който носи луксозно яке, трябва да се запитате дали това е в стила му. И ако беше така, нямаше ли да има други снимки или видеоклипове, публикувани от легитимни източници? С други думи - когато се сблъскате с потенциален deepfake, помислете за по-голямата картина и се запитайте дали това, което виждате, е правдоподобно.
Използване на AI за откриване на deepfake
Друг подход е използването на изкуствен интелект за борба с фалшивото съдържание в интернет. Технологичният гигант Microsoft е разработил инструмент за удостоверяване на автентичността, който анализира снимки или видеоклипове и дава оценка за това дали са били манипулирани. Производителят на чипове Intel също е разработил инструмент, наречен FakeCatcher, който използва алгоритми за анализ на пикселите на дадено изображение, за да определи дали то е истинско или фалшиво.
В интернет съществуват инструменти, които обещават да откриват фалшификати, ако качите файл или поставите връзка към подозрителния материал. Въпреки това, някои от тези инструменти, като автентификатора на Microsoft, са достъпни само за избрани партньори, а не за обществеността. Това се дължи на факта, че изследователите не искат да подсказват на лошите играчи и да им дават по-голямо предимство в надпреварата за deepfake.
Ето някои от най-новите технологии за откриване на deepfake съдържание:
Sentinel е компания, базирана в Талин, Естония, която работи с правителства, медии и агенции за отбрана в борбата с дезинформацията и синтетичните медии. Тя разработва високотехнологична платформа за откриване на AI, която анализира дигитални медии и дава оценка за това дали са били манипулирани.
Intel създава детектор за deepfake в реално време, наречен FakeCatcher. Тази технология може да открива фалшиви видеоклипове с точност до 96%, като връща резултати в рамките на милисекунди.
WeVerify е проект, насочен към разработването на инструменти за верификация на съдържание и анализ на дезинформация с участието на човек. Проектът може да се похвали с някои ключови постижения, като пускането на плъгин за верификация.
Video Authenticator Tool e инструмент за откриване на deepfake, разработен от технологичния гигант Microsoft. Той анализира снимки и видеоклипове, за да установи дали са изкуствено създадени, като обръща внимание на очите на хората в тях.
Тези технологии и съвети могат да бъдат полезни в опитите да се разпознае дали дадено изображение или видеоклип са създадени от изкуствен интелект. Въпреки това, е важно да се отбележи, че AI технологиите продължават да се развиват и стават все по-успешни в създаването на убедителни фалшиви изображения и видеоклипове. Затова е важно да бъдем внимателни и информирани за последните тенденции в тази област.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари