Дийпфейк съдържанието става по-достъпно, по-лесно за създаване и по-опасно

Павлин Луканов Последна промяна на 03 март 2024 в 18:59 481 0

Sora

Снимка OpenAI

Sora

Вече би трябвало да сте добре запознати с концепцията за дийпфейк (Deepfake) съдържанието, което представлява реалистично изглеждащи снимки и клипове с хора, но на ситуации и събития, които не са се състояли в действителност. От години се говори за този тип съдържание и опасностите свързани с него. Проблемите се задълбочават с напредването на технологичните решения даващи възможност за генериране на подобно съдържание и трудностите за автоматичното засичане и маркиране.

В основата на всичко това са технологиите с генеративни възможности с изкуствен интелект, които добиха невероятна популярност след появата на ChatGPT. За дийпфейк видео съдържанието се заговори отново с пълна сила след като OpenAI, създателите на ChatGPT, демонстрираха възможностите на новата си платформа наречена Sora. Тя генерира автентично изглеждащо клипове на база на текстово описание от потребителя.

Опасностите от разпространението на фалшиво съдържание потенциално са огромни. В случая отвъд океана (САЩ) има много опасения във връзка с наближаващите президентски избори. Свободното разпространение на фалшиво съдържание може да наклони везните в една или друга посока, което означава и различна политика на страната. Това от своя страна има и последствия за целия свят.

В днешно време платформите за генериране на фалшиво съдържание са по-достъпни, по-лесни за използване и предлагат още по-реалистично съдържание. В момента единствената преграда пред това съдържание са социалните мрежи и търсачки, които могат да премахват и филтрират дийпфейк. Това обаче не е толкова лесно, тъй като в редица случаи това не може да става автоматично и докато бъде установено, че съдържанието е фалшиво, то вече е достигнало до потребителите и има влияние върху решенията им.

Вече се забелязват и първите случаи на използване на фалшиво съдържание, включително с роботизирано обаждане в Ню Хемпшир, което привидно е от Джо Байдън. Според човека зад този случай, създаването на звука е отнело около 20 минути и само 1 долар. Така се отварят широко вратите за нови методи за разпространение на дезинформация. Както вече стана ясно, тази фалшива информация се разпространява доста бързо, трудно може да бъде свалена веднага и оставя значими следи сред потребителите.

Наскоро имаше и голям скандал свързан с появата на фалшиво порнографско съдържание с певицата Тайлър Суифт. То се разпространи доста бързо най-вече в социалната мрежа X (преди Twitter), която не успя, или не поиска, да го премахне още в момента на появата. Стигна се дори до блокиране на търсене по името на изпълнителката.

Всички новини
Най-четени Най-нови
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !