OpenAI публикува доклад, в който описва последните рискове за киберсигурността и опити на хакери и други злосторници да използват платформите ѝ за нечисти цели. В него компанията пише, че е засякла и прекратила над 20 операции и мрежи, опитващи се да използват моделите ѝ, за да повлияят на демократични избори, съобщава CNBC.
Операциите са използвали AI услугите на компанията по различни начини, за да постигнат целите си. Част от тях са разчитали на ChatGPT, за да генерират статии за сайтове. Други пък са създавали фалшиви профили, чрез които да разпространяват информация в социалните мрежи.
OpenAI казва, че операциите са били разнообразни по своята сложност и мащаб. Някои от тях са били съвсем скромни, използвайки само „семпли заявки за генериране на съдържание“. Други обаче са били „сложни, многослойни дейности за анализиране и отговаряне на публикации в социални мрежи“.
Най-много кампании са заловени, свързани с изборите в САЩ и Руанда. По-малък е интересът към изборите в Индия и Европейския съюз, казва OpenAI.
Компанията дава и няколко примера за конкретни операции. Първият е от края на август .т.г. „иранска операция“, без да се уточнява дали е подкрепяна от власти или просто локацията произхожда от там, е използвала продукти на OpenAI, за да генерира дълги статии и коментари за социални мрежи за изборите в САЩ. По-голямата част от публикациите обаче не са привлекли интерес и реакции в социалните мрежи.
През юли т.г. компанията е блокирала акаунти, които са използвали ChatGPT, за да генерират коментари, които разпространяват в социалната мрежа Х за изборите в Руанда. А през май т.г. е установена и израелска компания, която е генерирала коментари за изборите в Индия.
През юни т.г. OpenAI е установила и прекратила „тайна операция“, която е използвала продуктите ѝ за генериране на коментари за изборите за Европейски парламент във Франция, както и за политически теми и процеси в САЩ, Германия, Италия и Полша. В повечето случаи публикациите са останали без реакции и взаимодействия от потребителите, но някои са успели да провокират реални хора да ги коментират и да се включат в дебата.
OpenAI подчертава, че нито една от кампаниите не е постигнала желания успех от извършителите, а именно да придобие „вирусна“ популярност с голям брой взаимодействия и реакции, както и да изгради аудитория от последователи. Тоест нито една кампания не е успяла да манипулира мнението на критично голяма група хора. Въпреки това се наблюдава увеличение на опитите да се използват различни услуги с AI за такива цели. Затова OpenAI казва, че ще продължи да развива защитите си и да следи за правилното използване на услугите ѝ.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари