OpenAI бе обвинена в нарушаване на правилата на ЕС за личните данни

Стефан Николов Последна промяна на 30 януари 2024 в 19:34 644 0

ChatGPT

Снимка Levart_Photographer/Unsplash

ChatGPT

След продължило месеци разследване на италианския орган за защита на данните (DPA) на чатбота с изкуствен интелект ChatGPT, компанията OpenAI бе обвинена в нарушаване на законите на ЕС за защита на личните данни. Потвърдените нарушения при обработката на лични данни могат да доведат до глоби в размер до 20 млн. евро или до 4% от годишния оборот на компанията. OpenAI има 30 дни, за да отговори на обвиненията.

Миналата година италианските власти изразиха загриженост относно спазването на Общия регламент за защита на данните (GDPR) от страна на OpenAI, което доведе до временното спиране на чатбота на европейския пазар. На 30 март в така наречения "регистър на мерките" италианският орган за защита на данните изтъкна липсата на подходящо правно основание за събиране и обработване на личните данни за обучение на алгоритмите, залегнали в основата на ChatGPT, склонността на инструмента за изкуствен интелект да "халюцинира" и потенциалните проблеми с безопасността на децата. Органите обвиниха OpenAI в нарушение на членове 5, 6, 8, 13 и 25 от GDPR.

Регулаторният орган има правомощията да изисква промени в начина на обработване на данните, за да спре нарушенията на неприкосновеността на личния живот на гражданите на ЕС. По този начин регулаторните органи могат да принудят OpenAI да промени подхода си към обработката на лични данни или да накарат компанията да спре да предлага услугите си в ЕС.

През пролетта на 2023 г. OpenAI успя доста бързо да възобнови функционирането на ChatGPT в Италия, след като отстрани редица нарушения, посочени от DPA. Само че италианските органи продължиха разследването и стигнаха до заключението, че инструментът за изкуствен интелект на OpenAI е нарушил законодателството на ЕС. Италианските власти все още не са публикували списъка с потвърдените нарушения на ChatGPT, но основното оплакване срещу OpenAI вероятно ще бъде свързано със самия принцип на обработване на личните данни за обучение на ИИ моделите.

Изданието TechCrunch напомня, че ChatGPT е разработен с помощта на масиви от данни, извлечени от публичния интернет - информация, която включва личните данни на съвсем реалните физически лица. Проблемът, с който OpenAI се сблъсква в ЕС, се състои в това, че за обработката и използването на данните на жителите на ЕС се изисква валидно правно основание. В GDPR са изброени шест възможни правни основания, повечето от които просто не са подходящи в този контекст. През април миналата година италианският орган за защита на данните остави на OpenAI само две правни възможности за обучение на AI моделите: "потвърдено съгласие" и "законни интереси".

Като се има предвид, че OpenAI никога не се е опитвала да получи съгласието на милионите (или може би милиардите) интернет потребители, чиято информация е събирала и обработвала, за да създава своите модели на изкуствен интелект, всеки опит да се твърди, че има разрешение от европейците да обработва техните лични данни, е обречен на неуспех. Следователно на OpenAI остава възможността да се позове на твърдението за "законни интереси". Това основание обаче включва и правото на собствениците на данни да повдигнат възражения и да поискат спиране на използването на личните им данни.

Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !