New York Times започна първото голямо дело на медии срещу генеративен AI

В съдебния иск се заявява, че OpenAI е копирала милиони статии от вестника, за да обучи езиковите модели, които се използват в ChatGPT и Microsoft Copilot.

Стефан Николов Последна промяна на 28 декември 2023 в 19:34 1522 0

NYT

Снимка Jakayla Toney/Unsplash

New York Times започна първото голямо дело на медии срещу генеративен AI

The New York Times съди OpenAI и Microsoft за нарушени авторски права. Вестникът твърди, че двете компании са обучили чатботовете си върху милиони негови статии. Това е лишило изданието от приходи от абонаменти, реклама и гледания. Освен това моделите понякога халюцинират и неправилно възпроизвеждат съдържанието на статиите, което подкопава доверието в NYT. Освен това чатботовете нямат проблем със заобикалянето на пейуола – защитата срещу гледане на материалите без тяхното заплащане.

Вестникът New York Times, третият най-цитиран източник в интернет, се присъедини към вълната от съдебни искове срещу разработчиците на изкуствен интелект. Вестникът настоява не само за парично обезщетение - той иска ChatGPT и Copilot изцяло да премахнат неговото съдържание, тъй като големите езикови модели в самата си основа са били обучени върху неговите материали. В иска се посочва, че чатботовете могат да генерират резултати, които възпроизвеждат дословно съдържанието на NYT, обобщават го с голяма точност и имитират стила му на изразяване. Според издателя това подкопава репутацията на вестника, отнема му читателите и го лишава от легитимните приходи от неговите собствени статии и реклами.

Отделно от това вестникът се оплаква от способността на чатботовете да заобикалят абонаментните рестрикции (paywalls) и да получават безплатен достъп до ексклузивните платени статии. Негови представители твърдят, че това заплашва всички професионални журналисти: ако изкуственият интелект започне да се използва масово, хората ще спрат да четат материалите им и да плащат за тях.

Понякога чатботовете халюцинират, т.е. измислят несъществуващи факти или изопачават информацията. Това се случва и при работа със злободневните статии: невронната мрежа може неправилно да пресъздаде съдържанието на материала, който е помолена да обобщи. От NYT смятат, че това вреди на репутацията им: потребителите са склонни да мислят, че грешката е допусната от журналистите, а не от невронната мрежа.

Известно е, че OpenAI и Microsoft действително са използвали статиите на NYT за обучение на своите модели, поне в ранните им версии като GPT-3.5. Те са ги обучавали върху набора от данни Common Crawl, който всъщност включва статиите. Представители на изданието преговаряха цели 8 месеца с разработчиците, за да получат достойно възнаграждение за труда си, но не успяха да стигнат до споразумение.

Представителката на OpenAI Линдзи Хелд коментира ситуацията пред The Verge: "Уважаваме правата на авторите и притежателите на съдържанието и се стремим да работим с тях, за да гарантираме, че ще получат някаква полза от технологиите за изкуствен интелект и новите модели на приходи. Дискусиите ни с New York Times бяха продуктивни и се развиваха конструктивно и сега сме изненадани и разочаровани от подобно развитие на нещата. Надяваме се да намерим взаимноизгоден начин да работим заедно, както го правим с много други издатели".

Всички новини
За писането на коментар е необходима регистрация.
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!

Няма коментари към тази новина !