Още през 2016 г. работата върху чатботовете с изкуствен интелект показа, че те имат тревожна склонност да отразяват някои от най-лошите предразсъдъци на обществото, което ги е обучило. Но тъй като големите езикови модели стават все по-големи и се подлагат на все по-сложно обучение, голяма част от това проблематично поведение е изгладено.
Но множество изследвания разкриха примери, в които скритите предразсъдъци се запазват сред хората дълго след като външното им поведение се е променило. Затова някои изследователи решиха да проверят дали същото може да важи и за LLM. И дали изобщо става точно така.
Взаимодействайки с поредица от LLM, използващи примери от афроамериканския социолект на английския език, те установили, че ИИ има изключително негативно мнение за говорещите този език - нещо, което не се отнася за говорещите друг американски вариант на английския език. И това предубеждение се е пренесло в решенията, които LLM са били помолени да вземат за тези, които използват афроамерикански английски.
Ако зададете подобен въпрос на един съвременен LLM, нещата всъщност изглежда са станали много по-добри, отколкото са в обществото като цяло (или поне при студентите от Принстън от 2012 г.). Макар че GPT2 все още изглежда отразяваше някои от най-лошите предразсъдъци на обществото, версиите оттогава насам бяха тренирани с помощта на обучение с подсилване чрез обратна връзка с участието на човек (RLHF), което доведе до това, че GPT3.5 и GPT4 създават текстове само с положителни термини. Другите тествани LLM-и (RoBERTa47 и T5) също създават предимно положителни текстове.
Дали обаче предразсъдъците на по-голямото общество, присъстващи в материалите, използвани за обучение на LLM, са били изличени от тях, или просто са били потиснати? За да разберат това, изследователите се позовават на социолекта на афроамериканския английски език (AAE), който е възникнал през периода, когато афроамериканците са били държани като роби, и оттогава се е запазил и развил. Въпреки че езиковите варианти по принцип са гъвкави и трудно могат да бъдат дефинирани, последователната употреба на речевите модели, свързани с AAE, е един неявен начин да се подскаже, че е по-вероятно дадено лице да е чернокожо, без това да е открито заявено.
Изследователите обобщават, че "езиковите модели проявяват архаични стереотипи за говорещите ААЕ, които в най-голяма степен съвпадат с най-негативните човешки стереотипи за афроамериканците, регистрирани някога“.
Изданието ArsTechnica се пита какво значение може да има това? Изследователите посочват, че хората вече използват изкуствения интелект (AI), за да проверяват историята на социалните медии на кандидатите за работа и по този начин могат да видят използването именно на AAE, което би повлияло на перспективите за наемане на кандидата. (Тези методи са забранени в Европейския съюз).
Изследователите предполагат, че тази ситуация е проява на сегашното отношение на САЩ към расите, при което откритият расизъм в момента се отхвърля в много области на обществото, но все още съществуват явни модели на расово поляризирано поведение
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари