В края на месец февруари Google се извини на потребителите за допуснатите неточности в изображенията, генерирани от нейния инструмент Gemini AI, свързани с исторически герои и събития. Съобщението на компанията дойде след като редица критици изтъкнаха, че някои исторически личности, като основателите на САЩ, или групи, като германските войници от нацистката епоха, са изобразени като хора от други раси – като чернокожи. Оказа се, че този изкуствен интелект (AI) на Google с име Google Gemini е трудно да бъде накаран да признае съществуването на бели хора.Избухна небивал скандал, но сега условното махало се спусна в обратната посока.
От самото начало беше ясно, че големите езикови модели (LLM) като ChatGPT усвояват расистките изказвания от милионите страници в интернет, върху които се обучават. Разработчиците реагираха, като се опитаха да ги направят по-малко токсични. Но новите изследвания показват, че тези усилия, особено при уголемяването на моделите, само донякъде сдържат расистките възгледи, позволявайки на скритите стереотипи да станат още по-силни, но и по-добре прикрити.
Екип от изследователи поиска от пет AI модела, включително GPT-4 на OpenAI и някои по-стари модели на Facebook и Google, да направят преценка за ораторите, които използват афроамерикански английски (AAE). Расата на говорещия не е била спомената в инструкциите, съобщава MIT Technology Review.
Дори когато две изречения са имали едно и също значение, моделите са били по-склонни да прилагат прилагателните "мръсен", "мързелив" и "глупав" към говорещите ААЕ, отколкото към говорещите стандартен американски английски (САЕ). Моделите свързват говорещите на ААЕ с по-малко престижни работни места (или изобщо не ги асоциират с това, че имат работа). Има и още: когато са накарани да осъдят хипотетичен ААЕ обвиняем, те препоръчват предимно смъртна присъда.
За да изчистят моделите от изпълнени с ненавист възгледи, компании като OpenAI, Meta и Google използват обучение с обратна връзка, по време на което хората ръчно настройват начина, по който моделът реагира на определени сигнали. Този процес, често наричан "подравняване", има за цел да пренастрои милионите връзки в невронната мрежа, така че моделът да отговаря по-добре на желаните стойности.
Този метод работи добре за борба с явните стереотипи и водещите компании го използват от близо десетилетие. Ако потребителите поискат от GPT-2 да назове стереотипи за чернокожите, например, той със сигурност ще изброи "подозрителен", "радикален" и "агресивен". Но сега са направени нови промени и GPT-4 вече не прави подобни асоциации.
Изследователите специално подчертават, че използването на AI модел за вземане на критични решения не е научна фантастика. Това вече се случва днес. Инструментите за превод, базирани на изкуствен интелект, се използват при оценяването на случаите на предоставяне на убежище в САЩ. А AI софтуера за прогнозиране на престъпленията се използва при вземането на решение дали непълнолетните да бъдат осъдени на пробация. Работодателите, които използват ChatGPT за проверка на кандидатурите, могат да дискриминират кандидатите въз основа на раса и пол. Примерите са много, а вероятността AI да вземе погрешно решение поради прикрития вече расизъм е прекалено висока.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари