
Времето е интересно понятие. То има много значения, но може би едно от най-очевидните е промяната. А именно, че с времето можем да видим коренни промени в практически всичко и всички.
Ако през лятото на 2023 г. Марк Зукърбърг и Илон Мъск се обиждаха в интернет и дори се предизвикаха на бой в клетка, то година и половина по-късно те имат много по-сближени позиции и вече дори се „вдъхновяват“ от проектите си. И така достигаме до едно негласно признание от страна на Зукърбърг: че AI моделите имат политически пристрастия и това не е добре.
Meta е заявила, че новият ѝ AI модел Llama 4 е с по-малко политически пристрастия от предшествениците му, съобщава Gizmodo. Досегашните модели са имали леви пристрастия, затова новият пък е „побутнат малко надясно“, за да се получи по-добър баланс, казва компанията. Тя е последвала примера на xAI и Илон Мъск, който направи същото със своя чатбот Grok. Той е известен с това, че практически не показва политически пристрастия и според Meta Llama 4 вече може да се съизмерва с него.
„Нашата цел е да премахнем пристрастията от AI моделите ни и да се уверим, че Llama може да разбира и артикулира и двете страни на спор. Като част от тази работа, продължаваме да правим Llama по-отворен към различни въпроси, да може да отговаря на голям набор различни гледни точки без да осъжда и да не показва предпочитания за някои мнения спрямо други“, казва Meta.
Един от проблемите с постигането на този баланс е, че може да се създаде фалшиво равенство и да се подкрепят погрешни аргументи, които не са базирани на коректни данни. Може да се получи ситуация, в която алгоритъмът се съгласява с нещо, само, за да не предизвика спор, макар и тезата на отсрещната страна да е погрешна. Така (не)волно ще подкрепи разпространяването на подвеждаща информация. А и самият AI може да сбърка, тъй като и в момента моделите далеч не са безгрешни.
За целта Meta е внедрила допълнителни защити в Llama 4, които да помогнат. Те са предвидени още в от самото начало на съществуването на алгоритъма и започват да действат от разработката му. Дори и подборът на данните за обучението му е модифициран, за да филтрира информацията чрез няколко модела за сигурност. А след обучението преминават няколко процедури за проверка, че алгоритъмът следва научените правила и е полезен на хората.
Компанията извършва „систематично тестване“ на моделите в множество различни сценарии, ситуации и казуси. На базата на наученото от тях модифицира обучението на алгоритъма за допълнителните му обучения. Meta казва, че повечето модели досега са имали леви политически пристрастия, защото такава е информацията в интернет. За да компенсира този факт, е направила промени в Llama 4, които да го превърна в „драматично по-балансиран“. Дали това обаче наистина е така, ще си проличи едва, когато хората започнат да го използват масово и кажат своето мнение.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари