Meta обяви, че новият ѝ AI модел е по-консервативен политически, подобно на Grok

Стоян Ненов Последна промяна на 11 април 2025 в 19:40 1552 0

Meta обяви, че новият ѝ AI модел е по-консервативен политически, подобно на Grok

Снимка Meta

Meta обяви, че новият ѝ AI модел е по-консервативен политически, подобно на Grok

Времето е интересно понятие. То има много значения, но може би едно от най-очевидните е промяната. А именно, че с времето можем да видим коренни промени в практически всичко и всички.

Ако през лятото на 2023 г. Марк Зукърбърг и Илон Мъск се обиждаха в интернет и дори се предизвикаха на бой в клетка, то година и половина по-късно те имат много по-сближени позиции и вече дори се „вдъхновяват“ от проектите си. И така достигаме до едно негласно признание от страна на Зукърбърг: че AI моделите имат политически пристрастия и това не е добре.

Meta е заявила, че новият ѝ AI модел Llama 4 е с по-малко политически пристрастия от предшествениците му, съобщава Gizmodo. Досегашните модели са имали леви пристрастия, затова новият пък е „побутнат малко надясно“, за да се получи по-добър баланс, казва компанията. Тя е последвала примера на xAI и Илон Мъск, който направи същото със своя чатбот Grok. Той е известен с това, че практически не показва политически пристрастия и според Meta Llama 4 вече може да се съизмерва с него.

„Нашата цел е да премахнем пристрастията от AI моделите ни и да се уверим, че Llama може да разбира и артикулира и двете страни на спор. Като част от тази работа, продължаваме да правим Llama по-отворен към различни въпроси, да може да отговаря на голям набор различни гледни точки без да осъжда и да не показва предпочитания за някои мнения спрямо други“, казва Meta.

Един от проблемите с постигането на този баланс е, че може да се създаде фалшиво равенство и да се подкрепят погрешни аргументи, които не са базирани на коректни данни. Може да се получи ситуация, в която алгоритъмът се съгласява с нещо, само, за да не предизвика спор, макар и тезата на отсрещната страна да е погрешна. Така (не)волно ще подкрепи разпространяването на подвеждаща информация. А и самият AI може да сбърка, тъй като и в момента моделите далеч не са безгрешни.

За целта Meta е внедрила допълнителни защити в Llama 4, които да помогнат. Те са предвидени още в от самото начало на съществуването на алгоритъма и започват да действат от разработката му. Дори и подборът на данните за обучението му е модифициран, за да филтрира информацията чрез няколко модела за сигурност. А след обучението преминават няколко процедури за проверка, че алгоритъмът следва научените правила и е полезен на хората.

Компанията извършва „систематично тестване“ на моделите в множество различни сценарии, ситуации и казуси. На базата на наученото от тях модифицира обучението на алгоритъма за допълнителните му обучения. Meta казва, че повечето модели досега са имали леви политически пристрастия, защото такава е информацията в интернет. За да компенсира този факт, е направила промени в Llama 4, които да го превърна в „драматично по-балансиран“. Дали това обаче наистина е така, ще си проличи едва, когато хората започнат да го използват масово и кажат своето мнение.

    Всички новини
    Най-четени Най-нови
    За писането на коментар е необходима регистрация.
    Моля, регистрирайте се от TУК!
    Ако вече имате регистрация, натиснете ТУК!

    Няма коментари към тази новина !