
Неотдавнашно проучване и съпътстващо го интервю за Ars Technica с изследователя Петер Торнберг посочиха привидно очевидното: социалните мрежи имат тежки проблеми. А това повдига и въпроса могат ли действително да бъдат поправени – или са обречени?
Провокативно озаглавено „Социалните медии вероятно не могат да бъдат поправени“, изследването предупреждава, че структурите на стимулите на тези платформи естествено водят до токсична динамика: поляризация, ехо камери, вирусна дезинформация и емоционална манипулация. Накратко, алгоритмите и дизайнът, ориентиран към ангажираността, възнаграждават конфликта, а не връзката.
Изследователите са използвали големи езикови модели (LLM), за да симулират потребителското поведение при различни дизайни на платформи. Те са тествали интервенции като неалгоритмични потоци от публикации и по-строги ограничения за повторно публикуване. Тяхното заключение: нито една от тези мерки не е променила фундаментално основната тенденция към токсичност. Торнберг казва: „Формата на нашите социални медийни системи води до токсично взаимодействие по същия начин, по който формата на земята кара дъжда да се стича надолу“.
Въпреки това, критиците бързо поставят под въпрос точността на тестовете. LLM, обучени върху съществуващи данни от социалните медии, може би отразяват вярно динамиката на съвременните платформи, но могат ли те да тестват смислено структурни промени? Един коментатор в Hacker News постави под въпрос дали „персонажите“ на LLM наистина се държат като хора в контекст – особено когато им липсва възможността да публикуват оригинално съдържание.
Мотивацията зад генерираните от изкуствен интелект модели, колкото и съмнителна да е, отразява по-голямо предизвикателство: експериментирането в реалния свят върху милиони активни потребители е непрактично за публичните изследователи. За разлика от това, самите платформи понякога са тествали промени в дизайна, като експериментите за ограничаване на повторните публикации на Facebook, но често ги прекратяват, защото не са постигнали целите за ангажираност.
Като оставим настрана уговорките за симулацията, трудно е да се игнорира изводът на изследването: социалните мрежи не са неутрални канали, оформени от поведението на потребителите – те са внимателно изградени контексти. Всяка алгоритмична промяна, автоматично пускане на видео, бутон „харесване“ и награда за превъртане надолу подтиква човешката психология към сензация пред същност, към възмущение пред нюанс.
Торнберг смята, че системите могат да бъдат преработени, но само ако стимулите се променят. Силната модерация, регулаторният натиск или новите бизнес модели ще трябва да детронират показателите за ангажираност, основани на печалбата. Това е трудна задача в свят на приходи и икономики на внимание, базирани на реклами.
Навременното и координирано модериране и бързото премахване на вредно съдържание, намалява въздействието надолу по веригата. В проучвания на модерирането на Facebook около критични събития, 90% от ангажираността се е случила в рамките на 30 часа. Премахването на съдържание по-късно е имало малък ефект. Това предполага, че проактивното модериране е от значение.
Проучването на Торнберг клони към реализъм: без преосмисляне на основните стимули на платформите, социалните медии може да продължат да засилват разделението, а не диалога. Все пак има надежда за подобряване на ситуацията. Новите модели на управление, алгоритмите, съобразени с принципите на справедливостта, регулаторните рамки и културните промени биха могли да променят динамиката – макар и постепенно и неравномерно.
В крайна сметка дебатът не се върти само около дизайна на платформата, а и върху това дали обществото иска социални мрежи, които усилват гражданската връзка, или системи за генериране на капитал, отделени от общественото благо. Пътят напред изисква прозрачност, регулиране, експериментиране и най-вече обществено настояване за отчетност, а не за засилени крайности.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари