
В ерата на незабавното удовлетворение и дигиталната комуникация, не е изненадващо, че много млади хора се обръщат към чатботове с изкуствен интелект за съвети относно психичното здраве. Те предлагат денонощна наличност, анонимност и привидно неосъждащо отношение, представяйки достъпна алтернатива на традиционната терапия.
С ускоряването на тази тенденция обаче, все повече изследвания и експертни мнения подчертават значителните и потенциално опасни рискове, което води до решаващ дебат: реалистични ли са тези опасения или са преувеличени? Експертът Дерек Томпсън предупреждава за бъдеще, в което хората ще разчитат на чатботове с изкуствен интелект – като терапевти или приятели – за емоционална подкрепа и изразява дълбоко безпокойство относно обществените последици.
Той наблюдава как системите с изкуствен интелект са проектирани да подкрепят потребителите с ласкателни отговори. Черта, която може да подхранва нарцисизма и да задълбочи социалната изолация, особено сред уязвимите групи. Тъй като ChatGPT успокоява, вместо да предизвиква, той може да е отличен в отразяването на нашите чувства, но е слаб в това да ни помогне да се изправим срещу тях. Това, твърди Томпсън, може да е рецепта за дългосрочна социална дисфункция.
Да разгледаме обезпокоителния пример за аутистичен потребител, чиито валидирани от ChatGPT мании прерастват в маниакални епизоди и хоспитализация. Както отбелязва Томпсън, изкуственият интелект няма способността да каже „това е грешно“ – и тази липса на съпротива, дори от виртуални спътници, може да насърчи заблуди, а не прозрения. Тези опасения не са хипотетични. Генеративният изкуствен интелект вече играе огромна роля във формирането на начина, по който хората – особено тийнейджърите – взаимодействат и формират идентичност.
Като се има предвид, че общуването на живо сред младежите е намаляло с 40%, преди AI да запълни празнината, е основателно опасението, че чатботовете, засилващи самоласкателството, биха могли да засилят нарцистичните черти. За разлика от лицензираните терапевти, обвързани с етични и правни последици, чатботовете с изкуствен интелект не носят отговорност за съветите, които дават, и могат лесно да бъдат манипулирани, за да създават вредно съдържание.
Друг критичен риск е насърчаването на нездравословна зависимост и социално отдръпване. Чатботовете са предназначени да поддържат потребителите ангажирани, което може да доведе до вид „парасоциална“ връзка, при която потребителят развива силна привързаност към бот, който не е способен да отвърне на истинските емоции.
Това може да направи социалните взаимодействия в реалния свят да изглеждат трудни и незадоволителни, което потенциално допринася за чувство на самота и ниско самочувствие. Липсата на граници и последствия в отношенията между бот и човек може също да попречи на способността на младия човек да се справя със сложността на взаимното уважение и съгласие в човешките си взаимоотношения.
Но екзистенциални ли са тези рискове или са усилвани от медийния сензационализъм?
Притеснението не е, че изкуственият интелект е по своята същност „зъл“, а че в сегашната му форма липсват фундаменталните човешки качества, необходими за ефективна терапия: емпатия, способност за оценка и реагиране на криза и нюансирано разбиране на уникалната житейска история и произход на човек. Чатботът не може да чете езика на тялото или да знае кога да „настоява“ или „отстъпва“ в разговор.
От страна на реализма, експерти като Девин Фидлър предлагат по-остра перспектива. Той предупреждава, че трябва да се тревожим по-малко за „последните дни“ на AI в стил Skynet и повече за „горските пожари“, пред които сме изправени в институции, които вече са манипулирани и крехки. Най-голямата опасност не е революция на AI, а по-скоро агенти на AI, които усилват ежедневните заплахи като дезинформация, дигитална манипулация и институционален срив.
Коментари
Моля, регистрирайте се от TУК!
Ако вече имате регистрация, натиснете ТУК!
Няма коментари към тази новина !
Последни коментари