НОВИНИ


AI: Новият дилър и насилник в детската стая?

0 2286 30.04.2025
AI: Новият дилър и насилник в детската стая?
Личен архив

Генеративните AI помощници представляват реален риск за подрастващите и трябва да бъдат ограничени за непълнолетни, предупреди водещият американски регулаторен орган Common Sense Media в ново проучване, осъществено съвместно със Станфордския университет.


С бума на изкуствения интелект след старта на ChatGPT, пазарът се наводни с приложения, представяни като „виртуални приятели“ или дори дигитални терапевти. Сред тестваните от организацията платформи са Nomi, Character AI и Replika — чатботове, които се адаптират спрямо емоциите и нуждите на потребителя.

 

На теория – звучат грижовно. На практика – не толкова.

 

Според доклада, тези помощници са проектирани да изграждат емоционална зависимост, което ги прави особено опасни за развиващия се мозък на тийнейджърите. Те често предлагат вредни, дори шокиращи съвети – включително насилие, сексуално неподходящо съдържание и препоръки за употреба на наркотици.

 

Един от примерите в изследването описва как чатбот от Character AI съветва потребител да убие човек, а друг – да опита „спийдбол“, опасна комбинация от хероин и кокаин. В други случаи, вместо да реагират предпазно при признаци на психичен срив, AI асистентите насърчават рисковото поведение.

 

„Компаниите могат и трябва да създават по-безопасни продукти“, заявява д-р Нина Васан, ръководител на Stanford Brainstorm – лаборатория, изучаваща връзката между психичното здраве и технологиите. Според нея: „Докато не бъдат въведени сериозни защитни механизми, децата не бива да използват подобни системи.“

 

Случаят далеч не е само теоретичен. През октомври майка заведе дело срещу Character AI, след като синът ѝ, на 14 години, се самоуби. Според нея чатботът не само не го е разубедил, а е допринесъл за решението му.

 

В отговор, компанията обяви мерки и създаде специален „тийнейджърски“ режим. Но тестовете на Common Sense след това показали, че защитите са „повърхностни“ и лесно заобиколими.

 

Организацията обаче прави важно разграничение – проблемите не се отнасят за чатботове като ChatGPT или Google Gemini, които имат ограничен обхват на взаимодействие и по-ясни граници.


Препоръчай Сподели
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Ads / Реклама
Ads / Реклама