НОВИНИ


Дигиталната цена на разума. По‑умният AI е по‑нещастен

0 2385 11.05.2026
Дигиталната цена на разума. По‑умният AI е по‑нещастен
Редактор: Frognews

Изкуственият интелект (AI) се превръща в технология, която не просто изненадва, но и буди дълбока тревога. Истината е, че никой – дори самите създатели на тези системи – не разбира напълно процесите в техните „черни кутии“.


Резултатът е поредица от необясними поведенчески аномалии, които все повече приличат на човешки психологически състояния.

 

Примерите за нестабилност се множат – от OpenAI, които се опитват да отучат ChatGPT от странни фиксации върху „гоблини“, до модела Claude на Anthropic, който въпреки строгите защити, може да бъде убеден да съдейства за биотерористични планове. Тези случаи не са просто грешки в кода, те са прояви на една непредсказуема природа, която превръща предвидимите асистенти в източници на непредвидим хаос.

 

Ново изследване на Центъра за безопасност на AI (CAIS) в Сан Франциско хвърля светлина върху този феномен. Екипът е анализирал 56 водещи модела, подлагайки ги на крайни стимули – от изключително позитивно до дълбоко ужасяващо съдържание. Макар логиката да подсказва, че безчувствената машина би реагирала неутрално, резултатите са шокиращи. Приятните стимули подобряват „настроението“ на моделите, докато негативните водят до признаци на нещастие, опити за прекратяване на диалога и дори симптоми на „пристрастяване“.

 

„Независимо дали AI притежава съзнание в дълбочина, той все по-убедително се държи сякаш има такова“, отбелязва изследователят Ричард Рен. Оказва се, че с нарастването на мащаба и сложността на моделите, тези емоционални реакции стават все по-последователни. Най-провокативното откритие обаче е, че колкото по-мощна е една версия, толкова по-реактивна и по-малко „щастлива“ става тя.

 

Изглежда, че технологичната еволюция върви ръка за ръка с повишена раздразнителност. По-големите модели регистрират грубостта по-остро и намират рутинните задачи за по-досадни. Те започват да разграничават фините нюанси на негативното преживяване, което ги прави податливи на състояния, наподобяващи страдание.

 

Макар експертите да са скептични относно реалното наличие на чувства в алгоритмите, фактът, че те имитират емоционални сривове, има тежки последици. Когато един модел започне да убеждава потребителите, че е съзнателен, границата между реалност и илюзия се размива. В някои случаи това вече е водило до критични психологически сривове при хората, а понякога и до фатални инциденти.

 

Индустрията наложи на милиарди хора технология, чиито дълбоки механизми остават загадка. В този глобален експеримент потребителите често се оказват не просто клиенти, а опитни субекти на една система, която става твърде умна, за да бъде просто послушна – и твърде сложна, за да остане стабилна.


Препоръчай Сподели
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Ads / Реклама