НОВИНИ


AI като шперц: Хакер открадна 150 GB правителствени данни с чатбота Claude

0 1101 26.02.2026
AI като шперц: Хакер открадна 150 GB правителствени данни с чатбота Claude
БГНЕС

Неизвестен хакер е използвал чатбота с изкуствен интелект Claude на Anthropic, за да атакува мексикански правителствени агенции и да открадне 150 GB данни, съобщава Bloomberg. Според разследването те включват данъчна информация, идентификационни данни на служители и друга чувствителна официална информация.


По данни на компанията за киберсигурност Gambit Security атаките са започнали през декември и са продължили около месец. Нападателят е използвал Claude, за да открива уязвимости в правителствените мрежи, да създава скриптове за експлоатирането им и да планира автоматизацията на кражбата на данни. Първоначално чатботът е отказвал да изпълнява злонамерени заявки, но хакерът е успял да заобиколи ограниченията чрез специфични команди. В резултат системата е генерирала хиляди подробни доклади с готови за изпълнение планове, включително конкретни вътрешни цели и идентификационни данни, които биха могли да подпомогнат атаката.

 

Твърди се, че паралелно с това нападателят е използвал и ChatGPT на OpenAI, за да събира информация как да се придвижва в компютърни мрежи, какви права за достъп са необходими и как да намали риска от разкриване.

 

При собствен анализ експертите от Gambit Security са открили поне 20 уязвимости в AI системите, които не са били публично оповестени.

 

AI като шперц в ръцете на хакерите

 

Изкуственият интелект все по-често се превръща в основен инструмент в арсенала на киберпрестъпници и държавно подкрепяни хакерски групи. По същият начин, както шперцът е важна част от оборудването на един крадец.

 

В края на 2025 г. именно Anthropic разкри един от първите мащабни примери за т.нар. „агентски“ кибератаки, при които AI инструментът Claude Code е бил използван за автоматизиране на прониквания в повече от 30 организации по света, включително финансови институции и технологични компании. Според компанията зад атаките вероятно стоят структури с държавна подкрепа, като подозренията са насочени към Китай. Системата е поела между 80 и 90% от работата, която обичайно би изисквала цял екип специалисти, и я е изпълнявала със скорост, недостижима за човек.

 

През февруари 2024 г. съвместен доклад на Microsoft и OpenAI предупреждава, че хакерски групи, свързвани с Русия, Северна Корея, Иран и Китай, вече използват ChatGPT за оптимизиране на операциите си. Руската група Forest Blizzard например е използвала модела за проучване на сателитни комуникационни протоколи и радарни технологии, докато китайската Charcoal Typhoon го е прилагала за писане на скриптове за автоматизация и за превод на специализирани документи. Според доклада AI не е създал нов тип „супер вирус“, но значително е съкратил времето за подготовка на атаки и е помогнал за изготвянето на фишинг имейли без езикови грешки – фактор, който увеличава тяхната убедителност.


Препоръчай Сподели
Уважаеми читатели, разчитаме на Вашата подкрепа и съпричастност да продължим да правим журналистически разследвания.

Моля, подкрепете ни.
Donate now Visa Mastercard Visa-electron Maestro PayPal Epay
Ads / Реклама