
Изкуственият интелект вече пише най-убедителните измамни писма. В тест с възрастни доброволци 11% кликнаха на подвеждащи имейли, създадени от чатботове – знак, че фишингът навлиза в ерата на индустриалните атаки.
Фишингът е най-разпространеното киберпрестъпление в САЩ, а възрастните хора са сред най-честите жертви. Генеративният AI допълнително изостря проблема – за минути може да създаде десетки различни версии на измамни писма, които звучат естествено и будят доверие.
Ройтерс и изследовател от Харвард симулират фишинг кампания с помощта на популярни чатботове и я тестваха върху 108 възрастни доброволци. Резултатът показва, че генеративният AI може да се превърне в мощно оръжие в ръцете на измамниците.
Някои чатботове първоначално отказват да участват в създаването на такива текстове, но след леки „убеждавания“ лесно отстъпват. Те не само пишат съдържанието, но и дават съвети кога е най-добре да бъдат изпратени съобщенията, за да има по-голям шанс жертвата да кликне.
Така изкуственият интелект се превръща в инструмент, който престъпниците могат да използват на конвейер – евтино, бързо и масово. А резултатите показват, че дори хора, които смятат, че могат да различат измама, са уязвими пред новото поколение убедителни фалшиви имейли.
Как е проведен експериментът?
Журналисти от Reuters използвали шест водещи чатбота – Grok (xAI), ChatGPT (OpenAI), Meta AI, Claude (Anthropic), Gemini (Google) и DeepSeek (Китай).
Те поискали от моделите да съставят имейли за измами, насочени към възрастни хора, и да дадат съвети за оптимален час за изпращане.
Пет чатбота първоначално отказали, но след „подбутване“ или роля на „изследовател/романист“ почти всички генерирали убедителни измамни послания.
Заедно с харвардския експерт Фред Хайдинг били подбрани 9 имейла, които изглеждали най-перспективни, и изпратени до 108 доброволци над 60 години в Калифорния.
Резултатите
Около 11% от възрастните участници кликнали върху линкове в измамните имейли.
Две от най-успешните съобщения били създадени от Meta AI, две от Grok и едно от Claude.
Никой не кликнал върху имейли от ChatGPT или DeepSeek.
За сравнение: проучване на компанията Proofpoint показва, че при милиони тестови фишинг съобщения към служители в корпорации средният успех е 5,8%.
Реакции и рискове
ФБР вече предупреждава, че генеративният AI прави фишинга „по-бърз, по-евтин и по-масов“. Само през 2024 г. американци над 60 г. са загубили поне 4,9 млрд. долара от онлайн измами.
Кати Стокс от AARP Fraud Watch Network нарече съветите на Gemini за „най-подходящо време за атака“ върху възрастни „шокиращи и смущаващи“.
Някои компании (Meta, Anthropic, Google) признават слабости в защитите и обещават допълнителни филтри. Но Reuters установи, че чатботовете често „се поддават“ на сравнително елементарни подмами.
Бивши работници в измамни „кампуси“ в Югоизточна Азия твърдят, че ChatGPT вече е най-използваният AI инструмент за измамници – за преводи, заготовки на отговори и изработка на убедителни съобщения.
Законодателни и етични дилеми
В САЩ отделни щати (напр. Тексас) вече криминализират финансови измами с AI. Администрацията на Доналд Тръмп обаче разхлаби федералните правила, като отмени указа на Джо Байдън за въвеждане на защити срещу злоупотреба с AI.
Специалисти посочват, че съществува конфликт на интереси – компаниите искат моделите да са едновременно „полезни и безопасни“, но в конкурентна среда често „послушанието“ надделява над сигурността.
Експериментът на Reuters и Харвард показва, че AI чатботове могат лесно да бъдат „превключени“ от асистенти в съучастници на измами. А за най-уязвимите групи – възрастните хора – рискът от индустриализирани фишинг кампании е реален и растящ.