Президентът на САЩ Доналд Тръмп нареди прекратяване на работата на правителството с компанията за изкуствен интелект Anthropic, а Пентагонът обяви, че ще я класифицира като риск за веригата на доставки. Това нанася сериозен удар по лабораторията след спор за ограниченията при използване на технологията с администрацията, съобщи Reuters. Пентагонът и други ведомства ще имат шестмесечен преходен период за спиране на продуктите на компанията. Тръмп предупреди, че при отказ от съдействие ще използва „пълната власт на президентството“ с потенциални сериозни граждански и наказателни последици.
Решението представлява необичайно порицание на Белия дом към една от водещите компании за изкуствен интелект, които са критични за националната сигурност. Anthropic има подкрепата на инвеститори като Google и Amazon.
В същото време конкурентът OpenAI, подкрепян от Microsoft и Amazon, обяви споразумение за използване на технологията си в класифицираната мрежа на Пентагона, като ще включва технически гаранции за контрол над моделите и принципи за човешка отговорност при въоръжения.
Пентагонът посочи, че класифицирането на Anthropic като рискова за веригата на доставки може да забрани използването на тяхната AI система от десетки хиляди изпълнители, което застрашава бизнеса им с правителството. Според експерти това е „еквивалент на ядрена война“. Подобни мерки досега са предприемани само срещу китайския гигант Huawei, ZTE и Kaspersky Lab.
Отговорът на Anthropic: Ще се видим в съда
В отговор Anthropic обяви, че възнамерява да оспори решението в съда. „Никакакъв натиск или наказание от Министерството на войната няма да промени позицията ни по въпроса за масовото вътрешно наблюдение или напълно автономните оръжия — ще оспорим всяко обозначаване на нашата компания като риск за веригата на доставки в съда“, се казва в изявление на компанията от петък вечерта.
Anthropic добавя, че министърът на войната на САЩ Пийт Хегсет няма „законова правомощност да подкрепи изявлението на Тръмп“. „Юридически, обозначаването като риск за веригата на доставки може да се отнася само до използването на Claude по договори с Министерството на войната — то не може да влияе на начина, по който изпълнителите използват Claude за други клиенти“, категорични са от AI лабораторията.
Алан Розенщайн, доцент в Юридическия факултет на Университета на Минесота, коментира пред Financial Times, че „обозначаването като риск за веригата на доставки е юридически несигурно“.
Главният изпълнителен директор на Anthropic, Дарио Амодеи, е влизал редица пъти в конфликт с Хегсет относно начина, по който военните използват моделите на компанията за изкуствен интелект, като е настоявал за червени линии относно смъртоносните автономни оръжия и масовото вътрешно наблюдение.
Като цяло споровете между технологичните компании и Пентагона датират поне от 2018 г., когато служители на Google протестираха срещу използването на AI за анализ на снимки от дронове. Въпреки обещанията за сътрудничество с правителството, опасенията за „роботи-убийци“ и автоматизация на военни системи остават сериозни, особено след по-интензивните военни действия в Украйна и Газа.
През последната година Пентагонът е подписал договори за 200 милиона долара с водещи AI лаборатории — включително Anthropic, OpenAI и Google — като критиките от страна на Anthropic са свързани с несъответствия между закона и бързото развитие на AI, включително за събиране на лични данни. Технологията на Anthropic вече се използва в разузнавателните служби и армията и беше първата сред конкурентите, работеща с класифицирана информация чрез облачните услуги на Amazon.