Anthropic отказа договор за $200 млн. с Пентагона, за да защити своите етични принципи, което доведе до безпрецедентна държавна забрана.
Представете си, че ви предлагат 200 милиона долара, но с едно условие: да премахнете „спирачките“ на вашия AI, които му пречат да управлява оръжия. Точно пред тази дилема се изправи Дарио Амодей на 27 февруари 2026 г. Пентагонът (или както вече се нарича в някои документи – Department of War) поиска от Anthropic да премахне клаузите в техния „Constitutional AI“, които забраняват масовото наблюдение и автономното насочване на цели. Отговорът на Амодей беше категорично „не“, подкрепен от целия борд на директорите. Те заявиха, че техните модели са създадени да помагат на човечеството, а не да се превръщат в инструменти за дигитална война без човешки надзор.
В резултат на този отказ, американското правителство обяви Anthropic за „риск за веригата на доставки“ (supply chain risk). Това е безпрецедентен ход срещу американска компания, който я поставя в една категория с китайския гигант Huawei. Вместо да се огънат, от Anthropic публикуваха отворено писмо, в което заявиха, че „етиката не е по договаряне“, дори когато става въпрос за национална сигурност. Този ход циментира репутацията им на „етичния избор“ в света на изкуствения интелект, но им коства достъпа до огромни държавни поръчки. Вътрешни източници твърдят, че служителите на компанията са посрещнали решението с аплодисменти, въпреки финансовите загуби. Анализаторите обаче предупреждават, че това може да е началото на дълга съдебна битка за правото на технологичните компании да налагат морални ограничения върху софтуера си, когато той се използва от държавни структури. Този сблъсък променя изцяло динамиката между Силициевата долина и Вашингтон, поставяйки въпроса кой всъщност контролира бъдещето на автономните системи – програмистите или генералите.