Anthropic отказался от Пентагона. Весь интернет аплодировал.

Вот только никто не дочитал до конца. Когда стало известно, что OpenAI подписал контракт с Министерством обороны США без всяких условий, а Anthropic — нет, реакция была предсказуемой: массовое удаление ChatGPT, переход на Claude, посты о том, что наконец появилась «этичная» компания в мире ИИ.

Anthropic поставил два условия: не использовать Claude для автономного оружия и не использовать для массовой слежки за гражданами. Пентагон отказал. OpenAI зашёл. Красивая история. Только есть нюанс.

Claude работает с Пентагоном как минимум с 2024 года — через Palantir, чтобы спецслужбы могли использовать модель. Bloomberg сообщал: Claude применялся при поимке Мадуро в 2025-м. Сама Anthropic подала заявку на конкурс Пентагона за $100 млн — проект управления роем боевых дронов голосовыми командами через Claude. Проиграли xAI и SpaceX. Но заявку подавали.

И самое важное: условие «не создавать автономное оружие» — это не принципиальная позиция. Claude физически не умеет этого прямо сейчас. По данным Bloomberg, Anthropic сам хотел создать совместную исследовательскую программу с Пентагоном по разработке автономных боевых систем — «безопасным способом». То есть: не можем сейчас, но если сможем — готовы обсудить.

Это называется маркетинг. Очень дорогой и очень грамотный. Теперь про деньги — тут всё ещё интереснее. Подписка Max за $200/мес потребляет реальных вычислений на $2000–5000. Это не теория: Forbes процитировал внутренние расчёты компании Cursor. Год назад субсидия была 1 к 10. Сейчас — 1 к 25. Anthropic субсидирует пользователей всё агрессивнее из кармана инвесторов.

Зачем? Financial Times в декабре 2025-го сообщал: Anthropic консультируется с банками насчёт IPO в 2026-м. Инвесторы хотят выйти на биржу раньше OpenAI. Для этого нужна большая база активных пользователей и красивые цифры роста. Отсюда и субсидии.

Плюс: «исследование» об угрозе ИИ для рынка труда, которое взорвало интернет — написали экономисты самой Anthropic. Тот самый вирусный radar-график, где под угрозой оказались юристы и врачи, а спаслись посудомойщики и мотомеханики. Методология — если ИИ ускоряет одну задачу из профессии на 50%, вся профессия «под угрозой». Конфликт интересов очевидный.

CEO Дарио Амодеи при этом публично говорит, что они «не уверены, есть ли у Claude сознание». И предсказывает, что ИИ достигнет уровня нобелевского лауреата — к 2025-му... нет, к 2026-му... нет, к 2027-му. Каждый год — новый дедлайн.

Математик Теренс Тао в 2025-м точно описал проблему: ошибки языковых моделей выглядят почти идеально снаружи — именно потому, что модели обучены производить текст, похожий на правильный. Найти ошибку сложно. Но когда находишь — она элементарная.

Claude реально работает. Claude Code — серьёзный инструмент, разработчики влюблены. Но компания — это бизнес перед IPO с убыточной моделью и маркетинговым отделом мирового класса.

Пользуйтесь. Без иллюзий.

🌐 https://www.espinoza.ru | 📩 | Канал: 🔗 https://max.ru/id771965147031_biz #ИИ #Claude #Anthropic #нейросети #технологии #EspinozaDesign #AIинструменты #дизайн #маркетинг #искусственныйинтеллект #ChatGPT #OpenAI


В этом посте были ссылки, но мы их удалили по правилам Сетки

Anthropic отказался от Пентагона. Весь интернет аплодировал.
Вот только никто не дочитал до конца | Сетка — социальная сеть от hh.ru