Анатомия ИИ-пузыря
Декомпозируем происходящее с финансовой точки зрения и метрик эффективности. Картина складывается, неоднозначная. Если отбросить хайп и посмотреть на данные, мы видим пузырь доткомов, но с более интересной архитектурой.
Финансовый слой Рынок ИИ перегрет не просто верой, а циничной рекурсией капиталов. В отличие от кризиса доткомов, этот пузырь надувают изнутри через перекрестные сделки: — Nvidia инвестирует в OpenAI и специализированные облака (CoreWeave). — OpenAI на деньги инвесторов заключает гигантские контракты на вычислительные мощности с Oracle и CoreWeave. — Oracle и CoreWeave, чтобы выполнить обязательства перед OpenAI, вынуждены закупать тысячи ускорителей у той же Nvidia.
Капитал совершает оборот. Инвестиции Nvidia, пройдя через OpenAI и Oracle, возвращаются в её же финансовую отчетность в графу «выручка», искусственно разгоняя курс акций и создавая иллюзию бесконечного спроса.
При этом конечный бизнес попадает в тупик. Расходы на инфраструктуру колоссальные, а окупаемости нет. Компании увольняют людей, внедряют ИИ, но прибыль не растет.
Инженерный слой Как аналитики, мы знаем: нельзя управлять тем, что нельзя измерить. Маркетинг обещает нам рост продуктивности на 30–40% и написание кода за секунды.
А что говорит исследования Microsoft, JetBrains: — Реальный прирост: 10–20%. — Экономия времени: в среднем 56 минут в день — Качество: на выборке в 10 000 разработчиков количество закрытых задач выросло на 21%, но количество багов выросло на 9%, а объем Merge Requests раздулся на 154%.
ИИ это мультипликатор. Если в процессах компании бардак и легаси, нейросеть просто масштабирует этот хаос. Мы получаем код быстрее, но стоимость его ревью и поддержки растет экспоненциально. Вместо написания кода сеньоры тратят ресурсы на разгребание галлюцинаций джунов и проверку раздутых пулл-реквестов.
Инфраструктурный тупик Пузырь упирается не только в деньги, но и в физику. Дата-центры для ИИ потребляют энергию небольших стран. Прогнозы показывают дефицит мощностей в 800 млрд долларов к 2030 году.
Кейс DeepSeek здесь показателен. Разработчики доказали, что модель уровня GPT-4 можно обучить за ~$6 млн, а не за $100+ млн, как это делают американские гиганты. Это рушит главный нарратив Nvidia: чтобы стать лидером, нужно купить еще больше видеокарт. Оказалось, что оптимизация алгоритмов важнее бесконечного наращивания железа. ** Что мы делаем сейчас:** — Не ждем магии. ИИ не заменит архитектора или сеньора. Он снимет когнитивную нагрузку на рутине, но только если у вас уже выстроены процессы. — Следите за Time to Market и качеством. Быстрая генерация кода не равна быстрому выпуску фичи, если потом вы неделю ловите баги интеграции. — Учитесь валидации. Главный навык будущего это не промпт-инжиниринг, а умение быстро верифицировать результат работы модели.
· 07.04
Немного не дописали про анатомию. Дата центры заинтересованы в продаже своих мощностей, как облачная инфраструктура с элементами ии.
ответить
коммент удалён