Анатомия ИИ-пузыря

Декомпозируем происходящее с финансовой точки зрения и метрик эффективности. Картина складывается, неоднозначная. Если отбросить хайп и посмотреть на данные, мы видим пузырь доткомов, но с более интересной архитектурой.

Финансовый слой Рынок ИИ перегрет не просто верой, а циничной рекурсией капиталов. В отличие от кризиса доткомов, этот пузырь надувают изнутри через перекрестные сделки: — Nvidia инвестирует в OpenAI и специализированные облака (CoreWeave). — OpenAI на деньги инвесторов заключает гигантские контракты на вычислительные мощности с Oracle и CoreWeave. — Oracle и CoreWeave, чтобы выполнить обязательства перед OpenAI, вынуждены закупать тысячи ускорителей у той же Nvidia.

Капитал совершает оборот. Инвестиции Nvidia, пройдя через OpenAI и Oracle, возвращаются в её же финансовую отчетность в графу «выручка», искусственно разгоняя курс акций и создавая иллюзию бесконечного спроса.

При этом конечный бизнес попадает в тупик. Расходы на инфраструктуру колоссальные, а окупаемости нет. Компании увольняют людей, внедряют ИИ, но прибыль не растет.

Инженерный слой Как аналитики, мы знаем: нельзя управлять тем, что нельзя измерить. Маркетинг обещает нам рост продуктивности на 30–40% и написание кода за секунды.

А что говорит исследования Microsoft, JetBrains: — Реальный прирост: 10–20%. — Экономия времени: в среднем 56 минут в день — Качество: на выборке в 10 000 разработчиков количество закрытых задач выросло на 21%, но количество багов выросло на 9%, а объем Merge Requests раздулся на 154%.

ИИ это мультипликатор. Если в процессах компании бардак и легаси, нейросеть просто масштабирует этот хаос. Мы получаем код быстрее, но стоимость его ревью и поддержки растет экспоненциально. Вместо написания кода сеньоры тратят ресурсы на разгребание галлюцинаций джунов и проверку раздутых пулл-реквестов.

Инфраструктурный тупик Пузырь упирается не только в деньги, но и в физику. Дата-центры для ИИ потребляют энергию небольших стран. Прогнозы показывают дефицит мощностей в 800 млрд долларов к 2030 году.

Кейс DeepSeek здесь показателен. Разработчики доказали, что модель уровня GPT-4 можно обучить за ~$6 млн, а не за $100+ млн, как это делают американские гиганты. Это рушит главный нарратив Nvidia: чтобы стать лидером, нужно купить еще больше видеокарт. Оказалось, что оптимизация алгоритмов важнее бесконечного наращивания железа. ** Что мы делаем сейчас:** — Не ждем магии. ИИ не заменит архитектора или сеньора. Он снимет когнитивную нагрузку на рутине, но только если у вас уже выстроены процессы. — Следите за Time to Market и качеством. Быстрая генерация кода не равна быстрому выпуску фичи, если потом вы неделю ловите баги интеграции. — Учитесь валидации. Главный навык будущего это не промпт-инжиниринг, а умение быстро верифицировать результат работы модели.

#аналитика #инструменты #навыкАналитика #AI #ии

Анатомия ИИ-пузыря | Сетка — социальная сеть от hh.ru