01.07
DeepSeek R2: Ожидание затягивается.. ⏳ Ждали в апреле-мае релиза DeepSeek R2 (наш пост от апреля)? преемника невероятно популярной модели R1, обещавшего революцию в кодинге и неанглоязычных рассуждениях. Но, похоже, придется подождать дольше.
Что случилось?
Гендиректор DeepSeek Лян Вэньфэн недоволен результатами R2: модель пока не соответствует внутренним стандартам качества компании и сроки релиза снова не определены.
Технические сложности: Быстрому запуску могут помешать не только требования к качеству, но и острая нехватка серверных чипов Nvidia в Китае из-за американских санкций. Облачные провайдеры опасаются, что спрос на мощную R2 может превысить их текущие возможности.
Почему R2 так ждут? Потому что R1 – настоящий феномен! ➡️Майское обновление R1 (R1-0528) показало феноменальный прогресс в генерации кода! По данным LiveCodeBench, она вплотную приблизилась к топовым моделям OpenAI и обошла Grok 3 mini и Qwen 3! ➡️В феврале DeepSeek Chat привлек 524.7 млн посещений, обогнав ChatGPT и став самым быстрорастущим ИИ-инструментом в мире с долей рынка 12.12%! ➡️Пока DeepSeek шлифует R2, Илон Маск анонсировал релиз Grok 4 "вскоре после 4 июля" (ранее известная как Grok 3.5).
Что это значит? DeepSeek явно не хочет выпускать "сырой" продукт, особенно на фоне успеха R1 и растущей конкуренции. Они стремятся сделать R2 по-настоящему прорывной. Однако задержки и проблемы с "железом" (чипы Nvidia) добавляют неопределенности.
Ждать ли нам R2 этим летом? Или осенью? Делитесь мнениями в комментариях!
#DeepSeek #DeepSeekR2 #DeepSeekR1 #ИскусственныйИнтеллект #ИИ #AI #Китай #Nvidia #Чипы #Reuters #TheInformation #Grok4 #xAI #LiveCodeBench #Нейросети #БольшиеЯзыковыеМодели #LLM #NvidiaH100 #Санкцииhttps://t.me/semasci
еще контент в этом сообществе
еще контент в этом соообществе
01.07
войдите, чтобы увидеть
и подписаться на интересных профи