Что DeepSeek и Qwen2.5 могут дать разработчикам, чего нет в ChatGPT?

Последние дни только и слышно: DeepSeek, Qwen2.5, китайские модели, OpenAI напрягся.

Сначала не хотел ничего писать, тем более просто репостить новости – вы и так это уже слышали из каждого чайника.

Но потом решил копнуть глубже. Посмотрел их сайты, документацию, чаты, и вот что порадовало больше всего:

👉 Эти модели можно развернуть локально.

Об этом почти не говорят – все обсуждают только количество токенов, сравнения с GPT-4 и прочие пузомерки. А вот что реально даёт возможность локального развёртывания – вопрос интересный.

🛠 Развёртывание: опыт из первых рук Запустить DeepSeek или Qwen2.5 – это не так просто, как ChatGPT, но и не rocket science. Арендовал сервер на несколько дней и развернул DeepSeek на конфигурации: 1× NVIDIA RTX 3090 (24GB VRAM), 128GB RAM и AMD Ryzen 9 5950X.

📊 Результат? 💾 Модель запустилась без проблем ⏳ Первый ответ – 15 секунд, сложные запросы обрабатывались по 40-60 секунд. 🔥 GPU загружен на 85%, VRAM использовано почти полностью. ⚡️ Процессор загружен на 40-50%, RAM занято около 70GB.

В боевом режиме можно ускорить работу: 📌 Сжатие модели – снижает потребление памяти и ускоряет ответы.

📌 Квантование – уменьшает нагрузку без значимой потери качества.

📌 Автоматический бэчинг – ускоряет работу при множественных запросах. Open-source LLM становятся всё доступнее, но для полноценной работы потребуется более мощное железо. 🚀

🔍 Что это даёт нам, обычным разработчикам? ✅ Локальная LLM без зависимостей Теперь не нужно залипать на API OpenAI, платить за каждый токен и бояться, что доступ заблокируют по политическим или другим причинам.

✅ Полная кастомизация Можно дообучать, адаптировать, менять под свои задачи. OpenAI такой возможности не даёт.

✅ Безопасность данных Для заказных проектов, где важно не передавать данные во внешние API, локальная LLM – это реальный выход.

✅ Снижение затрат в долгосроке Если у вас огромные нагрузки и много запросов, развёртывание своей модели может оказаться дешевле, чем платить за API.

Но есть нюансы:Развёртывание = затраты Нужны серьёзные мощности. Запустить можно хоть на ноуте, но для продакшена это пока дорого.

OpenAI всё ещё удобнее GPT-4 просто работает, а тут нужна оптимизация, поддержка, DevOps.

Модели пока не идеальны DeepSeek и Qwen2.5 догоняют GPT-4, но ещё не факт, что стабильно заменят его во всех задачах.

📌 Что в итоге? Open-source LLM наконец-то становятся реальной альтернативой. Да, пока не для всех. Но если вам нужна LLM-модель работающая локально, теперь это можно сделать без OpenAI.

Что DeepSeek и Qwen2.5 могут дать разработчикам, чего нет в ChatGPT?
Последние дни только и слышно: DeepSeek, Qwen2.5, китайские модели, OpenAI напрягся | Сетка — социальная сеть от hh.ru Что DeepSeek и Qwen2.5 могут дать разработчикам, чего нет в ChatGPT?
Последние дни только и слышно: DeepSeek, Qwen2.5, китайские модели, OpenAI напрягся | Сетка — социальная сеть от hh.ru
repost

314

input message

напишите коммент

Круто! Спасибо за информацию

ответить

Нормальная графика нужна?

ответить

Конечно, нужна :)) посмотри на характеристики сервака, который арендовал для своих экспериментов :)

ответить

В компе, где развёрнута нейронка)

ответить

Где именно?))

ответить

Локальное развертывание - супер крутая история. Сколько стоит аренда подобного сервака в условный месяц?

ответить

Интересно посмотреть, что будет дальше

ответить

DeepSeek скок по цене сейчас примерно? Я на Open-е сижу, хочу тариф за 200 взять, интересно стоит ли он того 🤔

ответить

А не проще собрать? Майнинг ферму купи и разверни на нем неронку в районе 300к тоже самое будет

ответить

Зависит от провайдера, но в среднем такой сервер обойдётся в районе 80-150к рублей в месяц, но я арендовал для теста на пару дней.

Вопрос в том, что выгоднее: платить за API или за железо, зависит от задач и проекта :)

ответить

Вопрос тут в том как часто вы обращаетесь к нему, снимает все ограничения по кол-во запросов, ну пару плюшек бесполезных

ответить

Локальное развертывание — реально важный аргумент, особенно для тех, кто хочет уйти от зависимости от API и контролировать данные. Да, пока не так просто, как нажать ‘войти в ChatGPT’, но кастомизация и безопасность того стоят. Интересно, насколько быстро эти модели будут догонять OpenAI по качеству в реальном продакшене.

ответить

Да, у нас разрабы сейчас все пересели на deepseek

ответить

Жиза 🤣

ответить

· 07.02

А потом слезли, как только апи слетать начал😂

Без негатива, я сам разраб)

ответить

Тексты более структурированные, особенно для информационнки. Я думаю это из за особенностей китайских статей. Ведь она на них основывается. Если попросить ее написать статью с ссылками, в 90% будет в источника китайский паблик )

ответить

А тексты не сравнивали?

ответить

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь