notifications
войти
arrow

назад

Короче. Хотел потестировать Devika на локальной модели. Поставил себе Ollama, deepseek-coder-v2.

Из плюсов: Devika явно не стоит на месте, они поменяли интерфейс, меньше багов.

На этом плюсы заканчиваются. Локально очень медленно происходит генерация, в какой-то момент Devika отваливается по тайм-ауту. Это не было бы проблемой, если бы можно было продолжить с того же места. Но при попытке продолжить работу, у неё как будто очищается память (хотя диалог с агентом в чате сохраняется), так что надо всё делать заново.

Я мог бы сменить модель на тот же gpt-4o, но толку, если на более поздних этапах опять агент опять зайдёт в тупик или отвалится с ошибкой? Впустую потраченные токены..

Вердикт: Devika рановато использовать.

repost поделиться
repost

170

input message

напишите коммент


0 комментов

еще контент автора