Короче. Хотел потестировать Devika на локальной модели. Поставил себе Ollama, deepseek-coder-v2.

Из плюсов: Devika явно не стоит на месте, они поменяли интерфейс, меньше багов.

На этом плюсы заканчиваются. Локально очень медленно происходит генерация, в какой-то момент Devika отваливается по тайм-ауту. Это не было бы проблемой, если бы можно было продолжить с того же места. Но при попытке продолжить работу, у неё как будто очищается память (хотя диалог с агентом в чате сохраняется), так что надо всё делать заново.

Я мог бы сменить модель на тот же gpt-4o, но толку, если на более поздних этапах опять агент опять зайдёт в тупик или отвалится с ошибкой? Впустую потраченные токены..

Вердикт: Devika рановато использовать.

repost

169

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь