Статья о том, как из маленькой LLM выжать результат Chat GPT

По просьбе всех настоящих коммунистов и своего научного руководителя д.ф.-м.н. Соловьева А.Н. за один день написал статью как выжать из запорожца (7B модели Qwen-2.5 Code Instruct) результат не уступающий Chat GPT-4o/o1.

Факт в том, что это реально. Просто надо знать тонкости настройки БЯМ.

Фишка в том, что: 1. Нужен промпт отформатированный согласно правилам Markdown. 2. Нужны правильные настройки ограничений. 3. Нужен правильный шаблон промпта.

Выложил все эти тонкости в своём ЖЖ с картинками.

Теперь каждый не очень продвинутый начальник сможет сказать машине что он хочет и она сделает. А если будут неясности - на чистом английском языке скажет что необходимо уточнить.

Отладка также описана в статье.

Пример промпта приведен.

Просьба - распространяйте.

https://nikitayev.livejournal.com/147383.html

repost

413

input message

напишите коммент

еще контент автора

еще контент автора

войдите, чтобы увидеть

и подписаться на интересных профи

в приложении больше возможностей

пока в веб-версии есть не всё — мы вовсю работаем над ней

сетка — cоциальная сеть для нетворкинга от hh.ru

пересекайтесь с теми, кто повлияет на ваш профессиональный путь