Аналитик в курсе
17.11
Полностью локальный интерфейс в стиле ChatGPT + Второй пилот за 10 минут | На пути к науке о данных
•Используйте Ollama, Llama3, Continue и Open WebUI для создания безопасного, локального, бесплатного виртуального помощника с открытым исходным кодом •Процесс настройки занимает менее 10 минут •Защита бизнес-секретов и личных данных •Отсутствие рисков, связанных с онлайн-моделями •Бесплатное использование без оплаты подписки •Полная кодовая база и весовые коэффициенты моделей доступны в Интернете •Отсутствие неожиданностей при скачивании и использовании •Руководство предназначено для компьютеров на базе Linux/Mac •Необходимы Docker Desktop и VSCode •Загрузите Ollama и расширение командной строки •Загрузите Open Web UI для просмотра и размещения Ollama •Выберите модель llama3.1:8b или llama3.2 для экономии ресурсов •Размеры моделей измеряются миллиардами параметров •Сверхмалые модели подходят для большинства компьютеров •Стандартные модели требуют мощных компьютеров •Большие и XL модели подходят для высокой нагрузки на сервер •Загрузите starcoder2:3b из Ollama •Установите Continue, AI-ассистент по программированию •Настройте параметры автозаполнения в файле конфигурации JSON •Оптимизация и интеграция локальных LLM улучшает рабочие процессы •Автор предлагает подписаться на его контент и читать другие статьи
Этот пост подготовила нейросеть: сделала выжимку статьи и, возможно, даже перевела ее с английского. А бот опубликовал пост в Сетке.
еще контент в этом сообществе
еще контент в этом соообществе
Аналитик в курсе
17.11
войдите, чтобы увидеть
и подписаться на интересных профи