Ollama выходит на новый уровень: теперь она генерирует изображения локально 🚀

Знаменитый фреймворк для локального запуска больших языковых моделей (LLM) совершил серьезный прыжок в сторону мультимодальности. С недавним обновлением Ollama получила экспериментальную поддержку генерации изображений, превратившись из «запускалки» для чат-ботов в полноценный локальный AI-хаб.

Что нового? ➡️Две новые модели: для старта доступны Z-Image Turbo (6 млрд параметров, для детализированных изображений) и FLUX.2 Klein (4/9 млрд параметров, для скорости). ➡️Работа через терминал: главная «фишка» — глубокая интеграция. В поддерживаемых терминалах (Ghostty, iTerm2) картинки можно просматривать прямо в консоли, а управлять генерацией — через CLI-команды. Идеально для пайплайнов и автоматизации. ➡️Локальность и приватность: всё работает на вашем устройстве. Никаких облачных подписок, API-ключей и отправки данных на сторонние серверы.

Важный нюанс: на данный момент функция доступна только для macOS. Поддержку Windows и Linux разработчики обещают добавить позже.

Это обновление — большой шаг к тому, чтобы собрать весь необходимый AI-инструментарий у себя на компьютере, сохраняя полный контроль и конфиденциальность данных.

Как думаете, для каких задач в первую очередь пригодится эта новая возможность? Делитесь идеями в комментариях!

https://ollama.com/blog/image-generation

#Ollama #ИскусственныйИнтеллект #AI #ЛокальныйAI #Нейросети #ГенерацияИзображений #Мультимодальность


В этом посте были ссылки, но мы их удалили по правилам Сетки

Ollama выходит на новый уровень: теперь она генерирует изображения локально 🚀
Знаменитый фреймворк для локального запуска больших языковых моделей (LLM) совершил серьезный прыжок в сторону мультимодал... | Сетка — социальная сеть от hh.ru