Midjourney уходит в прошлое, а пайплайн снова меняется
В июле я писал про единорогов и пегаса. Тогда всё было по рельсам: идея, промпт в Midjourney, несколько итераций, финал. Я привык, что если рельсы проложены, можно просто ехать.
Сейчас рельсы ржавеют. Midjourney всё ещё умеет выдать сочный кадр, но как только мне нужна точная сцена, он начинает капризничать. Меняешь пару слов, и вместо управляемости получаешь компромисс, который вроде красивый, но уже не твой. Слишком много угадайки.
Поэтому мы в Ojo начинаем перестраивать привычную схему. Не потому что “модно”, а потому что иначе работать тяжело.
Как мы теперь подходим к задаче Сначала мы придумываем идею. Что должно быть в кадре, что зритель должен понять за две секунды.
Потом собираем референсы. По цвету, настроению, свету, детализации, стилю, ракурсу. И вот этот пакет мы закидываем в GPT, чтобы он разложил картинку на детали. Какие объекты, какая логика сцены, где камера, где ключевой свет, что нельзя потерять.
Дальше начинаются тесты. Мы пробуем первые варианты в GPT, смотрим, какие повороты камеры и какие формулировки держат стиль. Параллельно берём тот же смысл и пробуем в Nano Banana Pro. И уже по результату выбираем, где удобнее двигать и где меньше сюрпризов.
Иногда выигрывает GPT, потому что с ним можно разговаривать и поправлять по ходу, он реально слышит правки. Иногда выигрывает Banana, потому что там дисциплина, чёткость и меньше “уехало куда-то не туда”. Старый кейс, новые инструменты Чтобы не рассуждать в вакууме, я взял старую срочную задачу из прошлого. Проект для бренда, который лечит животных. Тогда нужно было показать игрушку под английского бульдога: одна половина убитая, проплешины, торчит вата, всё разваливается. Вторая половина нормальная, как символ того, что с лечением и кожей всё хорошо.
В прошлый раз мы тянули это два дня, ночами, на нерве. Рендер падал, времени не было, я сам довозил кадр руками. Это та работа, где не “творишь”, а вытаскиваешь.
Сейчас мы сделали то же самое иначе. Взяли идею, собрали рефы, прогнали через GPT, получили базовое описание и промпт. Потом этот же промпт протестировали в Banana. И получилось интересно.
По персонажам мне, честно, больше понравился результат GPT. Он лучше держит характер и вариативность, особенно когда в кадре несколько героев. Banana на этих тестах показалась спокойнее, чуть скучнее, хотя по деталям она умеет очень хорошо, если держать промпт жёстко.
Я прикладываю картинки из этого эксперимента. Попробуйте угадать, где результат из GPT🤞, а где из Banana🍌. По стилю они уже близко, и это как раз главный сигнал, что мы идём в правильную сторону.
Отдельно пробовали чёрных терьеров. И вот тут обе модели нас подвели. Не катастрофа, но именно тот случай, когда понимаешь, что “волшебной кнопки” пока нет.
Промт: добавлен в комментарии
У GPT есть боль. Он не даёт 4K. Но это не проблема, если пайплайн собран правильно.
Мы делаем так. Сначала в GPT добиваемся сцены, которая нам нравится по смыслу и стилю. Берём этот результат и перекидываем в Nano Banana Pro. Там уже докручиваем детали, доводим масштаб, выходим в 4K. Потом забираем финал в Photoshop и приводим в боевое состояние.
Получается связка, где каждый делает своё. GPT отвечает за управляемость и диалог, Banana отвечает за качество и финальную плотность.
Что будет с Midjourney На следующий год мы от подписки Midjourney, откажемся. Если они оживут и начнут снова быстро развиваться, вернёмся. Пока ощущение такое, что мир побежал дальше, а нам нужно быть там, где можно управлять, а не угадывать.
📍 Если коротко Мы в Ojo перестраиваем пайплайн. Сначала идея и референсы, потом тесты в GPT и Nano Banana Pro, выбираем инструмент под задачу. GPT берём за управляемость и диалог, Banana за 4K и качество. Midjourney остаётся красивым, но всё чаще мешает, когда нужна точная конкретика.
#нейросети #дизайн #Ojo #pipeline #gpt #nanobanana #midjourney
В этом посте были ссылки, но мы их удалили по правилам Сетки
· 29.12.2025
Мир не стоит на месте
ответить
коммент удалён