Обсуждение Перекрашиваем Gif анимацию в Stable Diffusion с использованием ControlNet

Pixe2020

Premium
Команда форума
Premium
Регистрация
04.02.2023
Сообщения
66 672
Реакции
45
Баллы
48
Native language | Родной язык
Русский
Друзья, я понял, что один не смогу протестить все возможные варианты для простой и быстрой генерации классной гифки на основе собственного персонажа.



Поэтому давайте использовать наше секретное супер-оружие, наш коллективный нейро-разум. Сейчас я вас научу. И каждый попробует свои варианты и вместе мы в разы быстрее найдем оптимальные настройки и характеристики, так развивается и работает опенсорс мы тоже можем применять этот подход.


167657852324971430.gif



Что нам понадобится:



1. Раскадровка гифки, одна штука. Как сделать, взять готовую гифку с интернетов, и раскадрировать любым доступным способом, я это делаю в Adobe Primer, можно сделать и онлайн гайд например вот



2. Актуальный с расширением и к нему, или еще есть версия моделей, тоже должна работать так же. Как работает ControlNet и как установить в этом . Можно и в коллабе.


Погнали​



Что нам надо от гифки, чтобы её фон не сильно менялся, чтобы сами движения персонажа не пересекались между собой, т.е. руки и ноги, это пока работает плохо. Я возьму вот такую , разрешение у неё не очень, но нам это не принципиально мы будем генерировать в большем разрешении.


167657852328473034.jpg



Теперь я раскадрирую гифку в Adobe Primer, но вам подойдет и способ по проще из пункта 1.



У меня получилось вот так, что-то подобное должно быть и у вас. Важно чтобы кадры были не смазанными и хорошо читались.


1676578524272126367.jpg



Подготовка исходника завершена.



Открываем txt2img и задаем промпт, генерируем пока у нас не появится персонаж который сможет занять место на гифке.


1676578525289822301.jpg



Отправляем все кнопкой в img2img, чтобы перенести и настройки генерации.



Я попробую сделать гифку на основе модели openpose, вы попробуйте в разных моделях и с разными настройками. Про разные модели рассказываю в . И не забывайте про галку Enable, без неё расширение не включено.


167657852427930694.jpg



В img2img выставляем ваши любимые настройки, тут у нас задача поставить такой Denoising strength и так скорректировать промпт, чтобы персонаж нормально рисовался на кадре из гифки, пробуем несколько разных кадров, смотрим чтобы все ложилось. Я зафиксирую сид. Но это не обязательно и не то чтоб сильно помогает.


1676578525232882032.jpg



И теперь важный момент без которого ничего не будет работать, разработчик ControlNet явно хороший парень, но у него как и у многих не отбит педрильник (да я взял эту фразу сами знаете у кого). У меня пол дня ушло чтобы понять почему не работает пакетная генерация, оказалось все очень просто, этот отличный парень в пакетном режиме не сделал сохранение для карты которую генерирует для каждого изображения ControlNet и автоматик просто крашился не зная что делать с лишней картинкой. Исправлять это по законам жанра костылями. Идем в Settings, находим в списке слева ControlNet и ставим галку Do not append detectmap to output, теперь созданные для каждого изображения карты не будут сохраняться и проблема как бы решилась сама собой 🙄


1676578524278188785.jpg



Возвращаемся в img2img, где у нас все готово и открываем вкладку Batch, тут мы указываем папку в которой лежит раскадровка от гифки и выходную папку куда сохранится результат. При желании можно еще сгенерировать маску, например через Depth и указать путь к маскам, но это сами уже попробуйте и расскажите что получилось.



Можем генерировать.


1676578526220744825.jpg



Напоминаю, что все скрипты доступные для img2img доступны нам и в пакетном режиме, одновременно с ControlNet. Так что дальше дело ограничивается только вашей фантазией.



А у нас тем временем все готово, на выходе папка с кадрами, теперь надо собрать все обратно. Можно использовать любой видео редактор, Photoshop или вот онлайновую штуку, гифку ниже я сделал в ней.


1676578525250759025.jpg


1676578526288410132.gif



Друзья, вот такой результат получился у меня.



Чего бы мне хотелось добиться, это не допускать мельтешения и сильного изменения, психоделии, но если уменьшать деноизинг то ничего не остается от нашего персонажа.



Используя ControlNet мы можем ставить деноизнг даже на единицу, чего я никогда не делал при обычно img2img, и получать полное дублировании позы через любую из моделей, но от этого тоже постоянно изменяется фон и одежда.



Поэтому если кто-то найдет оптимальную комбинацию настроек, или может быть какой-то правильный способ подготовки исходника, чтобы можно было быстро добиться более хороших результатов - дайте мне знать. Возможно собака зарыта в настройках ControlNet, весов или в одной из моделей.



Думаю вместе мы быстрее найдем нужный пайплайн. Жду ваши работы в комментах и в чатике.



---



Мой , все секреты и советы, мои работы, промпты и многое другое только в нем.



В , попросить картинку, поделиться опытом, задать вопрос сюда.



Поддержать меня можно на , там выложены лучшие сеты и можно получить доступ в секретный чатик.
 
197 950Темы
634 920Сообщения
3 618 386Пользователи
Grogus23Новый пользователь
Верх