только вкатился в ван2.1 а тут 30сек/ит на 4060ти 16гб посоветуйте норм воркфлов чтоб не 15 минут аутировать а хотя бы 5 я сам пробовал поискать но пока поел говна мб свап блок поможет там написано модель вся не лезет
>>1305349 Вкатывайся в 2.2 сразу. Качай видосы из предыдущего треда и перетаскивай в комфи. Должен быть установлен VideoHelperSuite. Ну или просто зайти в custom_node/WanVideoWrapper/example_workflows от Киджая.
Ну что вы, вановцы? У кого-то нормально получилось с новыми лайт лорами что-то генерить на 4 шагах? У меня ниже 6 качество страдает (типа зернистость появляется на видео). И, как в прошлом треде говорили, только с лоу лорой, а на хае старая лайт лора стоит от вана 2.1
>>1305862 Я уже на 8 перешел лол. И цфг хоть полторашку. Ждать дольше, но в 2 раза больше времени тратится иначе на бестолковые генерации годные лишь на удаление, в итоге вообще просто просранное время.
пока сижу еще на 2.1, заметил что лайт лора сильно меняет лицо в i2v, причем каусвид хоть и в слоумо был, но персонаж всю генерацию оставался похожим, кто знает чем фиксить?
Чет потыкался в 2.2 5B и какая-то ерунда получается. Промпта оно почти не слушает, в аниму не умеет нифига, так еще и ограничение по времени всего 5 секунд на 3090. Чем это лучше того же фреймпака?
>>1306758 И, кстати, почему фреймпака до сих пор нет в шапке, если это лучший на сегодня вариант генерации видео? Зато комфи зачем-то есть, в котором хуй разберешься
>>1306767 >И, кстати, почему фреймпака до сих пор нет в шапке, если это лучший на сегодня вариант генерации видео Никому не нужный кал с 3.5 лорами на цивите > Зато комфи зачем-то есть, в котором хуй разберешься То что ты не смог разобраться в комфи отлично показывает что ты не разбираешься в том что сейчас лучший вариант генерации видео (а это ван 2.2)
>>1306866 > Никому не нужный кал с 3.5 лорами на цивите
Толку от этих лор, если базовая модель нифига не работает?
> То что ты не смог разобраться в комфи отлично показывает что ты не разбираешься в том что сейчас лучший вариант генерации видео (а это ван 2.2)
Вот только фреймпак мне выдаёт нормальные видосы любой длины, а с ваном мало того, что ограничений куча, так еще и качество где-то на уровне плинтуса.
>>1306893 Да нафиг мне твоя порнуха? Вот тебе картинка анимешная, санимируй мне её ваном так, чтобы девочка встала, подошла к камере и улыбнулась в неё. Сможет он в такое без тонны артефактов? Да нихуя подобного.
>>1307488 >Вот тебе картинка анимешная, санимируй мне её ваном так, чтобы девочка встала, подошла к камере и улыбнулась в неё. Сможет он в такое без тонны артефактов? Да нихуя подобного. Ну давай, найди к чему доебаться. И заодно покажи пример с фреймпака
Отцы вановцы, объясните почему происходит такая штука: когда я генерю следующее видео (сид конечно же рандом) и к примеру на 70% перелопачиваю промпт на другой, меняю камеру и другие детали, то всё равно это новое видео очень похоже на предыдущее. Словно модель использует какой то свой буфер в целях экономии ресурсов или пытается угадать мои желания, ну или сохраняет какие-то значения. Починить это можно чаще всего только вообще закрыв комфи и перегрузив модель или целиком изменить промпт и сэмплер. На некоторых генерациях картинок в старом форже тоже помню подобное попадалось и это сильно бесило. Отчего это зависит вообще? Из не SD моделей где такого почти не встречалось - Хрома, она при повторной генерации может часто вообще совершенно иную картинку делать, прекрасно понимая любые изменения промпта. Это от модели зависит или нет? Пробовал разные энкодеры и пока что выяснил что от энкодера точно не зависит. Попадается и в обычном ван2.1 релизном и в ускоренных лайт вариантах для low cfg
>>1307546 Не, я точно не любитель навороченой наркомании, совершенно стандартный воркфлоу почти как в шаблонах комфи на их вики, в нем только нужные лоадеры, powerлора для лор, ван2видео, ksampler, videocombine, вот прям вообще ничего лишнего. Пробовал разные воркфлоу с цивитая и везде эта штука попадалась. Мыслей как это победить без полного перезапуска комфи и перезагрузки модели пока нет, может пакостит какая то хитрожопая буферизация или оптимизация со стороны то ли питонового бэкенда то ли самого комфи.
Объясню на примере как это у меня выглядит. Допустим загружаем стандартный шаблон wan2.1 t2v и все указанные там модели, пишем стандартный промпт из комфи про бегущую по снегу лису. Сид рандомный. Правильно ли я понимаю что при каждом нажатии Run лиса может меняться, быть больше меньше бежать в разных направлениях с разной интенсивностью и будет меняться угол обзора? Вот у меня, к примеру хоть 10 раз ничего не меняя Run нажмешь и все 10 видео будут крайне незначительно отличаться, лиса будет бежать примерно одинаково в ту же сторону, возможно слегка фон будет иным, но не сильно, т.е. всё выглядит так что sid нифига не рандом, а работает как вариационный с незначительным отклонением.
>>1307539 Красава анон, хорошо приложил фреймпакодауна, уверен что фреймпак обосрется с такого реквеста, ну оно и сразу было понятно, нормальные люди бы пример с фреймпака приложили к картинке дабы продемонстрировать "величие" фреймпака.
Спустя тысячи полторы генераций вернулся к тому из за чего собственно начал. Мечте анимировать данный пик. Блядь, как же просто напихать кума и вытряхнуть во все дыры простую бабу на фото, не то что с артами. Вроде что-то получается, но совсем или не совсем то что хочется. Плюнул в итоге и сделал костыльную склейку. Обожду до новой видюхи, я ебал столько ждать всякий кал, как тут модно говорить.
>>1307541 +1, тоже не могу разобраться с этой хуетой. Если разберешься, маякни. Я пробовал даже cfg поднимать с 1 до 3.5, один хуй, мало толку. Подозреваю что этой ржавой хуйне надо писать неебически подробный промпт с описанием движения каждой молекулы в кадре.
>>1307750 В любом случае там будет лапша, вот мой ВФ для генерации 4 последовательных видео для ван 2.1, если 2.2 будет - считай все на 2 умножать надо как минимум.
Но это если для каждого видео отдельные лоры подставлять, если просто последовательно на одних лорах генерировать то только правая часть понадобится.
>>1307633 Справедливости ради, хуйня же. Фреймпак хорош в idle-анимациях и быстро генерит до 2 минут. Всякие танцы и еблю, если хочется долгое, лучше генерить там, 100% проверено. Но это ситуативно очень, в большинстве случаев лучше генерить короткие ролики, а ван2.2 с промптом работает отлично, фреймпак куда слабее в этом плане, ибо модель старая и файнтьюн сам по себе экспериментальный, главное там работа атеншена. =) Это же пруф оф концепт, по сути.
Правда, нахуя юзать фреймпак не в комфи — тоже не очевидно.
>>1307759 Видеокарта влияет только на разрешение и количество кадров. Хоть на 6 гигах генерь, хули.
И, да, я специально проверял — генерил и фреймпаком, и ваном на 6 гигах. =) У фреймпака тоже выгрузка модели в оперативу, и тоже объем врама влияет только на разрешение (а количество кадров уже без разницы за счет механики контекста).
———
Но вообще, ИМХО, он троллит, а всерьез фреймпак даже не запускал.
>>1307854 Есть хоть один пример айдл анимации с этого фреймпака, ну хотя бы 30 секунд. Только и разговоров о том что он хорошо в ней, а по факту 2 ролика всего было когда он вышел и все, качество роликов при этом было отвратительное на уровне хуньюаня.
>>1307541 используешь teacache? может быт из-за него.
>>1307759 >Отлично, а теперь давай так, чтобы это на обычной карте с 24 Гб VRAM можно было сделать. лоооооол, у меня первое видео из этого поста >>1306893 сделано за 6 минут на 3070 с его 8 ГБ (если разгоняться, можно и за 3 минуты).
>>1307859 Я кидал в прошлых тредах. И кучу не кидал. Люди просто не хотят видеть, потому что это рушит их маня-мирок. Но сейчас, де-факто, она не нужна, канеш. Следование промпту > 2-минутной идл анимации. Плюс, лайтв2х слишком геймченджер. Пусть хуньюан вдвое быстрее вана, но 16 степов против 4… ну ты понял.
Типа,это для очень сильно любителей, для узких задач. При всей моей любви к фреймпаку, я его не запускал уже месяца два, с момента первой лоры-ускорялки.
Если бы к вану еще приделали атеншн фреймпака и дообучили на 2 минутах — цены бы ему не было. Но это мечты.
Сам спрашивал про длинные видео сам и отвечаю. Как раз после моего поста выложили такой ВФ https://civitai.com/models/1851648/wan22-highspeed-freelengthloop-processing-i2v-workflow-for-your-scenario Компактный и красивый, в котором даже ллм подтянули если надо (можно выключить). И интересная штука используется для того, чтоб вф понимал сколько тебе надо видео сделать, какой длины в секундах и какой промпт в каждом видео. В промпте пишется например 5| твой промпт. На следующей строке 3| и твой промпт и так далее.
>>1307756 ночью сидел пытался с этой хренью разобраться, да просто генерил туеву хучу мелких видосов 208x208 с разными параматреми, всё очень на похоже на ваше предположение. т.е. часто наблюдалась определенная зависимость количества описания деталей и последующего изменения в последующих результах (при одинаковом cfg), т.е. условно если не описать что 'негритянка лежит на черном диване с фиолетовой подушкой' то модель всегда будет рисовать какую то одинаковую морду на базовом белом диване одинаковой формы и размера. Странно что некоторые модели почти нечувствительны к такому и очень хорошо 'фантазируют' без каких-либо деталей, а вот у других моделей подобная хуета не редкость. Тут должен появится эксперт по бэкэнду моделей чтобы объяснить почему так работает :) Конечно можно сидеть спокойно на i2v уже со своими готовыми исходниками, но иногда требуется что-то с нуля сделать в t2v и вот там эта хуета сильно мешает креативу.
>>1308314 > 'фантазируют' без каких-либо деталей я еще с самого выхода в опенсорс вана заметил, что например на спейсе в хагге у них выходили куда более детальные видосики, и как я предполагаю, там у них просто под капотом стояла ллм-ка, которая ревайзит промп и добавляет деталей и описаний. У них даже в заметках на gitхабе где-то была ссылка на нейкую хрень, для помощи в генерации промптов, но так и не уделил внимания. Во нашел заметку https://github.com/Wan-Video/Wan2.1?tab=readme-ov-file#2-using-prompt-extension
>Конечно можно сидеть спокойно на i2v да в том то и прикол, что у меня и на i2v бывает вариативности ноль, со сменой сида, например, в каждом следующем видео одни и те же движения в тех же направлениях..
>>1308212 >показатель прогресса какой блядь прогресс, сука, уже 2 месяца одно и то-же настоебавшее говно! У вас там с фантазией хуёво совсем? Или своего нихуя нет, подрезал вф у китаёз и давай клепать... Нету меры - нет мозгов.
>>1308351 в одинаковую сторону подумали, я как раз на основании вчерашних экспериментов запланировал в воркфлоу кастомные ллм добавить, для того чтобы 'побогаче' промпты стали
>>1307541 >>1307756 >>1308314 Ван тут причем? Это обычнейшее поведение любой лоры, сильно ограничивать базовый стиль модели, пока руками не начнешь лезть всё править. Хотите креатива юзайте ван без ускорялки
>>1308469 в базовых шаблонах как раз никаких ускорялок, при этом отсутствие 'фантазии' у модели встречалось постоянно, но кстати в wan2.2. намного лучше с этим, сейчас провожу тесты с маленькими промптами и она довольно часто меняет и фон и персонажей и положение просто при нажатии run без каких либо изменений в промпте или в параметрах сэмплеров, а лоры вообще не при делах, я накидал ради интереса ускоряющих лор, по прежнему всё довольно разнообразно, так что тут дело видимо все же в самих моделях и как они внутри себя обрабатывают данные
челики, я что-то не одупляюсь, решил для теста скачать t2v wan2.2 fp8 scaled модельки, сунул обычные юнет ноды вместо ггуф-овских и в результате получаю какую-то хуету, типа той, как если лепить 4-8 степа без ускорялок, т.е. молоко... ЧЯДНТ ? т.е. я тупо поменял модели с ггуф на фп8 и по логике же всё должно быть заебок? фп8 брал у комфи на хагге
>>1308843 Я все еще жду брандспойты с кефиром и горлоеблю, уже целых 8 часов анон ничего не выкладывал, у меня аж ломка началась, я весь трясуся. Анон, не издевайся, выложи хотя-бы скрин своего в очередной раз переработанного (улучшенного в тысячу раз) форкфлоу, ну нельзя же так издеваться! Имей совесть...
>>1308865 Бля это забавно >>1308035 Глянул твой ворк и увидел пачку из 5 других лор по мимо ускорялки, но реально снижение веса на high лоре увеличивает мувмент.
>>1307798 >>1307901 Ван на 14В требует 80 Гб VRAM, вы нафига троллите? На моей 3090 он вылетает с ООМ даже не начав генерацию.
>>1307854 > Видеокарта влияет только на разрешение и количество кадров. > Хоть на 6 гигах генерь, хули. > И, да, я специально проверял — генерил и фреймпаком, и ваном на 6 гигах. =)
Вот только у Вана всего два разрешения - 480р и 720р, никаких других вариантов нет. Модель на 5В и вовсе умеет только 720р. Сколько там кадров влезет в 6 Гб, десять? А тут якобы чел запустил 14В модель и ей сгенерил видео на 5 секунд на 4090. Пиздеж же очевидный.
> Но вообще, ИМХО, он троллит, а всерьез фреймпак даже не запускал.
Фреймпаком я как раз пользовался. Его результаты меня не то чтобы впечатлили, но для некоторых задач сойдет. Просто было интересно понять, почему все так фанатеют от Wan, если он по всем параметрам проигрывает... Не, я допускаю, что имея доступ к H100 можно получить неплохие результаты, но для домашнего использования он не годится.
>>1307855 До дома доберусь - попробую, если не забуду. Только будет это ХЗ когда, так что тебе проще самому сделать.
Блин конечно теперь такой нестабильный подход к генерациям. 2 вида ускоряющих лор 21 и 22, которые на удивление все работают с новой версией модели 22. Их все можно между собой миксовать, раскидывать веса и прочее, применять их можно по отдельности на разные модели, как high так и low. Старые лоры тоже ведут себя по разному в зависимости от этого, так ещё и переход от high на low можно дозировать. Просто пиздец какой-то. Не чувствую обещанного comfy
Еще отключи в NVIDIA настройку которая мешает выгружать модель в RAM. Даже с моделью в подкачке, при подключении лоры на генерацию за 4-6 шагов, выходит норм.
Что в словах > This command can run on a GPU with at least 80GB VRAM. тебе не понятно? Если ты знаешь какой-то секрет - так расскажи, я только спасибо тебе скажу.
>>1308935 Почему wan 2.2 можно запускать на 12ГБ VRAM: Модель Wan 2.2 оптимизирована для локального запуска даже на видеокартах с 8–12ГБ VRAM, причём 12ГБ уже вполне хватит для большинства сценариев. Это стало возможно благодаря использованию более компактных весов (квантизация) и продвинутой архитектуре типа Mixture of Experts, где разные модули отвечают за «скелет» движения и детализацию отдельно. За счёт квантизации и оптимизированных алгоритмов модель уже не требует фермерского железа – достаточно даже обычной RTX 3060 или 4060.
Что такое lightx2v: Это лёгкий inference-движок для видео-генерации, который работает с различными моделями (включая Wan2.2), поддерживает T2V (text-to-video) и I2V (image-to-video), и реализует быстрые алгоритмы генерации. Lightx2v позволяет сильно ускорить вывод и экономить VRAM: вместо стандартных 20 шагов генерации можно уменьшить до 6, не теряя сильно в качестве. А квантованные версии моделей (например lightx2v-rank32) используются для оптимальной работы на слабом железе.
Про квантизацию: Квантизация — это тупо сжатие весов модели: вместо 32-битных чисел они превращаются в 16 или 8 бит. Модель становится меньше, быстрее грузится и жрёт меньше VRAM, а разница в качестве если и есть, то минимальная. Благодаря квантизации теперь даже жирные модели типа Wan2.2 можно прогнать локально, а не через облако или арендованный A100.
>>1308940 Вместо того, чтобы срать нейропортянкой с очевидными сведениями, мог бы просто сказать "чекни lightx2v". Вот эту штуку я не видел, и в шапке её нет. И на том спасибо. Установка, правда, какая-то геморная... Но ладно, разберусь.
>>1308955 >Объясни. fp8 модели, позволяющие запускать ван на видюхах с 24 гб врам и меньше появились спустя неделю после выхода вана, ты или дурачок или троллишь, я хуй знает. полистай треды, тут и с 12 гб генерят видео и с 8гб видюхами, да не в 720p но 480p тянет спокойно с оффлоадом в оперативу, мин 5 генерить будет с ускорялкой я думаю, владельцы этих видюх скажут точно если надо
>>1308955 Ну как бы да, тут если хочешь нормальную генерацию себе локально, надо немного руками поработать. Всё современное оно такое: либо ковыряешься сам, либо платишь за облако. Без погружения и самостоятельного разбора вообще никуда, особенно с open-source штуками типа lightx2v — там каждый апдейт как квест.
Короче, если хочется «кнопку — и всё работает», лучше даже не начинать. А если реально разобраться хочется, придётся покопаться, ну и гуглить по-любому. Зато потом будешь знать, как оно всё внутри устроено.
>>1308960 У меня выше был вопрос - как эти кванты скормить референсному коду из репы? На него никто не ответил. Чел выше насрал выхлопом нейроты, из которого полезного ровно одно слово - lightx2v. И за это спасибо. И если бы мне его дали сразу, не было бы этого всего срача.
>>1308964 Я не совсем корректно выразился. Не столько "геморно", сколько "мокрописечно". Всего два варианта независимой установки, или докер, или конда, оба мне не подходят. Буду ковыряться, значит.
>>1308955 >очевидными сведениями bruh, ты два сообщения выше спрашивал элементарную базу, все уже 1000 раз обсосано в прошлых тредах, почитай немного...
>>1308970 Мини когда заебись, буквально за 3 строки ставится вся параша, если хочешь вкурить тему, то так будет даже лучше
>как эти кванты скормить референсному коду из репы Буквально нахуя? Чтобы что? Не заебался не поработал? Есть варианты инференса для людей, нахуя тебе эти качели?
>>1308970 >Всего два варианта независимой установки, или докер, или конда, оба мне не подходят. Буду ковыряться, значит. Я хуй знает через что ты там собрался пердолиться, но с ваном все работают через comfyui, как его поставить без особого пердолинга на ютубе полным полно гайдов
>>1308974 Никакой "элементарной базы" я не спрашивал.
Репозиторий LightX2V на гитхабе появился 24 марта 2025 года. Я понимаю, что по меркам современных моделей ИИ это ебать как давно и почему его в шапке нет до сих пор?, но лично я об этой штуке впервые услышал только сейчас. Квантованные модели Wan я видел, но код из официальной репы с ними, очевидно, не работает, а куда еще их приткнуть я понятия не имею, и НИКТО мне об этом даже не попытался сказать. Начали кидаться говном вместо того, чтобы потратить минуту времени и дать ссылку. Почему-то решили, что я не знаю, что такое квантование... Блядь, дебилы ебаные.
>>1308976 > Мини когда заебись, буквально за 3 строки ставится вся параша, если хочешь вкурить тему, то так будет даже лучше
Не, мне не нравится конда. Ну вот такой я ебанутый. Я и pip-то с трудом переношу.
> Буквально нахуя? Чтобы что? Не заебался не поработал? Есть варианты инференса для людей, нахуя тебе эти качели?
Буквально потому, что никаких других вариантов инференса мне никто не подсказал вот до этого >>1308940 сообщения.
>>1308979 Нет, я лучше сдохну, чем этот ебаный комбайн буду ставить. Он меня еще по генерации картинок люто заебал, выкинул его нахуй и сижу на фордже. Если LightV2X можно юзать без этой дряни, буду юзать его без этой дряни.
>>1308993 >Нет, я лучше сдохну, чем этот ебаный комбайн буду ставить. Он меня еще по генерации картинок люто заебал, выкинул его нахуй и сижу на фордже. Если LightV2X можно юзать без этой дряни, буду юзать его без этой дряни. Нельзя, увы. Придется тебе терпеть без видео и смотреть как другие генерят их в 2 клика за минуту.
>>1308994 В документации описано два способа standalone-установки и использования. Оба мне не подходят, но как минимум это означает, что его можно юзать независимо. В общем-то, в докер-файле все нужное описано, нужно просто проделать аналогичные действия в обычном venv.
БАМП вопросу >>1308701 закинуф опять ггуфы, все норм, нипанимаю.
а ещё подскажите хорохую модель апскейлера (для простой ноды апскейл с моделью), желательно 2х Я юзал BSRGANx2, чет шакалит, 4хClearRealityV1 получше, но ч4 излишек.
>>1309019 Короче стало ясно, что весь мувмент умирает от низкого cfg на high модели, а лора не сильно это все дерьмо спасает, подъем на любое значение выше 1 - увеличивает скорость гена на этом этапе в два раза. Если поднимать все же cfg на первом семплере, но делать не 10 степов, а 5 (подмешивая лору примерно на .25) и добивать это дело low noise моделью на cfg 1, то получается весьма живенько
Лол кто там пиздел, что скайнет близко? Мне сгенерировал klingai вот такой пиздец, когда я хотел аниме опенинг с порриджами Я взял нормальный промпт, а мне выдали такой кал. High-energy shonen anime opening, dynamic sakuga, cel-shaded, speedlines, smear frames, dramatic lighting, night city ambience, crisp lineart, vibrant colors, J-rock 160 BPM. Main character: use REF_HERO as reference — youthful “zoomer” face, round glasses, open mouth expression, meme vibe but stylized as anime protagonist. Scene 1 (under Japanese credits): interior, late night desk with pens/markers. Over-the-shoulder shot: the hero quickly draws and shades a poster; close-up on strokes and marker squeak. He raises the finished poster toward camera — use REF_POSTER exactly for the poster art (keep the text as on the image). Soft paper flutter, lens bloom. Japanese credits in white vertical type (ゴシック体) slide from top. Hard whip-pan transition on drum fill. Scene 2: villains appear one by one, each on a beat, low-angle reveals with name cards in Japanese:
Clock-Hands Villain — tall, slender, face like a clock dial, metallic gauntlets shaped as long clock hands; ticking SFX; cold silver highlights.
Beer Keg brute — squat barrel body with steel hoops, tap-fists, foam bursts when he punches.
Trash-bin ninja — urban green bin with hood-like lid, throws trash-shuriken, gritty alley dust. Finally, their boss steps from shadow — it is the same character as on REF_POSTER; the poster flies past and lands at his feet. All three underlings align behind him. Hero clenches fist; wind blasts, speedlines; freeze-frame standoff, logo splash, particles. Camera: dolly-in, whip-pan, quick push-ins on beats, 24 fps anime timing. Subtitles/credits: Japanese vertical names at screen edges, do not cover faces. Keep tone heroic, not comedic. Ultra-clean edges, no photorealism, anime TV-opening look.
Negative prompt: photorealism, CGI plastic skin, oversaturation, extra limbs, deformed hands, text warping on poster, glitch faces.
Эта поебота никогда не заменит реальную съемку. Просто потому, что для генерации связанного видео ресурсы растут экспоненциально. Когда делается склейка - по сути новая генерация, то покадровый контекст перестает быть связанным, начинаются логические нестыковки, меняется форма объектов и т.д. Я ещё не видел ни одного видео дольше 20 секунд, которое не содержало бы артефактов. Минута, максимум две - это вычислительный потолок для нейрохуйни в динамических сценах без заментных для глаза артефактов. В статике может минут на 5 выжмут. Пруфмивронг
>>1310254 Автомобиль никогда не вытеснит лошадь; Мобильный телефон никогда не заменит стационарный; Компьютеры никогда не заменят бумагу. И т.д. Придумают перма/сперма память типа лор или прочей залупы, будут клепать нейро игры, нейро фильмы, нейро что-угодно, прогресс не остановить, просто ты взял текущее состояние, а именно зародыш и выставляешь ему требования, потерпи и удивишься
>>1310254 >Когда делается склейка - по сути новая генерация, то покадровый контекст перестает быть связанным, начинаются логические нестыковки, меняется форма объектов и т.д. Принципиально, это вполне можно вылечить просто двигая контекст, так, как сие происходит с текстовыми моделями. Т.е. примерно так: рендерим 5 секунд, отбрасываем самую раннюю секунду и рендерим еще одну - с учетом оставшихся 4-х. Повторяем. А детали персонажа держит лора.
Как понять что я скачал... На помойном цивите, естественно, это уже удалили. Попытался даже сопоставить историю просмотров и время загрузки, но тоже не находит удаленной лоры. У вас нет её с подгруженной метой? Алсо, как через PowerLora вызвать синхронизацию меты сразу для всех файлов и папок, а не дрочить их по одной? Видать, через скрипт, но как?
>>1310725 Вот это самая большая проблема с лорами, триггерные слова хотя бы вшивались куда то где их достать можно было, а то дофига вот таких называторов "C400_XDkass_kka" и понимай как хочешь что это такое и инструментов нет, благо хотя бы можно посмотреть для какой модели лора.
>>1310264 Ага. Только вот: Термоядерный синтез соснул. Космос соснул. Топливные элементы соснули. Квантовые компьютеры соснули. Нейроморфные чипы соснули. Самое близкое и что видели вживую все - VR соснул, а какие надежды были. С нейронками сейчас никаких границ не видно, но кажется, что их скрывает не ослепляющее сияние светлого будущего, а пердежный туман хайпа. Короче физика всех поставит на место.
>>1310900 >Э не браток, вот тебе пример как раз с движением контекста В виду, допустим, ты кидаешь реф на место, и +\- у тебя окружение соответствует референсу. На лоКАЛе это же можно с помощью васи делать (бэкграунды я там не проверял). Так же простой способ обойти ограничение - зеленый экран. А помещение можешь потом отрендорить. Но я б конечно не стал фильмы с нейрокалычем снимать. В индустрии Джо Сталины стоят в очередь за миску чипсов и они делают строго как им скажешь, максимум надо рольнуть 1-2 раза, а не 90 000 на фильм.
>>1310264 Удобно выбирать удобное. Чё-как там клауд гейминг, чмонь? Стадия небось бабки щас лопатой гребет, датацентр третий в техасе строят? На фоне дефицита гпу это же золотая жила! Ой, как в США нет нормальной скорости в интернете? Как в РФ два кабеля на 70% территории? А что случилось?
>>1310909 >триггерные слова хотя бы вшивались куда то где их достать можно было Ты не поверишь... В лорах вшита метадата в начале файла. И триггеры там. >инструментов нет Открой hex-редактором
>>1308870 Движение между склейками не сохраняются, также то что за пределами кадра тоже не сохраняется. Если с движениями еще можно решить, для этого нужна модель которая бы принимала на вход не один последний кадр, а несколько, ну как это делал VACE или skyreels v2. То сохранение истории всего контекста это наверное нужна вообще другая архитектура модели, с возможностью отвязать контекст от изображения, или учитывать все предыдущее видео для генерации нового кусочка, сделать такое брутфорсом наверное не получится из-за оом, нужны именно какие-то алгоритмы чтобы модель на вход брала все видео, частями его анализировала и учитывала для генерации нового.
>>1310922 +\- не равно такое же, будут вещи плавать при повороте камеры, ии начнет путаться что куда подставлять, ему надо как то давать 360 градусов карту окружения, тогда возможно он будет пытаться сохранять окружение, правда его надо сперва научить ею пользоваться. Видел подход в блендере на скорую руку мастерят окружение выставляют камеру и персонажей и делают промежуточные кадры потом прогоняют через нейросеть и получаются относительно неплохие, консистентные видео, даже без тренировки лор (но тут модели персонажей нужны, что нифига не легче)
Вообще там одни сложности, консистентность персонажа даже с лорами остается под вопросом стоит ему немного уменьшится на кадре. Чем ближе он к камере тем лучше качество и детализация - чем дальше тем больше в мыльную парашу превращается, такое даже на вео3 видно.
Склейка тоже нифига не простое дело даже при последовательной генерации ии воспринимает последующую генерацию как новую, и если скажем там по позе персонажа не будет очевидно что он делает сетка может запутаться. Опять же на том видосе >>1308870 очень хорошо эти видно после того как он пинает мусор, отходит назад и останавливается в позе где не понятно они идет вперед или назад, по факту он заканчивает движении назад. Но тут наступает следующая генерация с промтом "идет вперед" и он не закончив шаг назад сразу шагает вперед.
И таких нюансов куча, не говоря уже что потом часами надо остматривать досконально весь нагенерированный материал. Там в культовых фильмах под старину самолеты и современные часы умудряются проглядеть, а тут ии нагенерить может целую кучу подобных артефактов на квадратный сантиметр экрана.
В общем слишком много сложностей при в целом не очень понятных профитах.
>>1311213 >игровые движки и кино это немного разное ну и движки уже используют в кино, в том же мандалорце задник на анрил энджн, да и 3д генерация сейчас уже начинается. А потом все скомбинируют и всё...нужны только денежные заинтересанты всего этого.
>>1311083 >так вот же по факту зачатки ИИ игр Хуйчатки. Они не могут просто видео стримить, стадия умерла, а ты предлагаешь стримить+генерить на скороварке. Ебанутый?
>>1311301 ты еблан сам себе напридумывал что-то, а меня спрашиваешь. где я тебе написал, что это будет для простых смертных транслироваться? Суть в том, что это реализуемо, тупень ты неотесанный. На данном этапе ты корпам нахуй не нужен. Да и стадия - это просто удобный для случай. Передавай привет соне\майкам\нвидии и боже упаси вкшечке
>>1311303 ну а что, когда человечество придумало колесо, в ту же секунду не появились автомобили и велосипеды. Придумав реактивный двигатель, они сразу же не улетели в космос. Всему своё время. Я канешн понимаю, что современный тупой скот взрощенный на фортнайте и тиктоке хочет всё здесь и сейчас, но он может пойти нахуй и подождать. Люди раньше добираясь из пункта А в пункт Б детей из пиздюков в охотников выращивали)
>>1311287 Там используют движки для рендеринга сцен, а в данном случае нейросетка заточена чтобы генерировать игру, разные цели и задачи. Такое можно использовать ситуативно только, в паре сцен, целый фильм не снимешь.
>>1311325 Ты говоришь с позиции сейчас. А там тебе не тридесцену нарисовать. Нет даже инфраструктуры чтоб видео стримить, понимаешь? Только на её развитие уйдет лет 200. Когда-нибудь - да. Но сейчас это как в 17 веке глядя на фейерверк говорить что ты в космос на нём улетишь.
>>1311312 >Суть в том, что это реализуемо, тупень ты неотесанный. Я за последние три дня сгенерил где-то 2 часа суммарно нейровидео. За полгода - можешь себе представить. На кого-ты сявку разеваешь, ебань? Сделал три пятисекундных ролика в веоговне и потёк? Ебало подвали, в отличии от тебя я понимаю технические ограничения трансформеров.
>>1311326 да нахера вы мне всё это рассказываете? вы тут ей богу как трамваи однорельсовые. Калькуляторы когда-то тоже могли только в сложение и вычитание.
>>1311330 >лет 200 ебать, алло, 100 лет назад люди не знали что такое реактивный двигатель, про космос только слышали, а уже Вояджер 1 уже 47 лет 8 месяцев 25 дней летит в космосе.
Я уже на встройке проца могу дум3 пройти на максималках. Алё. Пиздец вы.
>>1311333 >а уже Вояджер 1 уже 47 лет 8 месяцев 25 дней летит в космосе. Чё как там база на луне? Сколько ОС вокруг Земляшки? Какие планы там на отечественный космотуалет?
>>1311345 >шел бы ты нахуй петушок То есть ты в двойне тупорылый.
>но про другие ты конечно же промолчал Так ты ебло тупое, вконтакт забрал мейлсру, а другое - это локаизация серваков нвидии в РФ. Ты где про это слышишь? Кто этим пользуется? Там очереди небанутые, цены тоже. Лаги моё почтение. Клаудгейминг помитмо прочеего, если ты не в курсе, добивали майнеры.
Скачал этот ваш фрейпак снова, но чуда не случилось, на 6 гигах как не работал так и не работает, ООМ даёт. Я думал за это время они там пофиксили его. Тут бегал гуру фреймпака, рассказывай, как лечить?
>>1311425 Кал там, есть уже ван 2.2 с ускорялкой, там и физика и понимание промпта и консистентность. Лучше 4 раза по 5 сек генерить чем идлепак на хуйняне.
>>1311452 >ван 2.2 Да знаю я что он есть, юзаю. Просто тут недавно один за фреймпак топил, вот и решил снова прочекать. Как обычно 30+ гигов хуйни накачал и не стартует.
Может кто шарит, есть ссд на 500гб, когда на нем в районе 100гб свободных, комфи и другие приблуды для генераций начинают оч долго грузить модели, примерно раз в 10 медленнее, чем если есть 130+ гб свободного места, сам комп тоже дико лагает, при этом скорость самой генерации такая же,игры и тд все без лагов идут также, как то можно это пофиксить кроме покупки доп ссд/освобождения места? Вроде памяти то дохера еще свободной
>>1308920 > Вот только у Вана всего два разрешения - 480р и 720р любые близкие разрешения работают так же хорошо от 272x480 до 1920x1080 проверено
> Пиздеж же очевидный. нет просто у тебя нулевой опыт. ты начитался папиров а как это работает здесь понятия не имеешь мы ж не голые трансформеры загружаем ало дядя!
>>1308933 квантиазция тут не причем вся фича именно в выгрузке модели в оперативу можешь гонять оригинальные веса скорость не отличается только, занимаемое место в оперативе
>>1308935 ты такой угарный то ли глупенький как хлебушек то ли троллишь глупостью не знаю даже
все уже последние полгода запускают в комфи, все работает, модель лежит в оперативе а не в видеопамяти, контекст у вана не 10 кадров на 6 гигов это проверяется экспреиментально ты вообще имаджинируешь уровень своего обосрамса? ты пришел в тред где десятки людей ежедневно генерят кучу видео и начинаешь рассказывать им что они творят магию (которую творят тысячи людей по всему миру благодаря комфи с киджаем)
запредельный уровень некомпетенции и самоуверенности
>>1311425 Все просто. Если мне память не изменяет, выводишь в максимум gpu preserved vram — это место под контекст, моделька вытесняется в оперативу (да, это капец странно работает). И разрешение не может быть больше определенного (HD в 6 гигов не влезет). Начни с 320x320 и 6~12 гигов резервед, а там повышай разрешение, глядя на заполненность. На фреймпаке с задранной резервед и низким разрешение словить оом невозможно, либо косяк комфи, либо картинку пихнул больше, а презервед выставил маленький.
Но, я повторюсь, с ваном и воркфлоу на длинные видосы уже вроде и не надо, получается. Лайтх2в дает выше скорость, чем фреймпак попросту.
Но я присоединил к киджаевскому вф ноду WanVideo Context, и теперь idle-анимации и ванвидео генерятся. А за счет лайт-лоры — вдвое быстрее. Так что смысла во фреймпаке теперь точно нет.
Единственный минус, WanVideo подает на вход каждый раз оригинальный кадр и пытается привязать анимацию к нему. А не использует последний из предыдущей генерации. Но может я воробушек и не понимаю. 245 кадров = 81 х 3 = три промпта записанный через |
Man laughing. | Man crying. | Man surprising. Мужик 5 секунд поржет, 5 секунд поплачет, 5 секунд поудивляется.
Но для идл-анимаций сойдет. Что важно, WanVideo Context НЕ жрет дополнительную видеопамять! Только потерпеть остается. =)
Заметили как всем резко стало похуй? Лоры вышли и ничего не изменилось, потому что сраные, блять, 5 секунд. Мои видео только разгоняются на 5 секунде, что мне с этим прикажете делать? Ну хорошо у вас 5 секунд, дайте инструмент чтобы генерировать их по цепочке создавая видео длиннее, не костыли на коленке которые тут постят
>>1312512 >5 секунд я думаю, это такой метод подстроиться под тиктоки и шортсы, а там 5 секунд хватает, чтобы привлечь внимание всякой "крипотой" и кринжем. Как-то так. А дальше в дело идут просто склееные кусочки. Таким же макаром делают всякие ролики типа "я подобрал зяблика на улице", а потом иду просто склейки разных сабджектов.
>>1312349 Не, ему похуй, я и аватарку ставил 128х128 и иодин шаг с 1 секундой и 32 гига в резевед, видимо просто с 2060 на 6гб оно просто не работает. Похуй, удалил это..
>>1312599 Нафиг 48 гигов-то? :) Даже на 12 делается. Но там после 9 секунды совсем хуйня получается, промпта не слушается просто вибрирует в кадре и все, ноль осмысленности движения. 5 секунд надежно, 6-7 генерит норм в 70% случаев, в 30% лупится, а 8-9 секунд уже норм генерит в 10%-20% случаев, больше 9 всегда хуйня, к сожалению.
Т.е., проблема в том, что модель обучали на 5-секундных роликах.
>>1312551 Это скорее длина роликов в датасете на котором тренировали модель, если длиннее она тупо не знает что делать дальше. На 2.1 были потуги с продолжением видео по нескольким кадрам, склейки даже и видны не были, но все равно к 20 секунде качество начинало деградировать, может для 2.2 запилят что-то получше. Мне даже не нужны эти сраные лоры ускорения, которые руинят качество, я готов подождать если будет хорошее качество удлинения видео.
>>1312512 >сраные, блять, 5 секунд Шизик ебанный. Мне нахуй не всралось больше. Ну, лично мне пока впадлу качать 2.2, и глядя на то, что генерят она какая-то дерганная, нереалистичная, хоть и более вариативная, поэтому желания нет. А в своей десяти тысяче не разобрался, сейчас скриптом тягаю мету и пытаюсь отсортировать и отфильтровать, оставить лучшие генерации и воркфлоу.
Они тебе в первый день дали инструмент для генерации бесконечных видео. Хули толку, что ты его не можешь взять в руки, слишком сложно, вместо этого бьешь головой об стол и спрашиваешь почему не делается.
>>1312882 > чтоб слоумо не было Новый лайтнинг на 0.5 ставь если юзаешь, а старый не выше 2.5. Это на хае. На лоу нойзе не вижу смысла юзать что-то кроме старого с весом выше 1.3-1.5. Моушен лоры на хай нойзе вес 1-3, на лоу нойзе не больше ~1
Вот проблема привязки Киджаевского контекста к первому кадру. На малых анимациях не видно, но там где девушка встает, следующее действие —она сразу сидит, потому что на первом кадре она сидит. Если кто знает, как продолжать киджаевский контекст не с первого кадра, а с последнего кадра предыдущей генерации — будет круто. 7 минут на 4070ti.
Анон, вопрос. Довольно часто при генерации i2v из иллюстрации персонаж(персонажи) начинают пиздеть. Каким образом можно прописать в позитиве чтобы они молчали ртом? Ни mute ни silent ничего не помогает :(
>>1313042 Всегда рад, коллективным разумом допирать легче. =) Обрати внимание на мульти-промпт, через | , даже в консоли это пишется, что он поймал. Ну, я думаю, ты и так понял, да. Будет думать и экспериментировать.
Аноны, куда вкатываться, что изучать, с нейросетями знаком поверхностно, с видео никак мне нужно делать 5-10 секундные видео, в основном это будет спорт и могу ли я например скормить нейросети фотку лица и она сделает мне видос с чуваком с этим лицом если нужны спеки компа то 32гб оперативы, 4070с, 5950х
>>1313066 Я хз, я взял его вф и просто допиливаю под нужды.
>>1313074 Потому что Киджай всегда на старте делает гораздо лучше нативной, а нативные срут под себя кашей пикселей. Потом нативные выпрямляются, становится все клево, но у меня уже есть вф Киджая со всеми настройками. =) В любом случае, хороший натив — это 50% Киджаевских нод в итоге.
Хотя я согласен, что блоксвап вручную — это неудобно, и натив тут гораздо пизже.
Опять же, вот щас, переходить на натив, разбираться со всем этим, но завтра Киджай выкатит опять какую-нибудь фичу, которую в нативе решает воркфлоу на тыщу нод, и эээ…
Короче, просто так сложилось, не более. У меня нет каких-то весомых аргументов в пользу Киджая.
>>1313081 > нативные срут под себя кашей пикселей Судя по видосу это у тебя качество на дне, ведь киджай нормального семплинга не завёз. Литералли на говне сидишь и защищаешь его. Даже на 4 шагах так мыльно не должно быть как у тебя.
>>1313097 Бля, ну не сри себе в штаны, чел. Я не защищаю киджая, в отличие от тебя. А когда на старте все выкладывали — на нативе была хуйня куда хуже.
Но вопросов нет, у тебя есть первый кадр, есть промпты. Просто сделай на нативе такое же 32-секундное видео на 4 кадрах с меньшей кашей, без вопросов. Натив же круче, проще, лучше.
С удовольствием возьму твое вф. Я за Киджая не держусь, не фанбою. Похую, ваще. Давай видос с вф.
>>1313107 > С удовольствием возьму твое вф. Может за тебя ещё сгенерить? Ты пришёл с вопросом - тебе ответили делать но нормальных нодах. Что за мантру про "раньше было хуже" завёл, важно то что сейчас ты пользуешься говном.
>>1313128 С каким нахуй вопросом я пришел? Воробушек, пей таблетки. Я просто принес видос на киджаевских нодах, где есть косяк, все. Кто-то сказал мне спасибо, ты сказал, что натив лучше. Без пизды, я не спорю. Но хотелось бы увидеть «лучше» на практике, а не просто пиздеж, что вот он лучше, ты тян, пруфов не будет. Шо толку-то от твоих сообщений, если ты не скидываешь вф. =(
>>1313356 Просто циклом делаешь семплинг, беря последние кадры из прошлого видоса типа как на пикриле, если хочется кусками генерить. Давным давно так делали ещё до Вана. Ноды киджая - это просто сборник нескольких нод в одной для домохозяек, какого-то особого функционала там нет, он всегда хуже нативных нод. Его ноды имели смысл только когда по пол месяца ждали поддержку в комфи, но сейчас свежие модели быстро запиливают, тот же квен день в день был.
>>1313459 Прикольно, тут по сути можно дозировать и проверять по несколько кадров добавлять, плохо тьлько что нагромождение семплеров получится, буду пробовать.
Заебись было вот >>1308870 анончик скидывал ВФ выше, но тут консистентности нет, все что за пределами последнего кадра в итерации - меняется.
>>1314090 >Контекст тока первый кадр пихает А ну это многое объясняет, такой ВФ только для специфических видео можно использовать где особо ничего не отличается от первого кадра, но тогда весь смысл консистентности пропадает
>>1314129 >Тоже проигрунькал с этого кадра. ну зато тоже получилось спечифическое видео аля психоделические глитчи\глюки в башке у берсерка или кто это.
>>1303696 (OP) Аноны, как сделать такие видосы? Я пробую на Wan2.2 на дефолтном форкфлоу с лайтнинг лорой на 8 шагов и у меня получается 3 видос. Как сделать нормальные движения и чтобы картинку не разносило на артифакты?
>>1313459 Тоже кстати всегда скипал его солянку, всем нравится, а мне кажется он усложняет простое и из за его специфических инпутов/аутпутов делает все каким-то зашоренным и зацикленным именно на его ноды. Молодец конечно чел, мб я даже упускаю какие-то возможности и жру кактус, но вот прям не могу себя даже заставить разобраться чего он там намутил.
блин, а вот этот вф на лупы для 2.2. реально хорош, для 2.1 как то эти first/last мне не особо стабильно генерили, поэтому я забил их юзать, сегодня озаботился новым и на пробу четырехэтапные склейки сделал, там вообще косяков не нашел, дама сидит курит, дама посмотрела в сторону, зум-пан, дама психанула встала и вышла из кадра оставив качающееся кресло (которого в начале не почти было видно но оно сидело обозначенное в главном промпте), и все эти лупы отработали на ура, причем это всё сгенерилось быстрее чем если бы я на такую же длительность один видос 2.1 вана сделал, анон, который не поленился линкануть воркфлоу с цивитая - ты красава, это весьма прикольная хрень которая мне точно пригодится
p.s. но как обычно набежали хейтеры почти как в анекдоте "ага, сказали мужики и пошли валить лес обычными пилами'" :)
я тут сразу подумал что этот метод нужно еще дорабатывать потому что к примеру если начальный персонаж куда то пропадет или на стыке кадров будет мелким или нагнувшимся то начнется дичь, нужны какие то промежуточные контрольные кадры чтобы контекст не сильно терялся, что то типа 'карточки героев' как для ллм, хотя аноны выше уже про это упоминали
>>1314735 я сам линканул и сам же не пользуюсь. У меня не получается в этом ВФ сохранять лицо персонажа между видео стоит только персонажу закрыть глаза, немного отвернуться и т.д. в конце видео. Ну и генерация медленней почему-то происходит. Точнее не сама генерация видео, а комфи долго думает между генерациями. Круто если б в ван добавили что-то типа референсного изображения, а не только первый кадр. Чтоб например закинул лицо и он постоянно его придерживается.
>>1315005 Да, как эластипед. А там 200 годиков подождать и уже будут экзоскелеты как G.E. Hardiman, но не отрывающие тебе руки. Какой же ты веодаун. пиздец просто. И чё там со стрмингом уже проблему решил? В каждый дом сто гб оптику завёл?
>>1315011 >У меня не получается в этом ВФ сохранять лицо персонажа между видео стоит только персонажу закрыть глаза, немного отвернуться и т.д. в конце видео Этого и не будет, потому что модель держит контекст 5-7 секунд, не больше. Поэтому ты не можешь продолжать без кусков с нормальным лицом, либо делай фейсвап.
>>1315019 Додик, это Proof of Concept. Ты мог загрузить на ГТА5 лору? Где будет майями, или натренировать лору на россиюшку? Ты вообще представляешь что это будет?
>>1312796 >>1312817 Лол. Это просто видос с телеги. Где она буквально это и говорит. Кроме последней фразы про сиськи. Тут нет никакого липсинка вообще.
>>1315046 Кек. А есть еще сжатие текстур. И видеокарты 6050 с 4 гигами, потому что И ТАК ХВАТИТ для старого 3D-рендер варианта. Адаптации для консолей, хули. А для генеративных игор будут 6090 с 24 гигами за полляма. Хэймэр плоти.
>>1315068 Тогда вопрос становится еще глупее. =D Просто берешь кадр видео и промпт, потом сшиваешь, нихуя себе рокетсаенс!
>>1315401 Да, взял последний кадр видео, его закинул в ван с лорой tittydrop, Ну и плюс нейроголос, который по сути говорит то, что и оригинал только еще добавляет про сиськи.
>>1315011 увы это недостаток текущей технологии, но автор вф сам заинтересован в её допиливании, может что-то ещё придумает, вообще тема хороша для таких видосов где нет точной концентрации на обьектах , типа батальная сцена с пролетом камеры над рандомными сражающимися чуваками, т.е. каждый раз будет какой то свой кусок поэтому не нужно сильный контекст держать, а инфы достаточно из базового промпта, у меня с лицами обычно всё ок, если камера не сильно шароёбится или зумит, но с объектами не редко начинаются приколы, если камера динамическая и теряет к примеру в комнате при повороте мусорную корзину из виду то когда возвращается там уже несколько другая корзина, впрочем это понятно почему, на иллюстрациях кстати реже косячит, м.б. потому что там меньше деталей можно потерять
Аноны, допустим есть видео, где на некоторых кадрах обрезана часть объекта. Ну классика классическая.Какую нейронку и как использовать, чтобы "дорисовала" вырезанные углы? И нахуй нужны иначе все эти йобатехнологии, если такую банальщину не сделать
>>1315902 >аккуратную пизду полосочкой На самом деле ван 22 уже может. Ты удивишься, это не вагина, не влагалище и не промежность и даже не pussy, а shaved pussy.
>>1315889 >Аноны, допустим есть видео, где на некоторых кадрах обрезана часть объекта. Ну классика классическая.Какую нейронку и как использовать, чтобы "дорисовала" вырезанные углы? И нахуй нужны иначе все эти йобатехнологии, если такую банальщину не сделать
Идиот геймз на третью годовщину мобильной лиги ретардов выложили нейрошедевр. "Годовщина" с ошибкой, хуяк-хуяк и в продакшен. Скоро нормисы билеты будут покупать чтобы в кинотеатре такое смотреть.
>>1316106 Там эта надпись мелькает несколько раз под разными углами. 3D, или задумка, или модельер не знает английского. Это норм для азиатов, кста. В Рагнарьке столько кривых слов было и всем похую.
Тут есть кто-то с несколькими картами? С хай-лоу как-то можно заставить работать на двух картах по очереди? Знаю про ноды лоадеров multigpu, но они сломаны полностью - первый прогон воркфлоу работает как надо, на втором пытается вторую модель на первую карту затолкать, хотя там уже другая модель лежит и падает в ООМ. Сидеть с выгрузкой моделей на ЦП тоже такое себе, он их перегоняет как время половины генерации.
Окей. Я сделал такое. Хрома 48 на дефолтном комфи воркфлоу без ускорялок. Как сделать ее более реалистичной? Хочу чтобы было как на видео.
A full body photograph of A anthro deer girl having vaginal sex with a male in cowgirl position in a room on bed.
She is complitley nude. She has large breasts. She has deer ears and deer horns.
Dramatic lighting highlights the figure's form, and the overall aesthetic is ameteur smartphone selfie. The image is noisy, a professional photograph of a high-level artistic accomplishment.
Ну вот, уже кванты в gguf-ах со вшитыми ускорялками и объединением 2 в 1 (в одну модель из high и low) пошли. https://civitai.com/models/1855105?modelVersionId=2099499 Скачал 3-ий квант на пощупать интереса ради. Таки генерит, но получается эффект камеры из дешевого мобильника. :) Хотя это само по себе может считаться естественным спецэффектом, для определенного типа контента. :)
А, забыл добавить - то что у меня генерилось на полном FP8 примерно 5 с копейками минут, здесь - за 4.40. Т.е - не медленнее. (3060 12Gb) При этом workflow простой как табуретка. Единственная тонкость - text encoder тоже нужно в gguf. Отсюда: https://huggingface.co/city96/umt5-xxl-encoder-gguf/tree/main
>>1316852 Делаешь первый прогон. Часть которой не было на начальном кадре попадает в него в ходе видео. Делаешь второй прогон и инпейнтишь. Ну или я не понял, что именно тебе нужно.
Везде где ни смотрел, только генерация видео с нуля. Это нахуй надо.
У меня есть уже снятое видео - но оно снято криво, объект выбивается из камеры - нужно увеличить, чтобы недостающая часть кадра "дорисовалась". Это было бы реально полезно.
>>1316775 Не исключаю. Но промпту оно явно следует лучше чем "честный" 2.1, и для i2v не требует clip vision нод, генерит и в 480 и 720 с одной модели. Это как бы намекает на 2.2 все-же...
>>1316998 >>1316579 ну в а по итогу это кандинский, получается они юзают ван, возможно допиленный или файнтюненый, я инфу так и не нашел, только то, что они в 4.0 юзали когвидео...
>>1317751 Я другой тормоз, но за линк - спасибо от всей души. Я то думал, у меня уже все стоит, а оказывается - далеко не все, и можно куда лучше жить на этом железе. На 3060, время генерации на собственном тестовом workflow с WAN 2.2: было примерно 5 минут на генерацию 5 секунд видео (4:45 на 81 кадр - чисто ksampler), теперь - 2:50 там-же. Даже больше минуты разница.
(Но, сцуко, больше двух часов с venv для 3.12 трахался - слишком много нод стоит, и у всех свои зависимости, на 3.10 было как-то просто - само разбиралось. Однако, все же запинал.)
>>1312186 Ты лучше дай нормальный совет, а не рвись на весь тред, как целочка. Кроме двух ключевых слов - LightX2V и WanGP мне здесь ничего толкового сказать не смогли, только набижали с улюлюканьем и начали говном кидаться. Подозреваю, потому, что большинство здесь сидящих сами нихуя не понимают и как мартышки повторяют то, что им в роликах на ютубчике показали, не попытавшись вникнуть ни на йоту.
Вот тебе четкий вопрос: как запустить Wan 2.2 14B на машине с 3090 и 64 Гб RAM и сгенерить ролик секунд на 30 без тонн комфидерьма? Любой ответ кроме "берёшь вот этот репозиторий вот отсюда, ставишь зависимости, качаешь вот эти модели и запускаешь с такими параметрами" автоматически будет означать, что ты пустоеблый пиздобол.
>>1318542 Нормальный 30 секундный ролик ты никак не сгенеришь, модель ограничена 5 секундами, больше 5 секунд это уже костыли с контекстом и пердолинг так или иначе и результат будет всратый. И перестань копротивляться комфи, единственный нормальный интерфейс где все четко и понятно что и как работает и где моментально можно настроить любой параметр под себя. На ютубе полным полно гайдов для тех кто не понимает как работают ноды - перестаешь ломаться как целка, открываешь их и впитываешь
>>1318706 цвета не будут ползти если подобрать нормальный параметр десатурации после каждой генерации, либо делать выравнивание сатурации после всех прогонов
>>1319282 Да, у них отрицательные калории, как у сельдерея и картофельной китайской лапши.
>>1318776 Ну я то просто сохранил пайплайны или как это называется, демки с диффузорами короче с хага и там делал. Чел спросил можно ли без лапши - можно. Руками с последнего фрейма. Так то да можно цветокор делать, можно наверное дажен к лапше эти ваши ноды написать в нейронке чтоб делало в чем то хз. Но это уже пердолинг. Идея в том, что там в принципе в ване ползет вверх эта сатурация или чё, короче картинка выжигается, и это не только там, во всех трансформерных генерилках, даже если в том же гугле гемини флеше картинку редачить одну и ту же он её очень быстро загаживает с каждой итерацией кала.
>>1319476 Замени ноду load gguf на load unet и dual clip loader (gguf) на простой - и будет тебе такой workflow. В 12GB fp8 wan 14b модели просто так грузится сейчас. Да и вообще - можно просто предустановленный workflow для wan самого comfy взять как основу.
>>1319604 Пробуй ставить ноду пик 1 и подключать ее по типу как на пике 2. Блоков 30 на свап я думаю для начала поставь. Еще нода crystools показывает потребление рам/врам в комфи, тоже полезно будет