>>1239449 → Ты забыл добавить про расстрел арбузов и забрасывания их гранатой, так как с этими генерациями тоже всё плохо)
>>1239526 → Ну да. Куда там лохам разрабам из Гугла (всего лишь мирового флагмана ИИ) до тебя анона сидящего на анонимном форуме в тредах которого постят дамочек с членами во рту. Расти им ещё и расти до такого гения))
>>1239571 → Всё так, во всех генерациях ассоциирует кувалду с глухим ударом по кирпичам, камням или дереву. Генерация звука ещё сырая. Хотя у конкурентов и такой нет)
>>1240311 (OP) Сап, объясните неофиту, у меня стоит Forge Webui и я генерю с него картинки локально на компе, хочу вкатиться в Wan Video, что по пунктам мне нужно качать?
>>1232093 → Ты сейчас ничего не можешь предсказать, даже когда железо сможет генерировать локально хорошие результаты. Возьми и освой пару онлайн-хуевин хотя бы на базовом уровне. Ну и задумайся о том, что в будущем скорее всего нужно будет хорошее железо. Что-нибудь в районе хотя бы двух топовых потребительских видюх или одной специальной, типа из серии RTX PRO, которая сейчас выходит. Или комп, созданный под ИИ непосредственно. Вряд ли все это будет дешево, исходя из текущего положняка.
А еще качай режиссуру и видение лучше, чем инструменты, скорее всего возможностей для генереации будет много и разных, и вряд ли они будут суперсложными. Вот только ты с ними не добьешься качественных реузльтатов, скорее всего. Сейчас нейронки генерируют случайный результат, который находится близко к запросу, но детали и точность всегда страдают. Решением, возможно, станут редакторы, которые сейчас используются для создания анимаций и фильмов. Blender, Unreal Engine. Думаю, на их базе с нейротехнологиями возможно будет что-то собрать более качественное, чем случайная генерация из шума. Скорее всего, дело дойдет до виртуальных актеров. Я вижу это так: создается декорация в движке, на не ставятся актеры, а потом нейрофильтрами это все до кинематографичности доводится, при этом остается глубина для редактирования сцены.
Но, опять же, как оно все будет развиваться, неизвестно, это просто предположения.
>>1240958 Сейчас после 6 сек всё ползет в говно, это ограничение архитектуры, пока не запилят что то принципиально новое кина не будет. Да и ты зря тратишь время на этого диванного пердуна. Нихуя он делать несобирается. Хотя бы потому что на нулевой раскрутке трепыхаться бесполезно. Я из принципа в это не вкладываюсь, за полгода уже норм видосов и клипов сделал, в целом просмотров минимум, это или дело случая что тебя хайпанет кто-то известный или надо идти кому-то очко лизать или спамить, ну короче как во всём. Такая диванная чмоня типа него не станет это делать всё.
>>1240958 > А еще качай режиссуру и видение лучше Факт. У меня есть возможности — но у меня нет идей и умения. Толку-то. А когда знаешь как поставить — получаются хорошие ролики даже сейчас.
>>1240311 (OP) Блять, аиноны, мне нужно сделать зацикленную статичную анимацию пикчи с морем, чтобы волны двигались, сука не могу найти где это сделать, половина аи говна стало платной, типа Лумы, вторая половина выдаёт говно, вы где-то ещё видели возможность зациклить видео в i2v?
>>1241324 Любой генератор поддерживающий режим start frame to end frame. Из шапки pixverse, wan и vidu могут это легко сделать, возможно даже в 720p. Самый простой способ - это использовать исходную картинку в качестве первого и последнего кадра.
Еще можно сделать интереснее в два этапа. Из исходной картинки сделать генерацию волн, из получившегося видео сделать скриншот последнго кадра. В режиме frame to frame использовать этот последний кадр в качестве первого, а в качестве последнего кадра использовать исходную картинку. Получится два видео, их склеить в одно зацикленное.
Тренируйся на vidu, там дают много кредитов при каждой регистрации. На pixverse и tensor.art можно задать конкртный seed, что теоретически позволит сохранить целостность при создании двух генераций.
>>1239418 → Ты забыл поди в промпт добавить, что и скамейка, и забор должны повреждаться. Робот же тупой и ленивый, ему не говорят - он и не делает. Зачем работать, если можно не работать?
>>1241702 Ну вот я пробовал первый и последний, оно часов 8 рендерилось, и выдало мне статичное виде где вообще ничего не происходит, но спасибо попробую со склейкой.
>>1240958 >Решением, возможно, станут редакторы, которые сейчас используются для создания анимаций и фильмов. Я считаю все эти блендеры отправятся на помойку за всей остальной киноиндустрией. Нейронки уже сейчас могут подменять человека, т.е. хороший нейронщик сам будет актёрствовать на камеру телефона, а потом подменять себя нейронным актером.
>>1240961 >Нихуя он делать несобирается. Собираюсь, я тыкаю палкой в камфи и пока осиливаю начальные гайды. И делаю я это ради себя, что бы реализовать свои нереализованные хотелки. Даже если осилю приемлемый уровень, очевидно что впереди меня будут профи, которые всю будущую индустрию и займут и которые уже давно в этом варятся. Впрочем сосировать будут все, из-за высокой конкуренции. Я сомневаюсь что нейронные фильмы будут "продавать", все уйдет в подписку и рекламу.
>>1242208 > блендеры отправятся на помойку за всей остальной киноиндустрией. ИИ будет как помощник, человек вместе с ИИ будут вместе что-то создавать, и так даже интереснее, чем тупо нажать на кнопку и сразу получить генерацию.
Причем любой сфере - дизайн, кино, музыка, кодинг, и т.д., вместе с ИИ работать интереснее.
Представь что человек это бригадир, и у него открыто во вкладках 10 ИИ-агентов рабочих, нужно снять допустим фильм, или рекламный ролик, у каждого ИИ агента-рабочего своя специальность, человек-бригадир раздаёт им задания, проверяет, говорит что исправить, дополнительно и сам тоже растёт и становится профи, это интересно. Если тупо жать на кнопку и копировать-вставлять результат, то это не рост, а будет деградация, падение.
Второй видос это Вео2 с наложенной звуковой дорожкой от неудачной генерации Вео3. Так как все видосы по одной теме делаются по одинаковому промту и Вео делает эти видосы достаточно последовательными, то перекидывать звук (весь или часть) между удачной и неудачной генерацией не составляет труда. В прошлом треде в некоторых моих видосах Вео3 звук и был сделан (например видос с эльфийкой в шапке этого треда).
ЗЫ: а вот для видоса чела в лыжах речь вообще делалась в генераторе речи Гугл студии. Неплохо бы им ещё отдельно сделать генератор звуков, чтобы менять неудачные звуки в видосе не генирируя для этого новый видос.
>>1241726 У меня пол промта было забито текстом о том, как красиво разлетаются скамейка и забор вместе с арбузами). В Вео3 неплохо сделали деформацию автомобилей, а вот со всем остальным. Например, пробивание пулей стекла осталось на уровне Вео2, то есть практически никаким.
>>1244150 Bytedance (создатели TikTok) тоже буквально на днях выпустили Seedance, который якобы круче Veo3 на бенчмарках для ИИ-видео, но не делает звук.
А появились нейросети которые самостоятельно делают красивые популярные видео из отпусков? типа им материал хуево снятый заливаешь а он нарезаетмилый ролик минут на 15?
>>1244150 >Predict Video2World Мы тут предсказываем как сиськи вывалятся из разных типов верхней одежды, да как хуй залетит в закрытый рот. >>1244161 Выглядит плохо, но вариативно. >~10x inference speedup through multi-stage distillation strategies and system-level optimizations. Seedance 1.0 can generate a 5-second video at 1080p resolution only with 41.4 seconds (NVIDIA-L20). Ох уж этот прорыв отдистиллированной в жопу модели на видеокарте за полмиллиона. Ещё и не опенсорс.
Что-то temporal extend или как там называют продление видео через vace совсем не extend. Может и выглядит чуть лучше, чем тупо брать last frame, но даже 50 кадров контекста нихуя не дают, человек не продолжает двигаться как двигался, эффекты видео пропадают (например, vhs фильтр) или генерируются совсем иначе, если их запромптить. И это на 14B модели. Анон, который любит позасовывать хуй в рот девкам на 12 шагах, с 0.5 козвид и кривой cfg, в воркфлоу все параметры осознанно выставлены? Хочу спросить и понять почему некоторые значения именно такие, а не другие.
>>1244348 >осознанно Да >почему 0.5 cfg для первого каусвида рекомендовали по дефолту, выше 0.6 пережаривает исходник. Остальные значения это просто промежуточные результаты тестов, я ищу баланс скорости/качества, так то и на 6 шагах часто можно получать неплохие результаты. Кривую можно заменить на "wanvideo cfg schedule float list" или убрать совсем и добавить accvid i2v + nag как в этом видосе. Если будет пережиривать картинку то accvid можно попускать, он и на 0.2 неплохо бустит картинку
>>1244838 >ты не понимаешь в чем слымсл обработки сырца с отпусков? У двачера сырец только под залупой, так как он моется раз в пару месяцев. Обрабатывают его обычно мылом и теплой водой.
>>1244506 А вот это прям хорошо, прям очень хорошо! 193 секунды для 7 секунд видео и с приемлемым качеством. Правда пришлось в WanVideo Model Loader квантизацию поменять на e5m2, по тому что я как понял 3090 с e4m3 не дружит.
>>1244235 >красивые популярные видео из отпусков? Типа приделать что жена в отпуске на морях с негром и турком загорает, а потом прислать мужу это видео. Аха.
Ребятки, подскажите пж, может вы знаете. Хочу сделать побольше порнухи со знакомой, но все сайты типа видео face swap ai платные либо дают 5 секунд видео сделать. Так вот и вопрос, есть ли где это можно сделать бесплатно?
>>1244506 Это понятно, кроме accvid, не пробовал его. У меня вопросы возникали зачем отключать блоки у лор, реально как-то помогает? Почему используется fast квантизация (fp8_e4m3fn_fast), разве она не херит качество, не давая ощутимого прироста скорости? Так много английских негативов, они вообще дали результат по сравнению с оригиналом, если смотреть тот же сид? Обращал внимание что повышенный ЦФГ выдаёт на первом шаге? Точно ли это улучшает? Про юнипц-бета не буду спрашивать, ты уже решил, что он хуже, тоже удивило почему не обычный юнипц, не видел такого у других. Чтобы ты понимал, я последнее время только и юзал твой воркфлоу без изменений, именно понять хочется. >>1245589 Конечно можно. Только не заливай клей пва в бак, есть другие жидкости.
Понемногу охуеваю с инпейнта. Реальный гем вэйса. Вот вам два воркфлоу. Это примитивный способ сделать маску через MaskEditor и предпросмотр. Для чего-то сложного можно попробовать совместить с segment anything. Лучше всего подходят видео, где руки всегда снизу. Хз как избавиться в сиськолоре с глитчем ебучих лямок, которые сквозь тело проходят, нередко оно снимает топ так, будто это приклеенный нагрудник. Алсо как давно появились нативные ноды Load/Save Latent? Они работают с Киджаем? Это же разъёб. Можно поставить генерить 2 шага, прийти обратно, оставить те, где хорошее движение и догенерить.
>>1245616 >У меня вопросы возникали зачем отключать блоки у лор, реально как-то помогает? Чаще нет, чем да. Автор лоры nsfw утверждал, что отключение помогает, я скорее заметил обратное > Почему используется fast квантизация (fp8_e4m3fn_fast), разве она не херит качество, не давая ощутимого прироста скорости? По моим тестам не херит качество от слова совсем, но дает небольшой прирост > Так много английских негативов, они вообще дали результат по сравнению с оригиналом, если смотреть тот же сид? С cfg1 негативы не работают, они просто фоном валяются, да и с кривой походу тоже. С NAG определенно работают, но лишь какие-то, например сперма стала реже пропадать когда я вписал "missing cum" и прочие. Думаю что конкретные по типу "черные волосы" на t2v и т.д. работать будут, а абстрактные на low quality и прочее скорее нет >Обращал внимание что повышенный ЦФГ выдаёт на первом шаге? Точно ли это улучшает? С causvid одной было вроде как получше, с accvid вдобавок уже начало пидорасить картинку поэтому я убрал его
Насчет семплеров - unipc и flowmatch пока фавориты. Кто-то еще писал что euler на высоких шагах лучше работает
Господа, знает кто-нибудь нормальные "сайты", который предоставляют облачные гпу-серваки, с оплатой из России без геммора, почасовой арендой, для нубов, можно даже с чутка преднастроенными образами (комфи), с нормальным выбором видях (кастомизацией железа) (в приоритете и по красоте консьюмерские видяхи 4060ti/5060ti/5070ti/)? В линухе не шарю. Что-то типа иммерса... Селектел в топку. Мне как бы потестить хочется... В планах что-нибудь купить. Всякие н100\а100 и прочие теслы не особо интересны. Да и 3090\4090 тоже не мои "клиенты" для "побаловаться" ???
>>1245651 Добавляется только то, что за маской. Такой же принцип как и в инпейнте картинок. Не самое подходящее видео, пришлось делать огромную маску, а сам тип вейс-преобразования простейший, нет даже контроля как должны двигать руки, это тоже как-то возможно сделать, но я хуй знает как точно, не пытался.
>>1245689 В самом верху где VHS? То ненужный кусок, с джокероцензурой. Просто грузишь видос, вытаскиваешь кадр, делаешь в нём альфа-дырку в которой и будет желаемый контент. Всё. Оно вытащит последний 81 кадр из видео, первые 16 кадров меняться не будут. В маске сгенерится то, что в промпте, если это не будет противоречить тому, что осталось за границами маски. Размеры маски и видео (наверное) должны совпадать, поэтому проще сначала подготовить видео и маску в другой вкладке.
>>1246112 На моей 4090 5 сек видео минуту генерит. 7 секунд пробовал - сильно хуже результат. Генерило 1:30. Вообще там еще скайрилс есть, который теоретически может работать лучше, но под него надо менять настройки лор видимо, с дефолтными не очень как-то. Зато там еще и 24 фпс есть из коробоки.
>>1246132 Казалось бы не большая разница, но у меня разрешение генерации меньше 512х512. А зачем ты используешь блоксвап? У тебя же все и так в врам помещается.
>>1246375 Обязательно поешь, 8 гб КРАЙНЕ мало. Надо дрочить GGUF и искать на civit воркфлоу под 8 гб, разбираться с оптимизациями и выгружать практически все в оперативу, если у тебя нет хотя бы 32гб озу то сразу забей.
>>1246395 >А зачем ты используешь блоксвап? У тебя же все и так в врам помещается. У меня до кучи вкладок открыто в браузере, без него иногда забивается. Оказывается, vace может работать как обычное i2v. Не уверен правда что в этом есть смысл, потому что вышло дольше в 1.5 раза, завтра потещу еще
>>1246405 Память чтобы влезало, чип чтобы быстро работало. Можешь купить 3080ти с 12, а можешь 4060 с 16, первая очевидно быстрее если все влезет. Но покупать 3080ти с 12, когда 3090 на 24 не многим дороже довольно глупо, даже если сейчас у тебя все влезает. Завтра выйдет новая хуйня и влезать перестанет во все кроме 5090.
>>1246607 >Ну вы поняли бизнес идею как прекол над корешем или тянкой, осталось лишь бота запилить и расфорсить Кажется статья есть за такое. Даже две статьи.
>>1247158 Сколько же шлака будет лет через 5-10. Они даже не стараются, не исправляют ошибки, видать конвейерным способом штампуют такие ролики на автомате.
>>1247158 Ты можешь мощными новыми нейронками делать такие 5 сек. куски на одну тему и склеивать их, как бы пересказывать несуществующий фильм, придумать сценарий, и в таком же стиле монтировать шортсы. Но это не так просто будет, наверное придется неделю тратить на съемку такого 2-х минутного шортса. Стоит ли оно того.
>>1246823 >молоко sd традиционно нихуя не знает о назначении груди и сосков в частности, попробуй сгенерить кормящую мать, так что-бы младенец сосал грудь, а не облизывал или ещё х.з что делал, это невозможно запромтить, все эти breastfeeding и breastsucking - просто пустые слова.
>>1247406 это удивительно, ведь столько референсов, да и на бурах этого полным-полно, но в sd этого не завезли почему-то) У меня получилось это сделать через рефайн pony>sdxl путём невероятного пердолинга в импаинте, только на одном сиде, через выделение фрагмента головы ребёнка с соском: ((sucking nipple)), всё-таки пони кое-что знает об этом, но опять же это исключение.
>>1247409 Ты больной? Весь класс гейп мерджей еще на 1,5 спокойно делал лактацию. Все понипроизводные и более поздние тюны без проблем делают лактацию. Всё названое делает так же и милк джетс и всё что душе угодно. То же касается и сосания/лизания. Иногда просто поразительно, насколько туповатые бывают аноны. И это всё, как водится, даже не начиная разговор о лорах. Что до анимации, то лоКАЛьно ван всё это нормально анимирует.
>>1247414 >То же касается и сосания/лизания. Иногда просто поразительно, насколько туповатые бывают аноны Слышь блядь, теоретик хуев, ты блядь сначала поебись с этим говном, а потом ебало раскрывай.
>>1247416 У меня в районе 2к подобного. На десятках моделей делал. Анимировал тоже много где, и на ване, на пиксверсе, пике, виду, клинге, да практически везде, где можно было пропихнуть. На клинге жидкости до сих пор конечно пососные.
Сап, а можно ли нагенерить простые видео эффекты, которые для видео заставок будут использоваться? Ну молния красная там на голубом фоне или сперматозоид с надписью Подпишись на наш канал летит. Я понимаю всё от модели завист, но какая для этого лучше? Я вижу Ван самый популярный и народный, но я кроме прона в нём ничего не встречал другого.
Стоит задача сгенерировать видео, на котором условный Ди Каприо (или любой другой известный актер/певец на мой выбор) будет поздравлять с днем рождения по тексту, который я передам. Какую нейронку для этого посоветуете? VPN есть. Саму нейронку хотелось бы бесплатную (или какой-то пробный бесплатный период), потому что сделать это надо один раз.
Старался высрать кринжовое шизоговно с "шутками" про говно и трансов уровня начальной школы? Напомнило сляпанный на деньги Суркова деградантский высер Ять тв, там тоже картинка на три головы превосходила ублюдское содержание. Старания в этом мире - ничто, результат - всё.
>Это тебе не хуи несовершеннолетним тиктокершам с молочными зубами в рот закидывать.
В этом контенте хоть какой-то смысл можно увидеть, в остичие от "сосовичка".
А я немножк проиграл с Сосовичка, потому что подумал, что в этот раз может быть что-то хоть чуток осмысленное. Но нет, автор мастерски разрушил ожидания в новой главе хоррора о своем внутреннем мире.
>>1248218 > Ну тут почти сосет уже, продолжай эксперементы Чтобы сосала сделать не сложно, вот чтобы сперма ей прямо в глотку летела с дистанции уже сложнее, видимо в лорах такого контента не было трень сам - кто, я???
Заморочился вопросом, можно ли делать с помощью AI полноценные клипы и не пора ли пилить своего виртуального артиста. В принципе можно, если чётко понимать куда потом свой контент заливать и как продвигать. Дрочился с нейронками по вечерам чуть более месяца, есть некоторый результат, более-менее смотрибельный. Использовал в основном kling и Hedra. Музыку и аранжировки делал в saSuno и Riffusion.
>>1249102 Это не работает так как лора на такое не натренена. То есть сперма то выстреливает, то максимум падает на язык, но никак не залетает в глотку, как ты не промпть
>>1248532 Сейчас многие этим вопросом задаются, но сам знаешь, что ответ это "всё хуево". Особенно в стране без монетизации ютуба. Даже если ты живая няша и хорошо поёшь - успех далеко не гарантирован, что уж там говорить о нейронщине, которая вся плюс-минус на одно лицо, а свой талант можно проявить разве что в шутейках, но подобная музычка не про это.
>>1248532 >Если вдруг захочтся посмотреть в более хорошем качестве Не захочется. Сделал без изучений нейронок в течение месяцев. Времени ушло около 2 часов, потому что клинг с утра уже медленно начал конвертить. По рефу сгенерил тело в клинге, сделал имид2видео там же, в видеоредакторе инвертировал дрыганья туда-обратно, получив бесшовныйкусок в 30 секунд (у тебя на это мозгов не хватило, кстати). Липсинк в три куска по 30 сек, догенерил финал смищной по описанию заказчика (1 ролик в имидж2видео). Вокал сделал по их тексту в суноауто https://vk.com/video-178667302_456239074 С паблоса этого взял 1,5 тыр.
Кто-нибудь с вас не пробовал настротьб тянку чтоб комментировала как вы играте в игру. Т.е. шлются скришоты экрана, а нейроночка их забавно комментирует в персонаже вашей тянки. Ну получилось бы будто с друганом играете который рядом сидит и смотрит, понимаете к чему? Сори тут спрашиваю, а не чат треде, это ж ака Вайфу дифужн, а в чат тредах одни жлобы и троли.
>>1247592 Годнота, что 1-ая, что 2-ая серия. Люблю абсурдную бредятину. Не слушай местных долбаебов с творческой импотенцией, продолжай. Желательно поднять уровень аморальщины, чтобы прям вообще ебанутые темы поднимались, как например, сделали создатели "ПиськаДу", где показывали не зацензуреную еблю.
А как в вашем копри ебаном в видео сохранить? Можно без этого ракового .вебп? (спасибо, могу в хроме и больше нигде смотреть) Как проект в копри сохранить? МОжно ли в копри переключить режим с режима цирковых анальных программистов на режим с кнопками для нормальных людей? Я сумел таких в копри сгнереить валяющегося кота, хотя я просил танцующего на задних лапах кота. Думаю пинокио накатить, сейчас жду, устанавливается.
>>1249627 >А как в вашем копри ебаном в видео сохранить? Выбери сохранять в .mp4
>Как проект в копри сохранить? В .json как воркфлоу или просто в метадате картинки
>МОжно ли в копри переключить режим с режима цирковых анальных программистов на режим с кнопками для нормальных людей? Создай приложение, а комфи используй как бэкенд. На реддите есть примеры. Буквально пару кнопок нажать надо
>Я сумел таких в копри сгнереить валяющегося кота, хотя я просил танцующего на задних лапах кота. Вопрос не к интерфейсу, а к модели
>Думаю пинокио накатить, сейчас жду, устанавливается. Скачай портативную версию Комфи и не еби себе мозг
>>1247592 За время просмотра хохотнул, и не один раз. Действительно смешное. С технической стороны возможно нужна эквализация цветовой гаммы - слишком много нейроношной желтизны в картинке.
>>1247592 Я не понимаю... Ты сюжет придумал или нейронка? А все эти шизоидные решение с женой-роботом и куриными лапами ты приказал нейронке генерить или она сама так решила?
>>1250066 >А нельзя ли как-то украсть видюху 24Гб у корпов чтоб генерить прон? Ты "п" и "р" местами поменял с какой целью? Можно, но 3ххх лучше оставить копрам. А себе взять не ниже 4ххх.
Тут вообще в этом ване есть культура промптинга или вообще пох на очерёдность слов, надо ли писать как худ предложение или как запрос в гугле слова через запятую? Есть ли веса? То что по 10 минут 5 сек видео генерится так хуй научишься.
>>1250082 >Тут вообще в этом ване есть культура промптинга или вообще пох на очерёдность слов Чувак, тут в двух картиночных тредах, где картинка уже 5 сек генерится и можно зайти с карточкой в 4гига или вообще без карты - сидят долбоебы с мастерписями и прочей легасишмарью, которые думают до сих пор что на Т5 надо сочинение на 5 страниц писать, из которого нейронка видит только начало и конец. Надоело уже повторять тупоголовым: у промпта сильные только начало и конец. Середину они не видят или видят плохо. Плохо когда слишком короткий промпт, плохо когда большой.
>>1250058 Какие временные файлы. Модель не влазит в 16гб врам и 64гб рам (на киджае, на нативных почему-то обычно влазит, но зависит от размера видео и наличия vace). Вылазит в файл подкачки. Можешь представить как медленно будет, если большая часть вылезет в файл подкачки на хдд.
Через Stability Matrix накатил веб-интерфейс Cogstudio. При любой попытке генерации, бар в окошке с аутпутом застывает на этом баре. Знает кто, с чем это может быть связано? Если можно, на примере говна и палки, я в питонах этих ваших не разбираюсь и вообще, только начинаю в это все проникать
Анончики раньше кто то выкладывал как можно прогонять много изображений из папки для генерации чтоб в ручную не перещелкивать, тогда не надо было, а теперь надо.
Может кто поделиться воркфлоу или скажите какие ноды юзать. Я поставил луп имэдж, но не понял как этим пользоваться, а гопота меня кругами гоняет так и не удается настроить.
Воркфлоу в видосах еще не юзабельный в целом (настраиваю), скорее черрипик, но magref вероятно будет лучше дефолтного i2v. Еще там можно до 3 референсов кидать, но в этом я пока не разбирался
>>1250373 >да с лицами то ладно, Wan и так их норм сохраняет часто Там не только лица. В целом лучше понимание промпта, и 24 фпс если ты не заметил в видосах из коробки
>>1250359 Ебать, у меня с первой хуй зашевелился. Казалось бы, какая-то рандомная баба, не должно. Такого не происходит даже от знакомых баб, настолько уже эта хуйня приелась. Последний раз только видео-инпейнт вместе с лорой удивил. По делу, не совсем понял нахуя есть магреф, если есть vace инпейнт. Я так понимаю, это то же самое чуть лучше. Но с хуя ли это отдельная модель, а не лора или модуль? Вообще не понимаю. Как же оно тогда совмещается с VACE и как его в таком случае использовать. Насколько я понял, применение у него очевидное: заменить ебало порномодели на чужое, заменить футболку на майку, заменить фон улицы на пляж.
>>1250373 Я ебу, новый день - новая хуйня под ван. Я ещё с прошлыми не разобрался. Так какой-то риалтайм (на 4090+) генератор заебашили. А ещё MagCache, который подают как замену TeaCache. А кроме этого ещё и Self-Forcing, который пихают в категорию к CausVid/AccVid. Как это всё не путать, а главное как это не пропустить? И это только про одну видеомодель. Допустим, я захочу узнать про все фишки Flux (или вообще модели, о которой я не в курсе, скажем, новой tts), как их найти?
А есть у меня нет на ссд места 30 гигов под ван, ещё 30 под модели, еще 64 под файл подкачки? У меня там точнее игори и я их не могу перенести. Ащеё другие прочие нейронки, особенно СД место жрёт.
Есть какой-то вики по фичам вана? Киджай молодец, что пилит столько, герой просто. Но мудак, что нет свежего описания на гитхабе. Неужели никто не пытается сделать это за него? Например, какие настройки юзать для t2v на accvid, оптимальные они или компромиссные и так далее.
>>1250555 Окей, зато есть 8. Тебе полегчало, надеюсь.
———
Попробовал сегодня fast_fp16 и fast_fp8… Качество минорно просаживается, но в общем норм, ускорение приличное. Звучит как что-то, чем стоит пользоваться.
Анончики, не получается из видео подтянуть facial воркфлоу в comfyui, ЧЯДНТ?
Перетягивание на браузер не работает
Копирование json-а из метадаты не работает, если я оставляю "prompt" часть Если загрузить только "workflow" часть - загружается, но очевидно что промпта нет
>>1244150 Короче, погонял я космос немножк. Картинки генерит красивые, но дольше SDXL. 2б версия видосы генерит артефактно, ну 14б с его скоростью и наличием каусвид на ВАНе выглядит как не нужна.
Короче, сам принципе все во все — крутой, но скорость медленная, а качество видео на малой модели ну такое себе.
>>1250923 >места для члена А с хуя-ли его вообще должно быть видно, его вообще не нужно было промтить, что-бы как-то обозначить мужика, достаточно было рук на бёдрах, на руках обосраться меньше шансов, ведь так же, да?
Только шизом не зовите, нет такого шана, что конфи или пинокио пишут себе данные и скришотики того что мы генерим? Если у меня тряска, можно ли как-то защититься? Может в фаирволе отключу доступ к сетям, но всё равно как-то мало. Форджу или автоматику я доверял, оно же костыльное хромающее, какие там зонды могут быть, а это конфи и пинокио корпоративное, я боюсь что меня пишут в базу.
>>1251058 Какая разница что, но это порно да, я не хочу чтоб такие личные данные подглядывали. Буду тестить блок сети. Кстати, у пинокио отваливаются сервисы даже если не блочить, я наоборот прописывал в hosts чтоб оно смогло устанавливать модели.
>>1251061 >Magref меняет первый кадр. Он как референс юзает пикчу просто, если в промпте сильно отходить от того что на исходной пикче то больше шанс что поменяет
В общем, поэкспериментировал. Если кидать 2 фотки с белым бэкграундом, то получается неплохо, но он фокусируется на расположении (право-лево), конечно.
Ждем более надежной имплементации, но и так уже неплохо весьма.
МагРеф+лайт2х = круто. Ну и дефолтная модель с лайтом тоже хороша.
>>1251593 >Wan по умолчанию без лор зацензуренный Там нет цензуры. Скорей всего дело в твоем промпте. Я уже видел такие жалобы, там всегда были какие-то порношлюхи. Думой. Но у тебя явно и с настройками что-то не так. На ванильном ване 720 14б каузвиде на 4-6 шагах одежда снимается нормально сохраняя физику, а у тебя как-то мультяшно. У тебя и тех кто жаловался скорей всего огрызок какой то.
>>1251678 я тренировал на фотках, а тот долбоеб на скринах с видео, поэтому у него на всех генерациях ебало с диспропорциями широкое получается 4 версии натренировал пока годная не получилась
>>1251692 на цивит хотел залить но передумал, из-за политики что тогда с ней голые/полуголые нельзя будет выкладывать, а так о ней знает полтора человека поэтому я выкладываю, пиши фейко почту скину если хочешь
>>1251684 >И давно это Хуйло стал платным? Месяца три как. Иди в клинг, там 2,1 и колорс 2.0 для скота расшарили. Так же вводят авторизацию через привязку карты к мульти-аккам с сомнительными мылами, ну либо гмейл. Еще не поздно запрыгнуть.
>>1251719 Лан мне похуй выложу тут один хуй на цивите собирался выкладывать dropmefiles . com / BV1jH (стереть пробелы). Trigger Words: "1girl, violet_aa, brown hairs, brown eyes", "grin" - лучше всего подходит для улыбки. Веса лучше подходят: 0.8 - 1 Тренировал на понях, поэтому лучше всего на понях и использовать. На практике CyberRealisticPony лучше всего получается
>>1251773 >Cтранно, пару недель назад давали ежедневные 100 кредитов Отрубали. Потом давали. Потом отрубали. Плюс от региона зависит видимо. Что ты там вообще забыл? Конч полный. Цензура ебанутая.
>>1251739 Не знаю с какой стороны подступиться, всё какое-то блёклое, даже с высоким гайденсом, усилители не работают, под сдохлей тег: violet_aa рисует фиолетовые глаза, а без него триггер не срабатывает, очень странная лора, самая странная из всех, что я щупал когда-то.
>>1251843 хз у меня норм всё на примере этой картинки: score_9_up, score_8_up, score_7_up, violet_aa, brown hair, brown eyes, freckles, amature female, grin, small breasts, gorgeous girl, (skinny:1.5), beautiful, fit thighs, shiny skin, oiled skin, shiny clothes, sexy, slutty girl, grin, horny, wet skin, wet hair, swimsuit, competition swimsuit, blue one-piece swimsuit, one-piece swimsuit, tight clothes, athlethic body, turn back, portrait, photoshoot, golden hour, backlighting, silhouette, on beach, kneeling on beach, view from top, focus on breast, (breast grab, grabbing own breasts), high quality, masterpiece, cleavage,<lora:add-detail-xl:1>, <lora:zy_AmateurStyle_v2:0.8>, <lora:S1_Dramatic_Lighting_v2:0.2>, <lora:Real_Beauty:1>, <lora:violet_aa_v4:1>, <lora:backlighting:0.6>, <lora:abs slider_last:2>
Neg: score_6, score_5, score_4, (3d, render, cgi, doll, painting, fake, 3d modeling:1.4), (worst quality, low quality:1.4), child, deformed, malformed, bad hands, bad fingers, bad eyes, bad teeth, long body, blurry, duplicated, cloned, duplicate body parts, disfigured, extra limbs, fused fingers, extra fingers, twisted, distorted, malformed hands, malformed fingers, mutated hands and fingers, conjoined, missing limbs, bad anatomy, bad proportions, logo, watermark, text, lowres, mutated, mutilated, blend, artifacts, gross, ugly, depth of field, asian, face defects
>>1251856 Кстати вот что на самом деле должно быть минус рука, это ванила без ничего не визжи, если бы твой пониреалкал мог реально читать твой промпт. Особенно забавно это: score_9_up, score_8_up, score_7_up, violet_aa, brown hair, brown eyes, freckles, amature female, grin, small breasts, gorgeous girl, (skinny:1.5), beautiful, fit thighs, shiny skin, oiled skin, shiny clothes, sexy, slutty girl, grin, horny, wet skin, wet hair, swimsuit, competition swimsuit, blue one-piece swimsuit, one-piece swimsuit, tight clothes, athlethic body, turn back, portrait, photoshoot, golden hour, backlighting, silhouette, on beach, kneeling on beach, view from top, focus on breast
>>1251873 я тебе скинул пример и лору. Скорее всего ты генеришь на какойто хуйне в 20 шагов, хотя я написал что на понях тренировал У меня с моими "хуевыми" промтами получается вот так, почему у тебя с твоими ахуенными так не получается я не ебу.
>>1251879 >20 шагов 30. Чеел... Это больше, чем надо, это-же пони) >У меня с моими "хуевыми" промтами Вот с этими?))) <lora:add-detail-xl:1>, <lora:zy_AmateurStyle_v2:0.8>, <lora:S1_Dramatic_Lighting_v2:0.2>, <lora:Real_Beauty:1>, <lora:backlighting:0.6>, <lora:abs slider_last:2> ебать, вот что пережигает у тебя картинку, у тебя абсолютно нет полутонов, а теперь попробуй безо всего этого) Я делал с рефайном, начинал с: CyberRealisticPony v8.5 до шести шагов, чтобы поймать перса на пони, а затем доводил CyberRealisticXL v7.5, пробовал cfg 6 ставить, но лучше не становилось. Повторяю, это оооочень странная лора, просто пиздецки странная)
>>1251946 Не знаю что за рофл, но на модели 720p у меня получались результаты хуже, когда генерил что-то между 480 и 720p видео. Поэтому всё время сижу на 480.
Хули framepack c HunyuanVideo генерит 8 секундное видео по картиночке за 10 минут на моей 4060 с 16 гигами, а ебаный комфи с wan 2.1 от 2,5 до 6 часов нахуй. Что в этом ебаном комфи натыкать чтобы также быстро генерило
>>1252110 Не-не, я о том, что ты просто задаешь разрешение выше, и он «обрезает» до как раз 480. =) Это тупой костыль, но рабочий и пофиг. Но вообще пофиг, канеш.
>>1252137 >Вышло Хуйло 2, которое на бенчмарках опережает даже Вео3, но зато сам сайт стал платным. Бесплатные ежедневные 100 кредитов перестали выдавать. Чувак, пощупав вчера колос 2.0 я в который раз понял одну вещь: трансформеры сами по себе ущербны, за пайволом обычно скрывается пшик. Чем выше пайвол - тем хуевей там лежит хуйня. Потому что хорошую модель не надо за пайволом прятать, туда триальщики рано или поздно приведут толпы хайпожоров. А это бабки.
>>1252206 >Цензура конечно жёсткая, но вот что получилось. Тока Veo - это американский продукт, разработанный США. Кстати они разве не закрыли доступ к своим ИИ для РФ?
>>1252027 Посмотри в диспетчере задач как нагружена CUDA, есть она скачет ввех вниз значит у тебя модель выгрузилась в шаред мемори а это самая жопа - скорость будет полным говном. Надо подрубать блоксвап и выгружать в оперативку часть модел или юзать ггуф. А вот если постоянно загружена куда, то у тебя какието проблемы с картой/сборкой. Ну и скорее всего у тебя сэйдж аттеншен не установлен.
>>1250359 Чутка доработал твой флоу, прикрутил флоренс (заметил что простыня от флоренс делает видео более консистентным, а также упрощает задачу с описанием), поменял настройки чтоб торч работал на 3ххх серии видеокарт, вернул 16 фпс для большей продолжительности видео с меньшим потреблением врам, на 24 кадрах видео мне показалось каким то не естественным сильно резкие движения.
Анон пожалуйста поясни простым языком в двух словах что делают эти лоры, я так понимаю это всё некие ускорители: Wan21_AccVid Wan21_CausVid Wan21_T2V_14B_lightx2v Wan2.1-Fun-14B-InP-MPS Как они контачат между собой, можно ли их применять все разом, можно ли их все применять к другим моделям или что то выборочно можно добавлять?
Если пробовал расскажи про wan2114BFusionx_fusionx - стоит он внимания или магреф уже его превосходит?
И по твоему опыту можешь сказать какая связка дает самое хорошее качество видео и второй вариант - приемлемое качество с большой скоростью генерации. Если возможно скинь воркфлоу для примера.
>>1252453 Бля.... анон уменьши фотку до 480 по одной стороне!!! Ты че не видишь что у тебя вся рам переполнена к хуям?
656 => 480 и в итоге 480х609 но не скажу что это нормально разрешение может не завестись, погугли сам какие возможны разрешения для ван480. Либо обрежь красиво на 512х512 или попробуй 480х720 эти разрешения рабочие, но тебе можно и 512х480 для начала.
>>1252461 >>1252453 все, разобрался спасибо я просто ебанутое воркфлоу от какогото китайца использовал, нашел норм, сгенерировалось 5 секундное видео за 5 минут, заебись
>>1252457 Проиграл со второй невыстреливающей спермы. >>1252481 Минимально для подобного нужна одна лора. Он юзает несколько, в том числе лора на оптимизацию скорости генерации. Перекинешь видео в комфи, там будут показаны названия. При этом промпт неплохо работает. Ты можешь и рот ей открыть как нужно, повернуть, направить снаряды в определенную часть, заменить выстреливатель на почти любой предмет.
>>1252478 Я другой нуб, но можно тыкнуть меня в гарантированно рабочий на 3060 workflow, для образца? То, что в треде насобирал - не лезет в 12GB vram, вылетает в cuda oom еще на этапе загрузки основной модели (Wan2_1-I2V-14B-480P_fp8_e4m3fn.safetensors). Подозреваю, что мой косяк, но не могу поймать в чем. Другие workflow, которые q4_k_m квант грузят через MultiGPU ноды - работают (но далеко не так быстро, как здесь хвастаются). А здешние, которые через WanWrapper - нет.
>>1252549 Огромное спасибо. Прямо реально прозрел - за 3.5 минуты рендерит то, на что уходило 15 с gguf квантами. Причем это же без всяких teacache и прочего. Теперь есть откуда плясать.
>>1252478 Да хоть 1280x720@129, проверял. Просто чуть подольше.
>>1252522 Почему-то куча фанатов ггуфа, которые генерят по два часа то, что на киджае делается 5 минут. Есть подозрение, что кто-то просто не проверяет разные запуски.
>>1252549 Тока генерит хуйню, одна проблема в нативных воркфлоу. Я хз, может у меня косяк какой, но сколько я не сравнивал киджаевский с нативным — киджаевский качество на голову выше выдавал.
>>1252457 >Анон пожалуйста поясни простым языком в двух словах что делают эти лоры, я так понимаю это всё некие ускорители: >Wan21_AccVid >Wan21_CausVid >Wan21_T2V_14B_lightx2v >Wan2.1-Fun-14B-InP-MPS >Как они контачат между собой, можно ли их применять все разом, можно ли их все применять к другим моделям или что то выборочно можно добавлять? Первые 3 это ускорялки, мпс добавляет prompt adherence (но альтерит лица), по хорошему тебе нужен только lightx2v - все остальное уже не нужно, можно еще поэксперементировать с отрубанием блоков у мпс
>>1252594 да потому что в киджаевском есть ван блок едит, эта хуйня отрубает блоки с лор и тем самым повышает качество, да вот только сука у меня киджай ООМ блять а едит блоков сделан онли под него
>>1252594 >Почему-то куча фанатов ггуфа, которые генерят по два часа то, что на киджае делается 5 минут. Это точно не ко мне. Я от безнадеги gguf использовал, т.к. киджай не заводится (cuda oom), а просто натив - не додумался проверить, что оно заведется и так. До сих пор в ахуе - в карте 12GB в модели - 14. Про оффлодад в нитивных нодах ни слова. КАК, блин? :)
>>1252594 >Я хз, может у меня косяк какой, но сколько я не сравнивал киджаевский с нативным — киджаевский качество на голову выше выдавал. В нативных, если нужно прямо качество-качество - судя по всему надо два прохода рендерить. На разных семплерах. На первом uni_pc/sgm_uniform, на втором - uni_pc/gradient_estimation с передачей всего latent прямо из первого во второй. Так во многих workflow с цветка сделано, качество получается зашибись... но два прохода.
>>1252600 Там же этих блоков до ебениматери, как понять какие блоки плохие, а какие хорошие?
БТВ конечно эта четырех степовая ускорялка максимальный геймченджер 848х480 на 4070ти 12гб бич эдишн, 81 кадр всегда за 130-140 секунд, да ебаный флакс медленней работает, пока не пересел на киджаейвский ворк, уж больно блять какой-то (псевдо?) замороченный, какие вообще там у него плюшки супер необычные, чтобы я прям пересел с базового ворка на этот?
>>1252616 > Про оффлодад в нитивных нодах ни слова. КАК, блин? :) Автоматически. =) Он просто сам кидает, а у Киджая нужно ручками ставить. Не знаю, почему так, не вникал в детали, если честно.
> но два прохода =(
>>1252618 > четырех степовая > на 4070ти > 848х480, 81 кадр > какие вообще там у него плюшки супер необычные
>>1252632 Хм интересно, я прост gguf юзаю, а у него вроде его лоадер такие кванты не держит.(
Совсем забыл 130 секунд это у меня с интерполяцией, хотя там не сильно долго это все. Меня просто всегда отталкивают ноды в которых очень много параметров и какого-то толкового описания что? где? и главное нахуя? - нет И ты просто такой "ну я это короче не трогаю"
>>1252636 Ну тут я согласен. Нативная приятнее в этом смысле. Куча нодов связанных друг с другом, да еще многократные загрузки-выгрузки туда-сюда разных моделей — это сразу до свидания для меня.
>>1252649 я не он, но подскажи, а какой смысл брать энкодер в ггуфе? разве он не выгружается сразу после того как обработает промпт? у меня например с 6гб рам что фп8 что фп16 на нативе не дают ни разницы в скорости ни омм. Какой профит?
>>1252656 Все же апскейл наверное не стоит приплетать, это ты просто каждый кадр апксейлится определенной моделью, многое зависит и от самой модели, хотя и интерполяция это считай уже прикручено из вне. Я пока стараюсь именно с минимальным количеством избыточных действий генерации делать, чтобы потом подбирать апскейл изолировано. >>1252657 Брат, сорри, у киджая на улыбниморде лора лежит дистил t2v что-то там, 5 дней назад или типа того, но работает с i2v замечательно.
>>1252678 да это понятно. Я к тому, что смысл ггуфа то в том, чтобы вместить его, но толку с этого, если он в нативном просто выгружается. Ну хотя да, на больших объемах наверное полезней уместить выше точность с малым объемом в видяху без оффлоада, буст даст, в отличие от моих 6гиг, куда никакой энкодер не влезет и в любом случае пойдет в оффлоад.
>>1252663 Короче у меня есть энкодер и в гуфи и не в гуфе fp8 scaled. И с не гуфовым следующая история, как только чуть-чуть меняю промпт, он начинает перелопачивать его крайне долго секунд 30 примерно. С гуфом просто раз два и все, сразу же переходил к ksampler. Почему я юзаю scaled? Оригинальный воркфлоу не работает с не scaled fp8 квантом.
Я тоже начал ловить ООМ, но в очень странных местах. То у меня 129 кадров генерится быстро, то с 73 я ловлю оом. Суперстранная фигня.
У меня fp8_e4m3fn не хочет работать на 3060, только fp8_e5m2fn. А большинство моделей в e4m3, меня это напрягает.
Как приду через часик-полтора, продолжу разбираться.
И правда, Киджай с 3060 работает странно. Причем, не просто «плохо», а непоследовательно. С фига бы 129 кадров не вызывало ООМ, если 73 вызывает? Мутная история. х)
>>1252710 сид полностью может сменить картинку, а шифт местами может изменить, попробуй просто при одном фикс сиде и остальных параметрах, прогнать с шифтом на 4 и 8. Иногда одно лучше, иногда другое.
*он. Да, я про его ван-враппер. Плюс меня бесит с его ноды имеют чисто свои input-output, несовместимые с нативом. Максимум его kjnodes юзал. тикеш, слг. Посматриваю в сторону 5060ti 16гб, но колется. Хочется 5070ti, но насиловать 750вт блок тоже не хочется, люблю тишину.
>>1252761 у меня нормальный комп, который в 99% меня устраивает. А брать некую вещь для "поиграться", которая будет простаивать 95% времени - я не такой дурачек. Если это станет моим занятием на 95%, то возьму такой "кампухтер", который мама тебе в кредит на 100 не сможет взять. Ок?
>>1252777 ещё один долбаёб или семён. Вы только в своих высерах прикладывайте свойство кампухтера, а то ваши высеры ничего не стоят. Хотя и так скриншотов дохуя в интернетах. Поэтому идите нахуй, повторять не буду больше. Как и кормить вас.
>>1252811 ну смотри, я тебя приложил фактами (у меня пиздатый комп, у тебя нищета) ты меня приложил боевыми видосиками) по моему тут все очевидно) ты уже должен был съебать и "не кормить", но тебя так бомбит что ты все никак не съебешь)
У меня натив генерит хуйню, но я верю на слово, что это я еблан. Натив генерит в сумме на 10 секунд быстрее (70 секунд) если подрубить Torch Compile и SageAttention.
Думаю, для всех, кто генерит на нативе — лучше попробовать эти способы и не париться киджаем.
Вот тут >>1252757 есть эти ноды, вроде бы верно подключены.
Киджаевские ноды на 32 гигах оперативы и 3060 мне позволили блок свапнуть максимум 25 блоков. Но 81 кадр влез!
В финале я должен покаяться перед челом с 3060 за то, что дал ему ложную надежду. =) Я думал, что 3060 слабее 4070ти в два раза, но оказалось, что не 2, и есть нюансы.
Итого: 848x480@81 на 3060 (и 32 гига оперативы) — 245 секунд. Думаю, на нативе можно выжать 200 секунд.
got prompt timesteps: tensor([999, 934, 862, 756], device='cuda:0') image_cond shape: torch.Size([20, 21, 60, 106]) Seq len: 33390 previewer: None Swapping 25 transformer blocks Initializing block swap: 100%|█████████████████████████████████████████████████████████| 40/40 [00:01<00:00, 31.88it/s] ---------------------- Block swap memory summary: Transformer blocks on cpu: 9629.85MB Transformer blocks on cuda:0: 5777.91MB Total memory used by transformer blocks: 15407.75MB Non-blocking memory transfer: True ---------------------- Sampling 81 frames at 848x480 with 4 steps 100%|████████████████████████████████████████████████████████████████████████████████████| 4/4 [02:57<00:00, 44.44s/it] Allocated memory: memory=0.051 GB Max allocated memory: max_memory=9.437 GB Max reserved memory: max_reserved=9.969 GB VAE decoding: 100%|████████████████████████████████████████████████████████████████████| 18/18 [01:01<00:00, 3.44s/it] Prompt executed in 245.43 seconds
ЗЫ Да, это не Маринетт, у меня два компа в разных комнатах, мне было лень картинку перетаскивать, отстаньте.
>>1252836 >Чел, ты не туда воюешь. всё я туда воюю, судя по цепочке
>значит дело в модели, которая у меня скачана не думаю. Всё что сменил, это на ггуф версию. Ну и 65 кадров, больше 6 гигов не влезет при том разрешении.
Я не участвовал в вашем сраче и вбросил одну единственную фразу, меня сразу окрестили «намного сильнее твоих высеров». Каких высеров-то? Покажи хоть один.
>>1252862 ты на мой ответ "тому челу", выдал >Звучит очень слабо. т.е. ты так же считаешь, что если мне в повседневной жизни не нужна вся эта хуйня, но если у меня есть деньги и я могу это себе позволить, я обязательно должен это себе купить и сдувать с этого пыль. А то что я тебе ответил, ты уж извини, ты сам влез в цепочку, тебя не просили, тут все аноны.
>>1252714 Чувак с 3060 на связи. Кажись, накопал причину. У меня не только 3060, у меня еще p104-100 во втором слоте. WanWrapper - oно тупое. Вместо cpu выбирает ее как offload_device. Разумеется, нихрена не работает если туда грузить (там 8GB vram и pascal как архитектура, т.е. оно многого вообще не умеет, по сравнению с 3060).
Нативные ноды оффлоадят куда надо, потому и работают. MultiGPU ноды тоже подобное понимают (и дают выбрать - куда надо). А WanWrapper - нет. Помянем.
>>1252831 >В финале я должен покаяться перед челом с 3060 за то, что дал ему ложную надежду. Нас тут несколько, с 3060 видимо. Я тот что >>1252880 и который с gguf квантом ковырялся (еще в текстовом треде).
Мне все равно помогло, пусть и не с WanWrapper, но на нативных нодах с лорой я примерно 3.5 минуты получил на том, что 15-20 минут до того рендерилось. Все равно профит, так что, за пинок в нужную сторону по любому - спасибо, и мое уважение.
>>1252595 Спасибо за инфу. То есть по сути вот это все: >Wan21_AccVid >Wan21_CausVid Делает вот это Wan21_T2V_14B_lightx2v, я правильно понял?
мпс добавляет prompt adherence (но альтерит лица) >да кстати это заметил, не знал правда из за чего, еще и 1 кадр не совпадает с загруженным изображением он там уже начинает дорисовывать своё.
А с отрубкой блоков надо экспериментировать или можно где то инфу почитать?
>>1252920 >Делает вот это Wan21_T2V_14B_lightx2v, я правильно понял? lightx2v это новый метод дистилляции который не руинит motion в целом и требует меньше шагов. К нему можно попробовать подрубать каузвид и акквид с небольшими весами но я думаю и так нормально. Лучше вес самой lightx2v лоры уменьшать >А с отрубкой блоков надо экспериментировать или можно где то инфу почитать? Если вообще то надо экспериментировать, если для мпса то возьми 1 видос отсюда >>1250359 и включи мпс ноду, я там уже отбраковал почти все блоки, может какие-то еще остались которые не влияют на лицо, надо тестить дальше но мне лень пока
А есть тут вообще мудрецы, что понимают в каком стиле ван лучше понимает запросы в стиле "'Это видео с изображением кота..." или сразу "Серый кот передними лапами играет с мячом" или "Месиво из пикселей крайне напоминающее животное типа кота...." Может есть какие-нибудь триксы?
>>1252727 Нищуки двигатели прогресса, только сильно за мотивированный гик с 1050 и лютым желанием вздрочнуть может сделать прорыв в видел доступа к локальным генерациям на консюмерских карточках, а если все решать лишь закидыванием железом, то у нас бы щас не колесо было, а просто очень много негров, что толкают булыжник. А если ты просто похвастаться - молодец, но там как бы 50 серия уже вышла.
>>1252995 >только сильно за мотивированный гик с 1050 и лютым желанием вздрочнуть может сделать прорыв в видел доступа к локальным генерациям на консюмерских карточках, Не думаю что те китайцы которые пилили дистилляцию сидели на 1050, и мотивация у них уж точно была не подрочить.
>>1252995 >Нищуки двигатели прогресса Киджай не нищук, нищуки ИТТ это ебаные тупые мрази которые уже настолько оскотинились, что даже не понимают за что модули в воркфлоу отвечают. Закономерная деградация лапшедебилов.
>>1252977 Выше писал, там веоблядь еще порвалась. Ван китайский понимает немного лучше английского, в целом, конечно, лучше придерживаться структуры китайского языка, то есть не оперировать сложно подчиненными предложениями, промпт не сильно большой и не сильно маленький. Если твой кот, например, сосет твой хуй, то мало написать "кот сосет хуй", надо написать чем сосет, как хуй себя ведет, что он из себя представляет, что кот хуй не откусывает, а просто раскрыл рот, пока хуй его в рот ебет, что у кота выражения лица не меняется, чтоб ты этого кота узнать потом мог, и не генерить видосы с соседскими и улиячными котами.
Очень неожиданно, что Киджаевские ноды грузят в P104-100. Гении, хуле. =/
С другой стороны, у меня inZOI с 1660S во втором слоте не работал, а когда ее убрал — все ок стало.
>>1252905 Действительно. =) Ну, рад, если смог помочь, в любом случае. Все же, спасибо light2x за их дистилляты. 4 степа — просто чудо для локальной генерации.
(а если попробуешь 480x360~272 то там ваще скоростуха улетит)
>>1252920 > Делает вот это Wan21_T2V_14B_lightx2v, я правильно понял? Лайт2х — это новое поколение каусвида. Как я понял от тех же авторов. Апгрейд, можно сказать. Да и будем честны, она даже на 2 степах может что-то генерить. Не думаю, что к ней другие имеет смысл подключать.
>>1252977 Я пишу в одну строчку «А делает Б» и получается. Но кто-то выше писал, что флоренс делает годные промпты. Еще можно промптэнхансер попробовать для флюкса того же. 2-3 строчки описания явно сделают движения лучше и богаче.
>>1252995 В геймдеве сейчас как раз закидывание железом, так что…
>>1253078 Спасибо понял, то есть условно на уровне физики типа рот открыт, жопа большая, глаза зажмурены, туловище смещается на значительную амплитуду, без всякого лишнего графоманства.
>>1253086 >В геймдеве сейчас как раз закидывание железом, так что… Нет на них Джона Кармака. Тогда нужда в оптимизации была более явной, чтобы продавать непосредственно игры, а щас игр, как говна за баней, но большинство из них говно недостойное внимания.
>>1253090 Фреймворк, что разрабатывала куча красноглазых азиатских вундеркиндов оказывается просто челик с хага, ну просто если лень разбираться, мб не стоит так педалировать дискуссию, мы люди терпиливые, подождем :-)
>>1253078 > Ван китайский понимает немного лучше английского, в целом, конечно, лучше придерживаться структуры китайского языка, то есть не оперировать сложно подчиненными предложениями, На китайском хорошо писать негативы, или если у тебя персонаж не выполняет заданные действия, например не поворачивает голову в сторону или не снимает с себя одежду. Фразы, на которых обучались лоры на движения, лучше писать как есть - на английском.
Есть у кого 100% рабочий промпт для вана, чтобы из картинки вне фокуса, он сделал её резкой и "чёткой". Или как вариант перекинул фокус с переднего плана на задний или наоборот. ?
>1 видос отсюда >>1250359 Бро я как раз отсюда брал и васянил на нем уже. У тебя там всё и каус и мпс и акк и блок эдиты для лор, но во втором видосе уже половины нет, по этому и вопросы такие. Единственное что у тебя там не такие уж и "небольшие веса" в первом видосе, пикрил.
Спасибо что уделяешь время анонам жаждущим знаний.
>>1253094 Да типа того, так же как если ты не хочешь чтоб у тебя член гнулся как сосиска ты пишешь "жесткий" и "фиксированной длинны". Но такое там легче лорами решается, но технически ты член можешь и запромптить, даже хотя там члена как объекта в датасете явно нет.
>>1253129 Я не он, но на релизе на 17 дюймовом монике я в него мог играть на ультра настройках в 640480. Было заебись, кадров было много, под 60, всю игру прошел...на fx5200. У друга брал погонять, моя mx460 безшейдерная вроде еле шла...точно не вспомню. А альфу стыренную без проблем на mx460 гонял, когда были ti-шки. И замечу, тогдашние 640480 в играх были не то мыло, что сегодня. Рендер был приятней и чётче.
>>1253134 Я тоже играл на релизе, да и про завышенные системки легко можешь загуглить, никто рад не был, шла она хуево. Кармак там на свет передрочил. Чел, там литералли трупы пропадают, чтоб просадок не было. Так что извини, нет.
>И замечу, тогдашние 640480 в играх были не то мыло, что сегодня. Рендер был приятней и чётче. Я на анрил на 166пне играл, даже не начинай с этой хуйней. Тебе наверное тогда лет 10 было.
>>1253143 ты слишком сильно придираешься к игре, от которой в то время у людей челюсть отпадала и бла-бла-бла.
>Я на анрил на 166пне играл, даже не начинай в прошлом году вытащил из шкафа и полностью почистил и персобрал свой пень 133мх+16мб рамы и s3trio64 c 1мегабайтом. хард там на целый полтора гигабайта. Стояла с тех времен 95 винда, в паре с 3.11 и nc. Решил накатить 98, но нет, говорит дай минимум 32мб. Благо перед установкой 98 винды сделал образ). И знаешь как весело её накатывать, кое как в загашнике найдя кривую болванку полуживую. ЮСБшник не стал подрубать, ибо там с дровами геммор. Сетевухи там нет, как и звука. Зато снова запустил и прогнал набор из дум2, дюк3д, принц персии, lines, f1, ewjim2, dave, ХЕРетик, ебучий тренажер на клавиатуру. Так что да, можешь не начинать)
>>1253129 Ну скажем так, что релиз дума 3 это вообще новая ветвь развития ID, действительно тогда они решили зафигачить туда значительно больше и думаю они осознавали, что отрежут часть аудитории, скорее всего это была технология на вырост. К примеру во времена выхода quake 3 поиграть в него я сразу не смог, ибо нужна была гпу с 3Д ускорителем :D
>>1253150 >от которой в то время у людей челюсть отпадала и бла-бла-бла. Ни у кого от него челюсть не отпадала. Челюсть от анрила отпадала когда он вышел, Дум3 ничем особо прорывным не отметился. Там у людей в основном глаза отпадали, потому что не видно в теноте нихуя.
>Зато снова запустил и прогнал набор из дум2, дюк3д, принц персии, lines, f1, ewjim2, dave, ХЕРетик, ебучий тренажер на клавиатуру. Там и поприличней игры шли нормально. Мдк, ку1,2. У меня вроде 32 было. Я анрил турнамент там запускал на минимальном разрешении, было довольно играбельно. Но у меня 166. Но не суть. Там фоллач шол, вся хуйня. Это не такое уж старое железо. Вот у меня был 386й, он объективно со скрипом тянул икском, прям с тормозами (но я прошел), а варкрафт первый там даже не запустился.
А вообще суть моей мысли изначально другая, видеокарты среднего сегмента закрывают 80%-100% игровых потребностей, но даже близко не приближаются к такому проценту, если мы говорим о локальных генерациях (любых). Вся эта АИ дрочь уже больше походит на хобби, прямо как рыбалка или сборка всяких реалистичных моделей. Не всегда, чтобы попробовать себя в рыбалке нужно сразу покупать самый дорогой эквип, а то то нищук-пиздуй нахуй с водоема. По этому выпады в сторону людей, что видите ли не купили себе самую топовую видяху (из пользовательских). Поэтому выпады в сторону людей, которые не купили себе топовую видеокарту для генерации, выглядят странно. Большинству достаточно среднебюджетных решений, которые тянут современные игры и даже базовые задачи по AI или 3D. Топовые карты нужны только тем, кто реально уходит в глубокий профессионализм или хочет максимума ради эксперимента.
>>1253171 >Ни у кого от него челюсть не отпадала. Ну с тобой тут понятно. У тебя все это никто, а только ты и только ты)
>Вот у меня был 386й Надеюсь свои медали с Великой Отечественной не продал еще, перед тем как в ящик упасть). И с живым Пушкиным успел чаёк попить. п.с. жаль только 486dx остался, всё брелок из него хочу замутить.
>>1253105 Да, хаг — это хостинг моделей для различных нейросетей. Как и https://modelscope.cn/ , кстати. А гит — это система контроля версий и хостинг кода.
Но иногда и там, и там, выкладывают и всякое другое. Например сбилженные флэш-атеншен или другие вилсы. =)
>>1253143 Я как вспомню, как у меня каждая следующая карта на ут2004 грузилась все дольше. =D Где-то после 40-минутной загрузки и игры, я ребутал комп.
>>1253172 Не стоит забывать, что это тред моделек, в том числе локальных, в разделе моделек, в том числе сугубо локальных, и иметь деньги, но не иметь видяхи в этом треде — странно. Пусть идут куда-нибудь ВК, или пикабу, где собираются люди, которым это действительно не сильно интересно и просто «поиграться». Хотя, в игры тоже просто играются, но видяхи ради них берут… не самое удачное слово, но вы меня поняли.
>>1253183 > где собираются люди, которым это действительно не сильно интересно и просто «поиграться». А тут я погляжу серьёзные люди только сидят, хуи в рот бабам суют, а ещё столько видосов минутных с сюжетом..Да.. Сама серьёзность. И для этого всегда и везде нужно минимум 4090, а лучше сразу h100 или b200, а то хуанг не одобряет. Майнеры когда-то тоже брали поиграться, но битмайны им говорили, нахуй вам эти игрушки, чё вы, нищуки чтоли, берите асики у нас..
>>1253183 1) Модели бывают разные в том числе 1.3b, опять же давайте вспомним сд 1.5, требования к новым моделям сделали 15 шагов вперед, Хуанг тем временем просто крысит врамы понимает, что монополист 2) "Вы не можете увлекаться и интересоваться вещами, которые не можете себе позволить" - буквально схуя? Тут в треде прям ощутимый импакт полезности от людей с 4090 и выше? Как мне любой микрочел, что скинул линк на лору, дистил, хуйню оптимизатор и тут же свалил в разы больше, чем от чела, что написал "У миня 4090, а вы нищуки" 3) >Пусть идут куда-нибудь ВК, или пикабу Ну это уже совсем синдром водителя лифта
>>1253219 Нихуя я нищуков подорвал. =D Сорян, ребят, я не знал, что у вас такие нервы, да и с чтением так хуево. Без пизды, генерим на 1050, народная видеокарта, топовый выбор для игрулек, ноль процентов осуждения! Хули я тут доебался.
Спасибо, что напомнили.
Человек, который тратит часы на эксперименты, подбирает параметры, ищет воркфлоу — хуесос в треде. А вот человек, который буквально выебнулся, какой он до пизды богатый, но покупать видеокарту не будет из принципа, поэтому сосет хуй — вот это базовый тредовичок по вашему.
>>1253240 >Хули я тут доебался. Единственная нормальная вещь, что ты написал. Тебя то как ебет на чем человек дрочится? Или у тебя такой механизм самореализации?
>Человек, который тратит часы на эксперименты, подбирает параметры, ищет воркфлоу — хуесос в треде. Ты тут каким то особенным тегом не обозначен, твои находки мне неизвестны, по этому заранее клеймить тебя бестолковым хуесосом - не стану.
>Спасибо, что напомнили. Буквально скипнул специально или нет нормальную аргументацию, ибо отвечать тяжело или аргументов толковых нет. Мне кажется ты очень примитивно рассуждаешь игнорируя факты, которые никуда не пропали.
Раньше “быть в теме” локальных генераций было дешевле и проще — хватало обычной видеокарты. Сейчас запуск современных моделей требует либо топовых (и очень дорогих) GPU, либо компромиссов в качестве и размере моделей. За 2–3 года требования к железу стали заоблачными, а доступность мощных карт для обычных пользователей снизилась. Требования выросли значительно выше, чем возможности карты, условно того же сегмента, но другого года.
>>1253268 Читал, просто там хуйня написана, которая не имеет отношения к моим словам. Я не вижу смысла пояснять — вы скорее всего не сможете понять, пустая трата времени для меня. Вы или очень глупый, что даже прочесть мои сообщения не смогли, либо тролль, ну сами понимаете, кормить — себя не уважать. =)
>>1253279 Это взаимные эмоции, мне ваша позиция и мировоззрение абсолютно не близки, да ещё уровень мании величия, что у вас появилась на фоне покупки 4090 или ещё каких событий в жизни, совсем отбивают желание даже дискутировать.
>нищета бля ебанная, на РАБоту идите и зарабатывайте себе на норм комп, смысл бля дрочить в 256x256 и 3 секунды свое говно, только позоритесь
>>1253286 У каждого есть камера в телефоне, у почти каждого подъезда есть куча бабок, которым нехуй делать. Комбинация этих двух - лучше любой нейронки. Так и скажи другу.
>>1253291 ну как вариант, но подъездов больше, и бабки везде разные, соответственно контент можно генерировать в геометрической прогрессии.
п.с. господа. Кто-нибудь проверял подобный сценарий, но с чем угодно другим. О чем речь. Есть базовая модель и лора и готовая модель с вшитой лорой. Что будет быстрее работать? И будет ли разница. Пока из плюсов вижу то, что можно менять силу лоры, если раздельно.
>>1253295 Судя по изменению скорости генерации (отсутствию оного), сейчас этот вопрос не актуален. Comfy, походу, теперь просто мержит лору на лету во время загрузки. Хотя, может и не в этом причина.
Не пиздец, парни, я уже окончательно перестал улавливать кто есть кто по этому высрусь напоследок:
Могу ли я прямо сейчас купить 5090? - Да Могу ли я прямо сейчас купить 5090 и не заметить этого? - Нет
Дело в том, что во взрослой жизни имеется система приоритетов и в данный момент времени моя любовь к мастурбации на self generated content не может конкурировать с делами насущными, а по этому продолжаю любить людей, что делают даже большие модели возможными к запуску на моей нищуковой 4070ti.
Прошу знающих анонов чекнуть workflow, при создании его для меня самым главным критерием было использование LoraManager (дабы промпт автоматом прописывался. Юзаю FusionXL i2v на RTX5070TI (16гб VRAM), 32гб RAM Вчера увеличил файл подкачки до 65гб, ибо заебало в OOM уходить, после увеличения подкачки стало получше.
В среднем 560x720, 6 шагов, 21 fps, с лорой lightsx делаем в среднем за 4 - 5 минут.
Workflow можно улучшить? Качество там или скорость бустануть генерации? Заранее спасибо аноны
Вот воркфлоу на две персоны. Результаты средние, иногда хуйня, иногда что-то нормальное. Там ресайзить нужно для клип вижена, он только одинакового размера фотки на вход принимает. Ну и чтобы они были нужного размера на видосе. Из 40 видосянов позавчера где-то 5 были ближе к хорошим, 15 пойдет и 20 мусорные.
Кстати, боюсь щас опять кого-то подорвет, но всем обладателям 32 гигов крайне рекомендую добить до 64, или 128. 64 стоит вообще копейки (8к чи скока там), а 128 терпимую сумму (не дороже 3060). Зато забываете нахер о свап-файле. Времени на холодный старт уходит гораздо меньше.
>>1253433 Въебана уже давно, как только Nvidia внедрила эту штуку) Забавно что помогла подкачка до 65гб, не думал что обращусь к ней спустя столько лет, лол
>>1253446 Погоди, ты типа не хочешь оффлоадить в оперативку ничего? Почему? В неё нормально можно text encoderы запиндюривать, да и она всяко быстрей, чем SSD
>>1253456 Смотри ты ООМ ловишь, потому что у тебя когда vram заканчивается то все, гасите свечи. Кто и зачем отрубает? Если все помещается разом в vram тогда да, если нет, то лучше не отрубать, в комфи можно выбирать целевое устройство в настройках лоадер нод. Свап он же pagefile это по сути оперативка на обычном hdd/ssd и этот файл подкачки всегда будет медленнее.
>>1253461 Спасибо, анон, эту настройку начал ставить с 3060ti, для поняшки, ну и когда nvidia релизнула эту фичу. Где то вычитал что нужно "не использовать" сейчас поменяю, буду тестить
>>1253446 Ты на самом деле пережестил с квантом на энкодер, ты себе можешь спокойно позволить q8.0 он максимально близок в fp16, там даже вроде какие-то слои fp16. Выбери только device cpu, чтобы энкодер улетал в оперативку и было больше места под модель и лоры на видео памяти
>>1253459 >>1253459 А тут поподробнее, что значит киджай и натив?) Я юзаю Comfy через StabilityMatrix, удобно хранить в одном так сказать интерфейсе reforge/forge/comfy
>>1253469 >киджай и натив? родной воркфлоу от комфи. Из коробки. Хотя я поспешил, у тебя итак "родной" с довесками. Я просто "триггернулся" на скрине на загрузчик модели с сажей. Так что мой "совет" неактуален.
>>1253463 В ЛЛМ принято считать, что вытекание в оперативу убивает инференс (на самом деле, для 1-2 лишних слоев некритично, а дальше — да). Многие могли притащить эту мысль сюда. Лишь предполагаю.