>>1309680 → Пробую воркфлоу отсюда, выдает вот такое. Как это побороть? Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu!
Плюс, сама моделька называется Wan2_1-Wan-I2V-MAGREF-14B_fp8_e4m3fn. Когда я в другом воркфлоу пробовал завести Wan2_2-I2V-A14B-HIGH_fp8_e4m3fn_scaled_KJ, то у меня не взлетело на 3090, писало не поддерживает такой формат, я скачивал e5m2 версию, который работала. Но вот этот MAGREF в e5m2 не нашел. Что делать в этом случае?
>>1329443 → > ~1 минута на секунду видео без оптимизаций Блин, я прочел как целое видео. Думаю, в натуре, ну у меня генерит 2 минуты видосян, но у меня 4070 ти, а тут на 3060 обещают 1 минуту! Ничоси, быстрый! А тока с третьего раза понял, что все норм. =D
Не пиши «на секунду» пиши «промпт экзекьютед».
>>1329713 Магреф — это ван2.1, там одна цельная модель. Ван2.2 — это Ван2.2 там две модели (HIGH и LOW). Ваш кэп. Ты че-то разные вещи делаешь. В начале выбери, что тебе надо — магреф, который генерит сильно отличные от первого кадра видео, зато соединяет объекты, или ван2.2, который лучше следует промпту. Исходя из выбора — выбирай и воркфлоу подходящий модели. А то тыкаешь абы как, получается абы что.
тут в прошлом треде проскочило, что res_2s лучше использовать в качестве семплера. И как понял шедулер beta57 к нему. Но на 6 шагах, с лайт лорами от 2.1 получается видео с артефактами. Какие-то спец настройки нужны, чтоб его использовать?
Что ж, первые опыты в Wan 2.2 i2v Почему-то нормально зацикленное видео пока не получается - всё равно виден переход. Хотя вроде воркфлоу с первым и последним кадром.
>>1329858 Ой всё. Меня видео интересует только в плане переделки нагенеренных картиночек в живые обои. Лучше бы подсказал почему конец от начала на глаз может немного отличаються (из-за чего виден переход при зацикливании), хотя и там и там одно и то же изображение в основе своей, и как это фиксить. Я пока видел только ебучего монстра из трёх воркфлоу для зацикленного видео, и там для нормального качества автор предлагает использовать локальную нейронку для формирования промпта.
>>1329836 По тому что ван при генерации каждой секунды повыщает насыщенность, по немногу, но первый кадр от восемьдесят первого отличить можно без труда, По этому перед сборкой надо прогонять кадры через цветокоррекцию.
Также первый и последний кадр ОДИНАКОВЫЕ, то есть у тебя подряд идут два точ в точ кадра при 16 фпс это можно заметить, при интерполяции до 30 фпс ты получишь уже 4 кадра одинаковых что уже можно заметить невооруженным глазом. По этому при сборке видео надо исключать последний кадр.
Как называлась новая альтернатива SAM2? На редите висело в hot со сценой из ГП, по примерам она сильно лучше сегментировала, но название у неё совершенно хуевое было, тяжело гуглилось и тогда ещё вроде не было комфи ноды.
Что это на 2.2 за лора хай и лора лоу. Я поставил лоу и там просто картинка разваливается вся. Опять какую-то хуету придумали. Нормально же на 2.1 всё было, без этой хуеты.
>>1330211 Не работает чет. >A beautiful woman with bare chest, topless, nude breasts, detailed anatomy, realistic skin texture, soft lighting, high resolution, artistic style, NSFW. Это я добавил для раздевания (не работает нихуя)
>, man appears and she sucks his penis, Этот на блоу, работает.
>>1330229 >Не работает чет. >A beautiful woman with bare chest, topless, nude breasts, detailed anatomy, realistic skin texture, soft lighting, high resolution, artistic style, NSFW. >Это я добавил для раздевания (не работает нихуя) У тебя тут описание персонажа, но нет описания того что он делает (снимает майку, как именно) >man appears and she sucks his penis >Этот на блоу, работает. Тут есть описание происходящего. Более того, это промпт на который тренилась лора орал инсершен, естественно он будет работать с этой лорой
>>1329890 >Лучше бы подсказал почему конец от начала на глаз может немного отличаються (из-за чего виден переход при зацикливании), Потому что нужно использовать ВАСЕ начальный и конечный фрейм, где ты в начало и конец добавишь одну картинку. Но с такой убогой анимацией ты можешь установить мовави, скопировать огрызок два раза, сделать обратное проигрывание и удалить пару фреймов в середине.
И вот опять я что-то делаю не так. Если сиськи небыли заранее нарисованы, то на WAN2.2 при i2v в аниме-стилистике нихуя не получается. Не нашёл отдельных лор на соски, может в промпте надо что-то прописывать более конкретное?
>>1330438 Потрясающе, просто... ну реально, я в шоке. Как ты смог добиться таких анимаций? Особенно на третей, теперь я понимаю, насколько тебе сложно сделать зацикленную анимацию, они такие сложные, что вряд ли это в пределах человеческих возможностей. Если у тебя получиться, то ты сможешь считаться полубогом, как Геракл, например. Да, это тринадцатый подвиг Геракла будет.
А помните, чел не верил в промо хайлы? Чистый t2v, плюс с промптом у меня малый опыт, поэтому не так хорошо или интересно как могут сделать другие. Попробуйте сгенерить что-то маловероятное, но реалистичное. Оставил промпт в мете первого видео, если не хочется начинать с нуля. Что генерят другие сетки лучше не видеть.
Раньше еще во времена актуального аутоматик1111 была популярна прога rope/roop. Была портабл версия rope by neurogen, на старой видюхе старые версии работали хорошо, но потом я купил видеокарту новую, и оказалось старые версии не работают на 50ХХ видюхах, а новый роуп который он выпустил с патчем, стоит 2500р у него на бусти. Есть какие то аналоги этой проге? неужели никто больше не сделал портейбл версии? всем лень, всем похуй? кто нибудь вообще пользовался/пользуется роупом? ахуенная же прога, очень удобная для создания контента
Ребята, а можно реквест? АннаСофия Робб и Кирнан Шипка сидят на зеленом пригорке перед большим космодромом, и сладко улыбаются, глядя в вечернее небо. АннаСофия кладет голову на плечо Шипке. У них за спиной лес. С космодрома, перед которым они сидят, медленно взлетает в космос огромный медведь, из его задней части (задницы) с искрами вырывается пламя как из сопла ракеты, оставляя длинный дымный след.
Если сетка не знает кто такая АСР, то вот ее описание: низкая девушка с большими серо-зелеными глазами и длинными, до лопаток, светлыми волосами с мелкими кудряшками.
>>1330828 >Если сетка не знает кто такая АСР, то вот ее описание: низкая девушка с большими серо-зелеными глазами и длинными, до лопаток, светлыми волосами с мелкими кудряшками
>>1330821 Как вообще определил что не работает? Какой вообще смысл от этих фаст версий? Почему бэйс пресижен фп16 фаст, а не бф 16? Почему модель е5м2, а не е4м3? Все эти вопросы не дают мне спокойно спать по ночам, все эти настройки перебирал так и не понял зачем все это. Знаю только что без е5м2 торч не заведется на 30хх серии, но сейчас на wan2.2 он вообще не заводится почему то, даже с е5м2, он типа подключен и даже что то там собирает предварительно (но не колеса) только скорость генерации одинаковая что с ним что без него.
>>1331051 >фаст версий Ухудшить качество за счет минус трех секунд времени генерации >>1331051 >фп16 фаст, а не бф 16 Быстрей >>1331051 >е5м2, а не е4м3 Первая для старых видюх (вроде 30xx и ниже)
>>1331109 >никто ваще нихуя не понимает в этом, Девиз этого дебильного треда, генерирующего исключительно стены шизо-текста и больше ничего, ни результатов, ни собственных наработок, ну разве что раз в три дня какой-то школьник выложит во все треды двача очередную горлоеблю со сметаной, и всё на этом, и опять стены шизойдного бухтежа о ниочём, так и живём, казалось бы, какая хуй разница, где ты живешь, на каком языке говоришь, тебе доступен тот-же инструментарий, что и какому-нибудь косорылому китайчёнку или копчёному засранцу из мумбаев, но нет, это похоже на эпидемию слабоумия в паре с словесным недержанием.
>>1331234 Это ты тот даун, который стучал моче на нсфв, а когда моча его внезапно разрешила, так порвался, что в ответ начал постить куколд порно с дедами? Вот уж кто всех заебал своим нытьем, так это ты.
>>1331234 >разве что раз в три дня какой-то школьник выложит во все треды двача очередную горлоеблю со сметаной Ну раз ты так просишь на самом деле мне просто нужен пост чтобы следить за свежим тредом
>>1329713 >у меня не взлетело на 3090 Как производительность для видосов на 3090?
Думаю закупиться чем-то относительно недорогим и похоже 3090 это минималка, но хватает ли её? Базовая норм или лучше на Ti подкопить? Или до 4090 жизни нет?
>>1332069 3090 тема, 4090 лучше, но не на столько на сколько она дороже 3090 выходит. Если бы 4090 продавали тысяч за 70 то можно было бы брать, а дороже уже лучше рассматривать 5070ти
>>1332129 >720р видосов это зависит от объема видеопамяти, мало памяти - придется сгружать часть модели в озу от этого будет падать скорость генерации. Для 720р даже 24 гигов мало. В основном генерят 480р и потом апскейлят.
>5070ти >>В ней же памяти не доложили. Да, НО у нее архитектура современней и за счет большей скорости генерации она нивелирует разницу от того что выгружать в озу приходится. Получается примерно равная 3090 скорость генерции. Только в случае 5070ти ты получаешь свежую карточку с длсс4 и прочими финтифлюшками + она на гарантии будет.
>>1332150 чето табличка хуйни какая то 3090 24 гб почти в 3 раза медленнее чем 5080 16 гб при практически равном количестве куда ядер, схуя ли?
NO BLOCKSWAP >5080 16 гб. >CAN RUN FP16 WITHOUT OMM AT 720P >YES что это такое блять? Там только модель весит как вся vram...
>3090 24 гб CAN RUN FP16 WITHOUT OMM AT 720P >YES (with torch compile) Что за приписка про торч? Типо что торч вообще сделает в данной ситуации, когда ответ да или нет.
А внизу охуительные бенчмарки на порашной нунчаке для бомжей. Почему не сделали на FLUX1.d? Ах да, он же нихера не поместится в 16 гигабайтный огрызок.
>>1332069 4070 ti чуть побыстрее 3090 и скорость меня вполне устраивает, думаю на 3090 вполне можно норм генерить. 3060 в 2,7 раза медленнее 4070 ti (условно в 2,5 раза медленнее 3090) и вот там уже терпеть приходится. 4090 должна быть еще в 2 раза быстрее, а 5090 еще в 1,5 раза быстрее.
Но 5070 ti звучит как хороший вариант, а лучше подождать 5070 ti SUPER.
>>1332140 > это зависит от объема видеопамяти, мало памяти - придется сгружать часть модели в озу от этого будет падать скорость генерации. Для 720р даже 24 гигов мало. В основном генерят 480р и потом апскейлят. Немного бред. От выгрузки скорость страдает не сильно. Количество видеопамяти ограничивает контекст (количество кадров умноженное на разрешение).
На WAN2.1 можно генерить 1280720 5 секунд, а на WAN2.2. уже не влазит, приходится или 4 секунды генерить, или 960544, а потом апскейлить.
16 гигов должно быть лучше, туда влезет 5 сек на WAN2.2, но у нас тут новые релизы… =D Опять не хватит?
>>1332183 Помогите) После установки новой видеокарты перестали работать ранее работающие воркфлоу. Сейчас модель загружается в память, но застывает на нулевом шаге генерации и на этом всё) При этом видеокарта нагружена на сотку и видеопамять занята. Ошибок никаких нет
>>1332238 >От выгрузки скорость страдает не сильно. Количество видеопамяти ограничивает контекст (количество кадров умноженное на разрешение). Немного биполярочка Если от выгрузки скорость страдает не сильно тогда выгрузи 40 блоков - освободишь место на карте под контекст, можно тогда и на 12 гигах fhd делать, чтож раньше до такого не додумались?
>>1332150 Как вообще себя fp4 показывает на flux/qwen/wan?
Есть 4090, не могу понять, есть ли смысл в апдейте до 5090. +30% к перфомансу на fp8 относительно 4090 и +8 GB VRAM довольно жиденько выглядят. Кажется, что если взять китайскую 4090 на 48 GB VRAM за ту же цену, то толку больше будет.
>>1332356 Дурачок? :) Я же все расписал. 12 гигов для 720p81 не хватает на WAN2.2, но хватало на WAN2.1. Я тоже тред назад ляпнул, что 12 гигов хватит — а потом проверил и понял, что заблуждаюсь. Ну вот такие дела, хули. Контекст потолстел немного. А биполярочку свою лечи, здоровым жить проще, рекомендую. =)
Вот щас еще раз запустил, 81 кадр занимает 13,8 гигов на 2.2 версии. =( Я остановился на 960*544, а там апскейлим 4х и получаем 4к. И качество местами очень даже.
>>1332384 Тока +50%. 4090 на 48 гигов для LLM нужны. А генерить-то лучше 5090, 32 гига хватит и на модель, и на контекст, огонь же. ИМХО, дело твое.
>>1332505 Ты не в курсе? Нативный комфи сливает часть модели в оперативу сам. Я никогда не понимал, зачем блоксвап юзать с комфи, а не с киджаем, если киджай придумал блоксвап для своей ноды. Может они работают по-разному, и блоксвап дает чуть быстрее — хезе, но нативную комфи я тоже могу так же запустить и получить все модель на оперативе.
Плюс, я не исключаю, что натив как-от иначе работает с самим контекстом, надо прочекать, конечно.
У меня руки все не дойдут перебрать с киджая на натив.
30ХХ воды, подскажите, у кого нибудь получалось прикрутить торч к вану 2.2? Всякое разное выбирал он предлагает модели которых в природе нет. АИ говорит что это и есть те самые модели которые нужны, но e4m3fn и e5m2 ту же ошибку выдают.
>>1332540 Не в курсе да, получается он ка кто порционно заливает опираясь на имеющуюся врам? Так как памяти то все равно забито было 22.3 гига.
>>1332580 > чувак, там же прям в ВФ ссылки. Так я перешел, а там 404. =) Ну не суть.
> он ка кто порционно заливает опираясь на имеющуюся врам? Да. И это круто. За это я натив люблю больше Киджая, где надо руками выставлять.
> 30ХХ воды, подскажите, у кого нибудь получалось прикрутить торч к вану 2.2? Я каким-то чудом это делал на 3060, но уже и не помню, как именно.
>>1332577 Не, она удалена, но видимо это какая-то из дефолтных SEKO. В оригинале она 32-битная, у Киджая 16-битная, но я не увидел разницы, в итоге, так что можно забить и пользоваться любыми привычными.
———
Как итог, приделал к нативу сажу с торч компайлом и получил 31 секунду против 44 у Киджая. И это с авто-выгрузкой. Лепота. Один минус — чо-то форма сисек мне не нравится, надо будет еще лоры поперебирать и с промптом поиграться. У Киджая они как-то покрасивше были.
Можно ли как-то контролировать движение по продолжительности?
Сейчас я могу поставить ключевые кадры на примерно нужном месте в списке из 81 фреймов. Но Сетка все равно буджет делать движения слишком резкими или ломанными
Короче. Ай хейт зе натив комфи. Он у меня хоть усрись рисует сильно хуже Киджая. =( Да, когда нужно быстро нафигачить кучу роликов — он делает умеренно и очень быстро. Но вот когда я хочу сделать видео без артефактов — тут комфи срет себе в штаны. Я начинаю думать, что у меня проблема локальная, с железом или в системе насрано.
Обидно, короче.
Вот два видоса. Если кого не затруднит, зарандомьте сид, поставьте свои настройки и шедулер, подрубите свои лоры. Попробуйте получить результат, как на видео Киджая. Ну или просто рераньте натив и посмотрите, будет ли у вас такое же, или у вас будет норм, а косяк реально у меня.
>>1332813 вот так вот. но у меня 2060 6гб, так что больше\дольше долго. А распадание на зерна как у тебя - у меня такая же хуета была если юзать фп8 модели вместо гуфов, я еще пару тредов назад спрашивал за эту хуету, никто не ответил.
>>1332900 Да, я тоже много тредов назад попробовал ггуф и подумал, что у меня кривые сейфтензоры. Но я думал, что со второй версией вана этого не будет, а тут вот, хуй. Значит реально у комфи косяк с fp8, так и не научился адекватно квантовать. Спасибо! =) Думаю, попробую другие чекпоинты и ггуфы в т.ч.
Итак, из Киджая я выжал 45 секунд, из натива 33 секунды — это модели fp16, торч компайл + запуск с ключом sage_attention. Качество сопоставимое, скорость выше, я доволен. Раньше вообще генерил 3+3 степа и 56 секунд, сейчас 2+2.
Вообще, торчкомпайл дает всего 2 секунды выигрыша на каждую генерацию, не так много, но пусть будет.
Завтра проснусь, а там S2V нормально только у Киджая поддерживается… хд
>>1333011 >запуск с ключом sage_attention. звуки ярости потому что не компилируется внимание сажи 2 Почему эти пидоры не могут выложить уже готовую штуку, как для первой версии..
>>1333011 >Раньше вообще генерил 3+3 степа и 56 секунд, сейчас 2+2. А как же все эти разговоры что меньше 8-10 степов (всего) и цфг меньше 3 это 5 секунд где ничего не происходит?
>>1333067 Зависит от того, что ты хочешь, я думаю. От промпта. Когда нужно больше качества и точности, то я тоже добавляю. Но меня устраивает и так, по итогу.
———
Итак, Киджай написал, что WAN2.2 включает в себя Framepack от Ильясвиэля. Т.е., внимание там тоже динамическое и ну вы в курсе. Таким образом мы получаем длительные ролики на ВАН. Ура, Фреймпак в массы, наконец-то на нормальной модели, а не глянцевой пруф оф концепт. =)
Впрочем, хули ура, надо идти тестировать, конечно.
Доброе утро, сегодня у меня выходной и я высыпался.
1. Возможно файнтьюн я выбрал не лучший. 2. Смех — тяжело. 3. Как видите по рефу, смартфон он нарисовал с нуля сразу. 4. 6 степов потому что на всякий случай, и вообще взял рандомную лору.
>>1333751 Да, простите. Нужен git-lfs — large file storage. Не помню, как в винде ставится, у меня работает. Ну или просто докачайте pytorch.bin что ли в эту папку.
>>1333741 Да это не суть, это ж тока тестовые воркфлоу, понятное дело качество подрастет. Мое дело показать в общем, что оно работает. Вообще, не мое дело, че это я… Ну вы поняли. =)
Решит вкатиться в wan 2.2 и чето приуныл,выставил 5B по кастомному воркфлоу с промтом Гитариста в подземке,просто чтоб проверить на работоспособность,маленький размер видео 480 ,видяха 3080TI 12gb, 32 GB ram,в итоге видео цветная радуга артефактов,всё по дефолту ничего не менял,пробовал на портабл сборке и на десктоп версии ,в чем может быть затык не понимаю,по видео гайдам должно норм генерить,а уменя блин радуга вместо видео
>>1333923 >есть смысл наверно есть. я вообще считай на картофелине(3060) кручу. у меня правда ггуфы wan2.2, нормально заходят на 12врам 32рам. фп8 ван 2.1 влезала с блокасвапом. в 2.2 не пробовал фп8, наверно в подкачку улетят веса. на гуфах около 5 минут с ускорялками в 480p. у тебя раза в 2-3 быстрее будет.
>>1333931 а ты как обычно генеришь на своей системе?есть примеры ? 5b что то вообще шакально получается,я ёшё не умею вркфлоу настраивать,беру шаблонный самый простой 5b video,как туда лору прикрутить? а гуфы это чё? файлы с расширением guf,для чего они? сорян за нубство,только первые сутки))
>>1333961 1. Скачай плагин Video Helper Suite. 2. Скачивай видео из треда — внутри лежат наши воркфлоу. Как видишь, мы тут вроде разбираемся потихоньку, у нас рабочее. 3. 12 гиговой 3080 можно смело крутить взрослый ван и забить на 5б модель, она те нахуй не нужна. Вон, выше чел на 2060 6-гиговой сидит и ниче.
>>1333581 >!!! НЕ ГЕНЕРИТ АУДИО, А НАКЛАДЫВАЕТ ЕГО НА ВИДЕО ИЗ КАРТИНКИ !!! Мне не интересно видео из аудио, мне нужны длинные видевы, а тут хуйня какая-то.
>>1333581 Все равно пока что кал - попадает только в самые простые слова, картинку выжигает мама не горюуй еще и с лорами полный пиздец творится кроме ускорялки
>>1329709 (OP) Посоны, понимаю, что платина и заебало, но подскажите. Имеется платформа на 13700k под воздухом в приличном андервольте и 850Вт платосный суперцветок. Что лучше для генерации видева (допустим, на wan 2.2): джве 3090 (по 50-60к за штуку б/у), две 5070ti (около 80к за штуку новые), одна 4090 48Гб (150к за штуку от дяди ляо через лохито)? Две 4090 не потяну, так как надо будет докупать оперативку (критична ли разница между 96 и 128Гб?) и бп (на 3ххх были ебаные транзиенты, но 1200Вт должно же хватить даже на 3090?). И насколько ебется проц? Пушо если в соточку, тогда еще и 360 сжо с новым корпусом придется добирать.
>>1334191 > одна 4090 48Гб (150к за штуку от дяди ляо через лохито) Отбой. Это я губу раскатал. 250к за 48гб. Тогда ссаный ARC Pro B60 Dual 48G вместо этого варианта. Но там еще и мать менять.
>>1334191 Все это для того чтобы сделать писюн к фотке еотовой? стоит ли оно того анон? Одумайся.
Ну мое мнение офк лучше 4090 на 48гб. 128гб рам, рама много не бывает в этом деле, тут много у кого 96 под завязку им приходится еще 60 добавлять с подкачки. Процу на сколько я знаю похуй, он в этом деле не учавствует почти
>>1334203 Всё это для того, чтобы сделать писюн к фотке чужой еотовой или генерить нейрослоп для масс. >Ну мое мнение офк лучше 4090 на 48гб 250к только на картонку не потяну, так что возвращаемся к 2х3090/5070ти, либо арк-хуярк. >128гб рам, рама много не бывает в этом деле, тут много у кого 96 под завязку им приходится еще 60 добавлять с подкачки. Сукпздц, ну тогда легче два раза по 96 взять, а то 128-комплекты только в сраэнэсе по оверпрайсу. Зато ебля с 4 плашками будет обеспечена. Насколько критична пропускная способность озу? А то 96 гигов 5200cl40 стоят в полтора раза дешевле, чем 6400cl32. И спасибо, да.
>>1334083 Бля, жопочтец очередной. Я тебе четко сказал — ебош, блядь. полноценный ван. хули ты в начале отказываешься, а потом переспрашиваешь? Ответ, сук, такой же: ЕБОШ ПОЛНОЦЕННЫЙ ВАН.
Нагромождено — ну я тебе сочувствую. Тогда пошел нахуй из треда, если не хочешь генерить видео, че сюда пришел. Сложно ему. Всем сложно, зато бесплатно.
>>1334165 Ну, тут пока не завезли в комфи, да. Ну и как всегда — вряд ли промпту будет сильно хорошо следовать.
>>1334190 Ну, в слова попадает вроде норм с русским wav2vec. А вот выжигание да. Ждем, пока пофиксят, доделают.
>>1334191 Две 3090 тебе ниче толком не дадут. Комфи хуево работает с удержанием в памяти двух видях двух моделей. Плюс, чип слабый, а загрузка из оперативы в видео не такая уж и долгая при повторных запусках.
5070ti звучат будто можешь и напрячься по деньгам ради памяти.
4090 даст тебе видеопамяти сразу много, чтобы не париться моделью и контекстом. НО.
5090 одна будет быстрее и лучше всех кандидатов. Докинь, прошу тебя. Спасибо скажешь.
Оператива в случае многовидеопамяти не так критична и 96 гигов хватит, конечно. Но если можешь — опять же, докинь до 128 (если это 2 х 64 и ддр5), ллм тебе спасибо скажут.
На проц похуй, в общем.
>>1334193 И хуй с ним, в общем-то. Упирается чаще в чип видяхи.
>>1334196 Он два чипа, и будет у тебя в видеогенерации 24 гига на ебейше слабом чипе, сразу забей.
>>1334204 Ради видеонейронок ебля с оперативой вообще нахуй не всралась. Сразу вычеркивай.
Запомни простую вещь: все что тебе надо — это мощный видеочип. Память тут нихуя не роляет, выгрузка в оперативу замедляет в два раза всего лишь (а не в десятки и сотни, как с ллм), так что, уж не знаю, 5070ти или 3090, но две карты дадут тебе хуй пососать, а вот один мощный чип подарит наслаждение скоростью. Ну, либо две видяхи с 24 гигами минимум каждая. И мощным чипом. И ебаться с комфи, писать свою ноду. И все это звучит как будто ты хуйню придумал.
Бери одну 4090, 5080, 5090, подожди SUPER-апгрейдов ради памяти, я хз. Будет лучше твоих идей, правда.
>>1334243 А что там Комфи (Торч) умеет работать с не Нвидиа картами (Интел, Амудка) с Ваном, всеми этими сажа и флеш атеншонами, Торч компайлами? Или там постоянное красноглазие и низкая скорость?
>>1334267 Честно — я даже не брался. Ну, я могу предположить, что лично я разберусь, если мне понадобится, найду как сбилдить часть софта. Но звучит так, будто это уже красноглазие, да. И, вероятно, низкая скорость.
Опять же, люди генерят картинки на амд, на интеле, стабла работает.
Но вот всякие тритоны, сажи, это уже что-то немного редкое, не уверен, как у них с работой на красных/синих картах.
Не подскажу, но я бы не рисковал покупать их видеокарты под генерацию видео.
Но если видяхи уже есть… Ну, я бы погуглил, если внятного ниче не будет, накатил линукс и пытался бы сам собрать. Вдруг заведется.
>>1334083 Вот, чуть доработанный воркфлоу, который кидал раньше другой анон. Спешиал фор ю. Я не знаю куда проще: 1. Нативный комфи. 2. Ссылки на модели слева. 3. Автоподбор разрешения при изменении. 4. Есть торч и сажа, выключены, если хочешь — удали, если хочешь — установи. Не пугайся, если напишет «нет плагинов, хотите установить». При генерации жрет 73 гига оперативы суммарно, нужен файл подкачки или докупи оперативы, вот честно, она стоит не так дорого же.
Если хочешь, можешь заменить на fp8_scaled, будет меньше оперативы, но хуже качество. Там уже сам будешь экспериментировать.
Я не проверял на RTX 3060, сейчас я на работе. Если не заведется вдруг — вечерком посмотрю. Но должно работать.
>>1334306 У меня генерится такое 32-34 секунды на RTX 4070ti. Значит на 5090 должно генериться 10-12 секунд, а то и меньше. Всего лишь вдвое медленнее реалтайма на WAN, пусть и в малом разрешении.
Еще полгодика, и будут нам реалтайм тянки в силлитаверне по референсу. Ну или на 6090 какой-нибудь. =)
>>1334225 Арк как и амд не для нейронок вроде как, насколько я знаю >>1334209 Если есть возможность и деньги, лучше подождать. Но будет значительно дороже в первые полгода точно, смотри сам
Кстати. Я еще не писал в этом треде. Мне пришли CMP 50HX и CMP 90HX. По идее, они при 10 гигах могут быть мощнее 3060. Так что, я поэкспериментирую с ними на неделе, может быть есть варик для бомж-WAN-генерации. При стоимости в 5 и 9 тыщ рублей —це подарки.
>>1334243 >Бери одну 4090, 5080, 5090 Разброс по цене офигенный, на самом деле. Блядь, не хотел за 200к вылезать, но ладно, пойдем по пути 5090+96озу. Если проц не ебется, то 850Вт должно же хватить?
Это что получается, после покупки 5070ti раму надо добивать не до 64 а до 96гб (сейчас 32)? Иначе потрачу 90к но все равно буду ловить ООМы без тормозной подкачки?
>>1334331 Эээ… Честно: нет. То есть, вот когда я генерил на компе хэппипк удаленно, там как раз был 850 ватт. Но страшно было жуть, когда видяха кушала 630 ватт в пике. ИМХО, какой-нибудь надежный киловаттник будет получше, при норм цене. Я брал тот же монтеч за 11к что ли в днсе, ну аналоги такие.
Да, 5090 + 96 хороший выбор.
>>1334373 Ну, ООМа не будет, даже генерация не катастрофически падает. Просто лично меня напрагает такое использование ссд (хотя там же просто копируется раз и читается наверное, я не спец, может и похуй).
Энивей, я запускал на 32 гигах и оно тоже генерило (в свап уходило ~46 гигов что ли).
Но лично я предпочитаю нагружать только оперативку, это мой личный бзик.
Как меня заебало все сука. Почему на 50ХХ картах нет поддержки до сих пор sm_120 в ебаном пайторче. Я из-за этого не могу пользоваться visomaster, facefusion, rope,roop, купил блять новую видеокарту для нейронок называется, уебище блять. Лучше бы дальше сидел на 40ХХ и не ебал мозги
>>1334433 > на 50ХХ картах нет поддержки до сих пор sm_120 в ебаном пайторче Припизднутый? Начиная с 2.8 есть уже давно. Ставь только с кудой 12.8 или 12.9. Куда 12.6 не поддерживает новые архитектуры, да.
Ошибка NVIDIA GeForce RTX 5070 Ti with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_50 sm_60 sm_70 sm_75 sm_80 sm_86 sm_90. If you want to use the NVIDIA GeForce RTX 5070 Ti GPU with PyTorch, please check the instructions at https://pytorch.org/get-started/locally/
Куда была 12.9, снес через дду все драйвера нвидиа, поставил 12.8, снес пайторч, поставил nightly версию как и пишут везде на ебучих редитах и прочем, НИ ХУ Я.
>>1334458 Хуй знает что ты там делаешь не так. Как я тебе и сказал - всё работает давно на свежем торче, только весной проблемы были в первые месяцы. Алсо, тебе надо ставить не куду на пеку, а торч с нужной кудой. По умолчанию торч с 12.6.
>>1334464 Как поставить этот торч с нужной кудой? Вот допустим я щас удалю куду и торч полностью с пк. Что мне нужно поставить будет? какой торч? Чтобы sm_120 был
>>1334490 Подозреваю на 3 пункте я обсираюсь постоянно. Как узнать какое у меня пространство лол? Помню что анаконду ставил, ну скорее всего конда. Как из под конды стаивть? Ебать как же все сложно. Я просто cmd открылвал вот это вставлял pip install --pre torch torchvision --index-url https://download.pytorch.org/whl/nightly/cu129 и все, видимо это не так нужно было делать?
>>1334433 >visomaster, facefusion, rope,roop Да нахер тебе нужно это устаревшее говно, можно натренировать лору для флакса, генеришь там начальный кадр, а потом уже поехали в ван. Я с выходом ван 2.1 выкинул на помойку весь этот недоинструментарий. Но если хочешь поизъебываться погугли на цивите есть ВФ с заменой лиц в видео для комфи. Там геморно с IP адаптерами возиться, я раньше пробовал пока лоры делать не мог для хромы, да так и не совладал, там надо гдето старый питон ставить где то еще чето усторевшее. По хорошему надо взять отдельную старую стенэлоун версию комфи и на нее накатить, должно легче пойти.
>>1330338 Реально, всё это делается "локально". >motionmuse.ai Воркфловы бы, некоторые нормально выглядят, и там сильно больше, чем наши любимые три лоры раздевать-сосать-кончать.
Если конда, то для начала conda activate то окружение, в котором у тебя стоит софт. Можешь посмотреть conda env list список. А уже после активации — внутри и ставишь.
>>1334306 антоха спасибо тебе большое по братски.что не послал нахуй а дал вводную,с простого будем начинать ,3-й день пошёл увлёкся не по детски,даже спать не хочу! я вообще на бичь конфиге на зеоне 64 оперативки и 3080ti
>>1334589 Я сам хочу завтра припереть свой зеон 4-канальный за 7,5к рублей с работы и воткнуть майнерскую видяху. Ото будет бич, ото будет развлекалово. ) 3080ти так-то не самая плохая.
Можина быстрогайд без графомании по вану+конфи чтоб генерить в низшем разрешении картинку оживлять + по реферу. Куда че втыкать схемы, блок схемы, куда рефер вводить и какие к нему условия, че качать. Могу я например для хентай подложить рефер из ирл прона или надо только аниме чтоб повторяло?
>>1334776 Не, даже не надейся, тут самому разбираться нужно иначе никак. Тут нет такого что ты взял и 2 кнопки кинул все заработало, постоянно что то отьебывает, постоянно что то тестить нужно
>>1334781 Ну а как хотя бы учиться? У меня пиздец долго 5 секунд в 480р генерится полчаса няху. Как так можно научиться чему-то? Если б оно еще фоном это незаметно генерило, а оно видюху вешает и ничем на компе нельзя больше заняться. Даже 5 минут пиздец как долго и раздражающе для ошибки, я хочу с 1 попытки делать что задумаю.
>>1334433 ЕБАТЬ я смог запустить visomaster (он же роп) на 5070ти. https://github.com/loscrossos/core_visomaster Дохуя чего перепробовал, ничего не работает, советы из треда тоже (скорее всего я тупой и не смог их правильно применять, но похуй) Нашел эту сборку на гитхаб, там все настолько просто что даже такой тупой как я смог поставть эту хуйню на блеквелл. Нахуй ваш конфи, теперь я беру любое видео и ставлю любое лицо и получаю то что хочу сразу за несколько секунд без ожиданий. Оживление фото хуйня, заебывает быстро, да и фоток столько ты не найдешь еотовой и лор, а если и найдешь пройдешь 100 кругов пердолинга
Дарова бандиты. Чо там как, коммьюнити высрало апгрейженый метод для бесконечных видосов? Firs Last image эта кнечно хорошо, но... движения проябываются. Да тут всё улетает. Деградация заметна, но тут как с последним кадром повезёт на самом деле.
>>1334784 >получаю то что хочу сразу за несколько секунд без ожиданий ага надо всего лишь накачать видеороликов с актрисами с таким же типом прически и цветом волос как у еот, еще в идеале и с формой ебальника и комплекцией такой же.
>Оживление фото хуйня, заебывает быстро то ли дело накладывание однотипной маски которая еще довольно часто артефачит так что на мгновение ебало или пидорасит или маска отваливается от чего пропадает весь эффект на видеоролик который ты видел ранее без возможности контроля происходящего, ахуенная тема - никогда не заебёт.
>да и фоток столько ты не найдешь еотовой и лор Во первых есть генераторы ебальников на основе 1 фотографии, можно с 1 фотки сделать датасет на лору еот к тому же там всего 20 фото требуется.
А потом уже имея лору на еот для флакса можно давать полную волю воображению для стартового кадра омолаживать/состаривать/морфировать/кони/волки/тентакли/зомби/насекомые, любые партнеры что в голову придут, практически нет ограничений. https://civitai.com/models/1853189 заебывает да, когда фантазия на 0.
>>1334913 У тебя там какая то хуйня вырисовывается так даже хуньюань не пидорасило, явно проблема в вф, даже ггуф такую хуйню не генерит. Дело явно не в модели.
>>1335090 >ага надо всего лишь накачать видеороликов с актрисами с таким же типом прически и цветом волос как у еот, еще в идеале и с формой ебальника и комплекцией такой же. Эта проблема решается, когда у тебя 5-6 енотовых было разных типажей, тогда ты просто свапаешь на подходящих и всё.
>>1335189 получилось обойти эту ошибку выставив в vae wan_2.1 вместо 2.2,видимо какую то модель скачал не ту или что почему не хочет семплер работать с 2.2? но результат уже лучше с киджай моделью,хотя почему такая шакальная не понятно
>>1335189 >>1335189 Да блять когда вы уже читать научитесь Дело явно не в модели. проблема в вф Ты или лоры где то перепутал хай с лоу или значения ебанутые выставил на семплерах или весах.
>>1335285 Для 5090 лучше посерьезней поставить ai-toolkit https://github.com/ostris/ai-toolkit Там тоже все интуитивно понятно и есть гуи интерфейс. Можно будет задействовать карточку по полной и лоры будут за час тренироваться если не быстрее.
>>1335093 Нет, это рил частая генерация fp8_scaled от комфи. Их fp16 и ггуфы работают отлично ровно в тех же воркфлоу. Просто загадка. Спасибо 128 памяти, я просто фп16 юзаю и забил на это.
>>1335217 А вот это уже косяки какие-то, у Киджая такого не бывает при норм настройках.
>>1335225 Ну будем честны, у комфи дело явно в модели и только в ней. Но у данного товарища да, косяк в другом, комфи просто сверху говна накидывает своим квантом. =)
>>1335278 Кстати, видяха какая? Я еще хуй знает, как там e4m3 работает с RTX 30xx, из коробки пашет ли.
>>1335294 Что значит «перепоключение на сэмплере»? Ты в курсе, что там две разные модели и два сэмплера и они генерят в начале одна, потом другая догенеривает? Это бай дизайн, у тебя в чем проблема-то?
>>1335304 >Нет, это рил частая генерация fp8_scaled Ни разу не было и это даже не суть ты открой его вф у него в обе модели в хай было загружено, и лоры также
И у него KJ модели.
>Ну будем честны, у комфи дело явно в модели и только в ней. смотри выше
>как там e4m3 работает с RTX 30xx нормально работает
>Что значит «перепоключение на сэмплере»? когда гуи отваливается из за недостатка озу
>>1335217 Скинь стартовую картинку, я проверю на дефолтной модели и на kj
>>>>1335310 всё так ,kj модели e4m3,норм они или другие скачать? карта 3080ti. да переподключение это то что отвал comfy на любом разрешении. отваливается из за недостатка vram? или озу ddr?
>>1335322 на 5b 16 решил попробовать,словил кринж .там наверое модель надо подключать.сейчас пытаюсь разобраться что мне светит только 5b или получиться все же 14
Лицо пидорасит из за низкого разрешения и из за того что сильно далеко если предварительно обрезать в ручную и повысить разрешение будет гораздо лучше. Ну и шагов хотя бы до 6 накинуть надо.
>>1335334 чето я не вижу отличий между дефолтом и kj,но по расходу ресурсов есть разница? и в теории какое различие между e4m3fn и e5m2? а впрочем у меня всё равно отвал комфи
>>1335344 kj весят на 700 мегабайт больше Ты мониторишь загруженность системы в момент отвала генерации? Проблема скорее всего в недостатке ram, когда она полностью забивается происходит отвал. Попробуй перезагрузить комп поотрубать все что кушает рам, стимы всякие телеграмы и прочее, хорошо раму жрет еще куча закладок в браузере, можешь поставить отдельный какойнить облегченный браузер когда кофи загрузится закрыть свой дефолтный браузер и в облегченном вручную вбить http://127.0.0.1:8188/
ставь 65 кадров, запускай комфи и генерируй, следи за ресурсами так будет понятно отчего происходит отвал.
>>1335349 счас попробую промониторить ,но там и ram и vram почти в100 долбятся,не понимаю как у людей на меньше 12гигов работает 14в. 65 кадров это fps ты имеешь ввиду ? а длительность
>>1335359 тред не читал @ сразу пишу - Попробуй в батнике, с которого запускаешь комфи, прописать --normalvram или --lowvram - Посмотри файл подкачки у тебя на сколько установлен. - Используй ггуф вместо фп8, разницы, как выше написали, практически нет.
>>1335310 > Ни разу не было А я не смог фп8 настроить от комфи нормально. Шумит всегда. При этом буквально все остальные чекпоинты работают без шума. Хуй знает. Ну да похуй, ладно.
> когда гуи отваливается из за недостатка озу Ы, ну тада можно файл подкачки добавить. Может поможет.
>>1335322 Так для Киджая нужно юзать воркфлоу от Киджая же, я же сказал. А не тоже самое. Они в одном работать и не будут, я хз.
>>1335299 Какая у тебя видеокарта, сколько видеопамяти на ней и сколько ОЗУ и какой процессор напиши пожалуйста анон, прошу. Качество огонь получается у тебя
>>1335381 ура пошло наконец ,увеличил файл подкачки и генерит до конца на 14b fp8 на обычном и на kj,в одном и том же вркфлоу,кстати разницу особо не вижу !только артифачит,на руку глянь ,куда копать?
>>1335417 анон не пинай сильно,как использовать гуф вместо фп8? надо отдельную ноду создаваь под него? куда его кидать ? я скинул в diffusion_models но в лодмоделс его нет
>>1335570 Скопируйте пример файла конфигурации, расположенный в config/examples/train_lora_flux_24gb.yaml( config/examples/train_lora_flux_schnell_24gb.yamlдля schnell), в configпапку и переименуйте его вwhatever_you_want.yml Отредактируйте файл, следуя комментариям в файле. Запустите файл вот такpython run.py config/whatever_you_want.yml Вот тут я застопорился
>>1335592 там не надо питон дрочить сделай просто такой батник
cd ui npm run build_and_start
Запустится сервер, перейдешь на гуи http://localhost:8675
В папку датасетс кидаешь папку с лицом еот, можешь еще описания добавить в виде текстовых файлов через joy_caption, или сам ручками текстовые файлы с коротким описание что на картинке типа "Close-up photograph of chirbo with light skin, brown hair, brown eyes, and a playful expression, against a blue background."
Настройки особо не трогаешь, подправь как у меня 1200 шагов более чем достаточно для тренировки лица.
chirbo - слово для активации лоры в промте, надо чтото придумать оригинальное иначе магия не случится
как настроишь джоб, сохраняешь и запускаешь тренировку
интересный ВФ полностью собранный на сабграфах (новая фишка в комфи), позволяющий делать ролики любой длины просто копируя нужное количество сабграфов и соединяя их друг с другом. Все настройки внутри каждого сабграфа (лоры в том числе) или еще глубже в других сабграфах.
>>1335872 Тоже мечтал залипсинкать это видео. Жаль, теряется улыбка Ортеги на конкретном моменте, самый сок. Может оно совместимо с VACE и можно маску хотя бы на глаза захуярить? Сомневаюсь... Спасибо за воркфлоу, наконец попробую. >>1335872 InfiniteTalk
>>1335960 По мне так вообще лучшее из того что есть на ван 2.1, тут хотя бы попадает в отличии от недавнего s2v >>1333581
И картинку не выжигает и генерить можно неограниченную длину, да еще и лоры можно прикрутить, правда только если в изначальном видео был схожий контент, тут я пытался сделать титти дроп, но не работает. На другом видео где был титти дроп работает. Также и с камшотом без лор он хуй на руку просто заменил, с лорами хуй появился но другой не такой как в изначальном видео.
я так понимаю принцип работы там такой - он в латентном пространстве изначального видео перегенерирует половину шума, для липсинка достаточно, для применения новых лор - нет.
Нейраны, поделитесь опытом, будьте добры. Нужен такой воркфлоу: я загружаю фото, через одну модель/лору генерю свои 5 секунд, но последний кадр я передаю уже в другую модель, где она по другому промпту генерит следующие 5 секунд, потом я всё это склеиваю в 10 секунд. Комфи так умеет?
>>1336049 Конечно умеет, просто продублируй еще раз воркфлоу и из первого вместо создания видео передай последний кадр во второй вф с новой моделью, перед финальной генерацией видео сделай батч картинок из первого декодера и второго и отправляй на на создание видео.
>>1335872 Пока S2V не докрутили до нормальной рабочей версии и не запихнули бесконечный контекст, эта прям выглядит хорошо. Смотрел не целиком, но склеек было не видно, это круто.
>>1335631 О, ну тут обычный «передай последний кадр», зато запаковано хорошо, не знал, что такое есть. Прикольно, можно своим мутить, да.
Народ, а как у вас с большим объёмом RAM от 96гб? Нормально по 4 планки то заводится? А то пишут что у ддр5 с этим проблемы. Мать вроде как хорошая а вот с процессором ryzen 5 7500f хз взлетит ли
>>1336331 >>1336308 Ты заебешься заводить 4 плашки, особенно разных производителей. Про xmp/expo можно забыть. Типа чтобы система элементарно постнулась. Амуде даже 4800 для четырех плашек не гарантирует еще.
>>1336366 >>1336359 >>1336331 Спасибо за ответы. Ну видимо все же куплю такой же адаты 64 гига, не заведётся если со старыми 32, толкну их на авито. Все ж не буду всратую память чисто под генереж писюнов переставлять
>>1336472 >Ну видимо все же куплю такой же адаты 64 гига, не заведётся если со старыми 32, толкну их на авито. Купи в сраэнэсе онлайн с оплатой картой онлайн и сдай обратно в течение недели, если не заведешь, делов-то. >Все ж не буду всратую память чисто под генереж писюнов переставлять Любая ddr5 память в 4 плашки становится всратой, ага. Либо скорость, либо объем. И на скорости тебе поебать в данном случае. Ну и ты хочешь к 2х16, как я понимаю, добавить 2х32. Они одинаковые-то мозг могут нормально ебать, даже если они из разных комплектов.
>>1336500 Вообще в таком случае странно, что в ATX материнке под ддр5 MSI B850 GAMING PLUS WIFI 4 слота и двухканальный режим, если такие проблемы с его поддержкой. Так или иначе будем разбираться. >Купи в сраэнэсе онлайн с оплатой картой онлайн и сдай обратно в течение недели, если не заведешь, делов-то. Идея вин!
>>1336500 Никаких проблем не бывает с 4 плашками, просто ты откатываешься на базовые частоты, для DDR5 это 4800-5400. XMP естественно только с двумя плашками будет работать. Тайминги автоматом ставятся по самой всратой плашке и всё работает даже с зоопарком разных вендоров и моделей.
>>1336534 Не, не странно. >>1336559 Бывает, конечно. Охуенно зависит от матери. По процам, особенно красным, не смотрел, что и как. >для DDR5 это 4800-5400 >5400 Оптимист > Тайминги автоматом ставятся по самой всратой плашке и всё работает даже с зоопарком разных вендоров и моделей. Джедек там ставится, и хорошо, если на 4800 без пинка система запостится. В любом случае, главная мысль была о том, что в 4 плашки любая ддр5 становится всратой и нет смысла гнаться за йобаxmp/expo, когда есть 96 гигов дешмана без ебли.
>>1336368 ставил,заместо хай и заместо лоу ,вместо хай лучше работает,пизда улучшилось но общее качество упало по сравнению с lightx2 лорой. анон а можно несколько лор подряд подключать последовательно? и как это сделать
>>1336590 Не знал в мае еще о развитии нейронок, купил благо 32гб 6000 за 9к. И теперь встает выбор, либо докупить 64 за 20 рублей и сыграть в лотерею запустится ли 4 слота на 5400 или хотя бы на 4800 без бсодов. Либо сразу 96гб 5400 на 2 слота за 25 рублей покупать, а старую слить. Похоже проще будет именно второй вариант для нас.
подскажите можно как то апскейл фотки подрубить прям в комфи ,загружаешь фотку она опскэлится и идёт дальше. или какими то другими нейронками лучше сделать?
>>1335631 Спасибо за подгон, воркфлоу рабочий. На моей старушке 4070 генерация заняла 35 минут на дефолтных параметрах и промптах. Сейчас буду крутить и реализовывать свои грязные фантазии
>>1336627 High noise модель накидывает обобщённую композицию, так сказать. Общую концепцию, делая из полного нихуя что-то осязаемое. Концепт-арт, эскиз, называй как хочешь. А ligh noise модель уже "наводит красоту", накидывая детали. Более тонкая работа, так сказать. И вот такой "творческий тандем" делает по итогу заебись.
>>1336627 ван22 состоит из 2х моделей хай и лоу, обе нужны.
>>1336630 Берешь воркфлоу с апскейлом фотки копируешь его в свой текущий воркфлоу, ставиш ноды в начало делаешь апскейл, из сайв имэнд передаешь дальше в свой воркфлоу
А как вызвать окно loraloadermodelsonly? А то когда просто тыкаю на шаблон он блять с каким то клиопм ебучим вылетает и на хуй он мне нужен клип этот куда то соединять, а без соединения он пиздит типа соедини.
>>1336749>>1336753 Благодарю. А можно ли в одном проекте мешать разные кванты для моделей, например high noise q3, low noise q5, чтобы экономить RAM VRAM? Или кванты должны быть одинаковы?
>>1336753 а есть разница в каком порядке ? вот у меня lightx2 4steps лора хай и лоу подключена ,далее надо лоры на генитялии,мастурбацию итд в каком порядке их подключать? сейчас просто вместо хай стоит лора на гениталии,но помоему так только хуже стало
>>1337296 >>1337277 Не рекомендую совсем отключать файл подкачки даже если памяти дохуя. Если памяти достаточно то в своп ОС лазить не должна. Если ССД грузится значит он читает модели, значит что-то некорректно отрабатывает Комфи все-таки. Можно попробовать блок-свап ноды подключить чтобы принудительно выгрузить модель в оперативу.
Сейчас словил такой глюк Комфи, при установке нодов нажал перезапустить Комфи, он перезапустился, но процесс python остался висеть и занимать 17 из 24гб врама, и при запуске Комфи создал новый процесс python, но врама не освободилась, все тупило и тормозило, пока не обнаружил старый процесс и не грохнул его через диспетчер задач.
>>1337335 > это чтобы ЕОТовых не начали массово ебать Ну вот как раз с еблей и хуями во рту (и спермой на лице) I2V-лоры на сивитаи есть. А с раздеванием нет, лол.
Народ, скажите или я дурак (это риторический вопрос), либо ван 2.2 значительно хуже работает с генерацией текста? Использую gguf q6 на обе модели и q8 для текст энкодера. Это трабл gguf или реально модель сама по себе слабее в этом плане?
>>1337503 1280x720 121 кадр на ван 2.1 легко. Чтобы не уходило в файл подкачки, желательно 96-128гб рам. Всё в фп8-фп16. >>1337512 >свапать как шакал Минусы? Скорость даже не вдвое падает.
>>1337484 >я просто оухеваю с политики сивитая. Просто чистят от мусора. Зачем там ненужные лоры? Почему тебя вообще ебет что там удаляют? Не сидит там, раз не нравится.
>>1337556 На 128 возможно нормально будет до поры. Я давненько отключал когда еще 32 гб считалось много, при заполнении памяти на 2/3 винда уже неадекватно работала, хотя казалось бы еще треть свободна, но программы уже начинали поглюкивать и падать.
>>1337556 На вин 10 через пару дней как отрубил файл подкачки начал замечать неладное. Просто в некоторых приложениях по умолчанию говнокод забит что обязательно нужен файл подкачки какую то часть они туда сгружают. Возможно ты не пользуешься таким по просто.
>>1337576 От какого мусора? Еще очень много людей пользуются ван 2.1, попробуй там раздень без лор. Там четко было сказано - политика партии поменялась и все андрессинги удаляем и удалили их еще до выхода ван 2.2. Алсо на лорах можно сделать более естественно развевание, а не снятие водолазки/пиджака стягиванием вниз вез всякой физики. Алсо была лора на то как ладошкой закрывает экран а потом показывается голой, алсо лора на разрывание одежды. Попробуй сделать это без лор.
>>1337994 Просто читай тред пожалуйста. Куча подробных описаний как сделать. Куча видосов в которых лежат воркфлоу для этого. Да, легко, просто прочти тред, скачай видосы, засунь и все работает. Не ленитесь, пожалуйста.
>>1337813 Бляя, помню тоже давно задавался этим вопросом и видел issue чела, kj что-то поотнекивался, сразу не сказал что запилит. Удваиваю вопрос (хотя пользоваться вряд ли буду, теперь есть ускорялки, один хуй оно очень быстро генерит, а 2.2 ещё не пробовал), как там сейчас с этим обстоят дела? Может через сторонние ноды можно сохранить? Латент вроде везде одинаковый, если для какой-то другой модели реализовали, то и на ван будет работать. Даже странно, что не находит кучу нод для этого дела. Как делать по стопятьсот batch images, resize и прочей залупы, которая итак есть в comfy core (под дебильными нелогичными названиями), так они спешат делать дубликаты.
ебанул через FUN control продолжение видосов. берём последние 16 кадров и пихаем в контрол. По времени просто дохуя уходит и результат нууу - хуйня. VACE грите надо подождать? воркфлоу в видосе
>>1338062 Меня сделали таким одноклеточные дегенераты вроде тебя. Если тебе уж прям так надо именно сохранить, то сохрани картинки, при новой генерации загрузи их передай через VAE encode что сделает их вновь латентными в семплер лоу нойза.
>>1338229 А и еще если у тебя сцена не сильно меняется можешь использовать KJ ноду WanVideo Context Options она хорошо сохранит лицо, но для динамических сцен не очень подходит, что можно увидеть в видео. ВФ кстати в нем
Сап. Не игрался со времен симсвапа, что щас в мете? Есть rtx 3080 10гб, нужно сделать видос минут на 5, куча статичных фоток, которые я хочу объединить в таймлапс и налепить веселый драмбас, какую локальную модель нужно? Если есть ссылка на пошаговый гайд для дебилов, буду признателен.
>>1338370 >какую локальную модель нужно Никакую >хочу объединить в таймлапс и налепить веселый драмбас Вроде clipchamp таким заведует Это не тема треда, это больше про видеомонтаж где-то в профильном разделе
>>1338229 >Браток, под твои задачи никакой фан и вайс не нужен браток, при твоём подходе даже на одинаковом сиде движения проёбываются. Нужно бесшовное видео, а не нарезка по 5 сек. нейрокум - самый главный двигатель прогресса.
>>1338401 Какая из циферок самая важная для локальных моделей? >>1338425 У меня между фотками разница в несколько дней, хочу запросами нагенерить промежуточный прогресс. тян худела / качала жепу
>>1338100 >последние 16 кадров для этой хрени нужна дифужнфорсинг модель. в скайрилсе есть така. 14б лень качать, на винте 1.3б была, вот такая залупа получилась на кежичевском вф
>>1338560 Дрочил скайрилс когда он вышел, все бы ничего, склейки получаются бесшовными с плавной анимацией, но все остальные недостатки присутствуют что и у обычного i2v метода. Плюс очень сильно выжигаются цвета и деградирует картинка после нескольких экстендов.
>>1339429 Вот какого хуя kj не сделает просто ноду WanVideo Long I2V? Так то это вин, но что бы ее использовать надо аналную хуйню со звуками тащить иначе она не работает.
>>1339306 В данном случае в сто раз лучше было бы сделать инпейнт сисек через VACE. >>1339393 Это всё в дефолтных нодах Kijai, пример воркфлоу тоже лежит в samples.
Давно не отваливалось всё. То Higgs Audio отъебнётся, то JoyCaption перестаёт работать. Теперь Wan не генерит с компиляцией.
У кого хотя бы ван работает, скиньте, пожалуйста, ваши версии. Не могу липсинк снова отгенерить. Запустите в конда среде или где у вас комфи стоит: wmic path win32_VideoController get name & pip show torch sageattention triton triton-windows | findstr "Name Version" & nvcc --version | findstr Build
Хуевы советчики, версии покажите на которых сейчас активно работаете, мне ваши теории не нужны. >>1340248 Куда ещё ниже. Раньше на 2.9 работало, на ней фичи для ускорения вана. Но я уже заебался переставлять после несовместимостей. Алсо, зачем-то послушал теоретика, получил ошибку на входе из-за новой несовместимости. >>1340293 >деньги >все нормальные люди юзают купюры или хотя бы монеты Ты бы хоть разобрался вначале что значит каждый из этих непонятных тебе наборов символов и как они работают вместе.
Подскажите, для этих моделей wan2.2 (1 пик) мало Vram 16Gb? Сначала выдавал ошибку (пик 2). Потом я поднял файл подкачки. Доделывает до 50% и reconnection error. Если мало, то какие скачать? (отсюда скачал Q4K high и low https://huggingface.co/bullerwins/Wan2.2-I2V-A14B-GGUF/tree/main)
>>1340338 > Ты бы хоть разобрался Это ты клован не разобрался и пользуешься устаревшим менеджером зависимостей. А потом жалуешься что что-то не работает. Особенно смешно то что в комфи нет нормальной поддержки конды, а значит при обновлении комфи сам не обновит зависимости. > версии покажите на которых сейчас активно работаете На тех что комфи сам ставит. Напердолил что-то, сам и разгребай.
>>1340394 >в комфи нет нормальной поддержки конды >uv вместо конды Фундаментальное непонимание. Прекрати позориться сейчас же и бегом разбираться что такое uv, что такое conda и чем они отличаются. Додик даже не понимает, что ноды перекрывают чужие зависимости, а ошибки появляются в конкретных функциях с конкретными параметрами, и никак с резолверами не связаны. Уже понятно, что ты увидел прикольные видосики в /b/, наставил хуйни по гайдам и стесняешься спросить как смотреть версии. С залетного дурачка с одной средой, одной версией питона и нативными нодами полезной инфы не взять. Интересуют версии нормальных людей с нодами киджая и прочей хуйней.
>>1340512 > что такое uv, что такое conda > uv manages project dependencies and environments > Conda is an open-source package management and environment management system Дебилу, не умеющему читать, действительно сложно понимать буквы. Алсо, использование pip в окружении конды - это отдельная болезнь.
>>1340539 >Дебилу, не умеющему читать, действительно сложно понимать буквы То, что полез узнавать, имея такой диагноз, молодец. Жаль, что все равно не понял. Ничего страшного, знать такие вещи необязательно, главное не позорься снова в другом месте и никто не узнает.
Когда лишний раз подумаете "да это мы разбираемся, а нормисы вообще не заметят, что это нейрокартинка/нейровидео", вспоминайте вот этот тред: https://2ch.hk/b/res/324114588.html
Нормикал даже реальное видео обзовёт нейрокалом и выдумает для этого причины. А уж нейроговно всем за километр видно.
>>1340743 Ты путаешь. Нейрокалом называют реальные видео именно потому, что не способны отличить. Т.е., ты буквально пруфанул точку зрения «нормисы не заметят». Потому что неотличимо, и видя любое видео, которое не укладывается в их картину мира — нормисы (и скептики) сразу называют это нейрокалом. И, да, их мозг сразу ищет к чему придраться.
Это было отлично показано на фотке стула на льду, когда настоящее фото клеймили нейросетью, а нейросетевые считали настоящими лишь потому, что в их картине мира было так, как и у нейронки. Но не как на самом деле.
>>1330230 Одна модель хорошо делает из шума полушум, другая из полушума результат. Это сделано по наблюдению, что в середине меняется характер кое-какой ебанины, и можно вместо огромной модели делать две специализированные, суммарно менее огромные. Если хочешь по-старому, то юзай старое. Дефолтный комфи-рант скипнут но валиден
>>1334243 >либо две видяхи с 24 гигами минимум каждая. И мощным чипом. И ебаться с комфи, писать свою ноду Я тут новый, но по опыту с другим нейрософтом, завести два чипа никто из нас не потянет, если этого нет твердо и четко искаропки. И даже тогда будет ебля и чотакмало. Две видяхи это полная хуйня затея в текущем году. Разве что ролить t2i параллельно с очередью камшотов и надеяться что бп не унесет с собой весь риг от этих качелей.
Расскажите как с ваших видосов вфы загружать. В комфи делал чистый вф, кидал в него. По краям он не принимает. File - Open делал. Ничего. Скачивал пр.кнопкой по оранжевой ссылке, скачивал кнопкой скачать.
Пробовал эти например: >>1335872 >воркфлоу в видео
>>1340883 Да не, при желании-то можно, и даже не очень сложно, просто муторно. Другое дело, что никто этим не парится особо, слишком муторно, слишком узкий юзкейс, перезагрузки модели в одну видяху отжирают гораздо меньше времени, при наличии оперативы, чем ты будешь переписывать код. Такое развлечение — особый сорт извращения, на самом деле.
>>1340888 Установи плагин Video Helper Suite на комфи, и тогда заработает.
>>1340914 У Q4 меньшая точность, будет чуть больше шума и чуть меньше деталей - нужна для использования меньшего объема VRAM. Q8 будет лучше по качеству, fp16 - ещё чуть лучше.
>>1340913 >Установи плагин Video Helper Suite Спасибо большое, помогло. А еще вопрос, миссинг ноды можно не глядя ставить (хотя бы из итт), или на свой страх и риск? Какой там система безопасность? Как обычно, никакой?
И еще поделюсь первым опытом, на 4070ти12, 64, нвме-своп завел сходу в общем-то дефолтный ван 2.2 i2v 14b с лайтнингом и экстра лорами камшотов конечно же, с цивика. Сначала было мутно, но поиграл с промптом, весами, кфг, и все норм получилось. Понял, что с лайтнингом обычная лора не успевает сработать, поэтому увеличил степы, сначала до 4+4, потом сделал 2+4 с повышением силы лоры. 4+2 еще не пробовал. С 3+3 чот не особо получалось. В целом на первичный примитив все устраивает, мутняка и артефактов как выше по треду нет. Генерация занимает около 3 минут (+-), разрешение держу около 640х640, 512х720, 16фпс, 3-4сек. До свопа так понял дело не доходит, но могу помониторить TBW если кому прям интересно. Странно было то, что при 12гб и моей карте, ожидания по идее должны быть в десятках минут. Например хуюнян во фреймпаке со всеми аттеншенами 1 секунду генерит за 1.5-2 минуты (при дефолтах фп).
Алсо, появилась ли нода с динамик или выбираемым из списка промптом? Или по старинке ручками заносим тексты из блокнотика, правим фразы?
И умеет ли жопате помогать писать подобные ноды, или это пока еще сакральное и в целом муторно?
>>1341310 Да особо никакой. Сделали ноду, выложили в гит, попала она в мастер лист их и все. Естественно, если ты там нахуевертишь в ней фигни, Комфи ее лично проверять не будет.
Но в общем, ставят, да и основных не так много, быстро собирается пакетик более-менее известных нод. Там звездочки с гита есть, хоть какой-то рейтинг.
> Странно было то, что при 12гб и моей карте, ожидания по идее должны быть в десятках минут. С чего бы? :)
> Например хуюнян во фреймпаке со всеми аттеншенами 1 секунду генерит за 1.5-2 минуты (при дефолтах фп). Ну, считай. Ван вдвое медленнее хуьюана архитектурно, но это при 20 степах там и там, а при 6 — должен быть в полтора раза быстрее. Выходит: 1,5 минуты хуньюан => 1 минута ван, 3-4 секунды — 3-4 минуты, а ты пишешь: > около 3 минут (+-) > 3-4сек Ну, вроде как математика совпала. =)
> До свопа так понял дело не доходит У меня, кстати, 72~84 гига, но я допускаю, что винда просто ленится чистить оперативу и держит кэш других приложений.
Подскажите, вопрос тупой. Перс делает действие по промпту 5 сек. Если ставишь больше 5 сек, то после 5 сек времени он либо делает обратное действие, либо заново повторяет действие (но уже коряво). Какой параметр поменять, чтобы видео было, например, 10 сек.?
>>1340338 А в чем прикол апгредить торч, если все работало? Комба торч 2.7.1 + triton 3.3.1.post19 работает стабильно, ипакта по скорости вроде как нигде никто не описывал. Если в логе не срет явными ошибками - проще пересоздать env имхо
>>1340293 конда нормальная хуетень, чтобы создавать изолированные окружения, уже несколько лет с ней только и пердолюсь, под каждую нейрошляпу отдельно делаю env и все работает, как часики
>>1337465 >>1337469 Народ кто не юзает гуфы, можете плиз сгенерить, что нибудь i2v с lightx2v лорами на wan 2.2, чтобы в промпте было 'sign with a text "dvach is the best imageboard"' или любой другой текст, я юзаю гуф q6 и у меня просто трындец как с генерацией текста все плохо, качать fp8, чтобы просто попробовать - лень Спасибо
>>1341567 Опять бля по кусочкам выборочные версии вместо полного скрина с видеокартой, сажей и т.д.. Ещё надо было версию питона вывести. Один хуй ни одна калека не смогла сделать простейший копипаст в консоль. Спасибо, папаша, блядь, тред помощи нахуй. Да как раз отъебнулось всё, когда пришлось поставить версию пониже. Уже не помню последовательность отъёбов, обычное дело, когда каждый разраб тянет на себя одеяло зависимостей и все они в одной среде. >в чем прикол апгредить торч пик Ну, к слову, с твоей версией теперь только ошибка torch.nn.Module.to_empty() после семплинга. Уже был такой этап, что-то другое не сошлось. Похуй, пока не погенерю, не кину воркфлоу, который два анона просили, другой кинет. Один хуй сейчас другим занят, потому как-то переставлю всё с нуля, давно назревало. Ах, да, ошибка именно после генерации липсинка, воркфлоу из видео, то есть раньше всё работало. Обычные генерации как работали, так и работают. ПОХУЙ, забили.
>>1341651 >Спасибо, папаша, блядь, тред помощи нахуй. Я сижу на нативах, киджаем под хвост не балуюсь, да и мнение его по скорости сомнительно, думаю от модели gpu зависит, мой pip list тебе нахуй не упал. Путь nightly = путь ебли, сырое, условно быстрое, мб субъективно, но как есть. ХЗ как ты даунгрейдил опять же, одного понижения pytorch мало, там ещё transformers нужно понижать и другие связные пакеты, что за ебаторию с тензорами отвечают.
Посоветуйте, какие оптимальные параметры ставить в ноде Wanvideo blockswap, при видеокарте с 8 gm VRAM и загрузке GGUF high low noise моделей Wan 2.2 около 11 gb каждая?
Китайцы Ван на порнухе тренили что ли? У меня есть лора на целующихся тянок, в датасете хуёв не было, но Ван через раз в руки их вставляет. А что ещё хуже - хуи иногда изо рта показываются вместо языка. Чё за пиздец.
>>1341814 У китайцев нет либеральной шизы и на копирайт они хуэй клали, поэтому все возможно. Лицемерная либерда с реддита вспоминает постоянно, что китайские ллм модели отказываются отвечать про площадь Тяньаньмэнь в 1989г (как главный аргумент политической цензуры в китайских моделях, так никто и не утверждает, что её нет). В то время, когда американские модели могут отказаться отвечать вообще на что угодно.
>>1341827 Ну так запрет тяньмень это ж гегемония диктатуры, а вот лишение работы белых натуралов блекрок инкорпорейтедом это швабодное сасаити. >>1341814 Попробуй спросить у дикпика, как хуйцы дрочка сосание идиоматически будет по китайски, и засунуть в негатив. Он в этом шарит, я через него кучу фетиш-контента находил в ихнем хуньсуньнете.
Просто нет инфы, почему кроме Auto у kj Sage attention нихуя не работает. Говорят fp16_triton лучший по скорости, а если в этом режиме генерить то комфи просто крашится после загрузки модели на старте генерации. Чат гпт нихуя не помогает. Инфы мало у всех всё норм, либо на похуе генерят в Auto. Мб я просто чет не знаю объясните.
>>1341968 > кроме Auto у kj Sage attention нихуя не работает Значит пакет нормально не установлен, может куда-код не скомпилирован как надо, может под sm_120 нет собранного кода. > fp16_triton Наоборот худший, медленнее чем вообще без сажи. Тритон очень медленный, всегда медленнее куды. Лучший по скорости fp8++, но на том же Ване разница между fp16 и fp8++ минимальная. > можно разогнать Нельзя. Он в среднем не сильно далеко от флеш аттеншена ушёл.
Бля почему в итоговом получается такая хуета? Если перевести на ван 2.1 то генерится всё как полагается. С ван 2.2 вокрфлоу конечный результат вообще не похож на оригинальный кадр.
>>1342849 Это на какой видюхе 10 минут. У меня на 3060 минимум 40 минут, а то и час. И это в 16 фпс. А инфинити толк который в 24 фпс надо рендерить, так вообще 1,5 - 2 часа.
>>1342912 >comfy Макароны не юзаю. Т.к. там просто какие-то красные рамки и ничего не работает впринципе. Использую только пинокио, т.к. там всё само устанавливается и работает, и никаких красных рамок. В пинокио такое есть?
>>1342926 Мне кажется, что если в интерфейсе ошибки, то их должен исправить тот, кто делал этот интерфейс. А не я. В пинокио у меня ошибок нет, всё работает по нажатию одной кнопки.
>>1342940 Красные рамки это не ошибки интерфейса. Там показывается что в этой ноде что-то не так. Иожет у тебя модели нужной нет, а она выбрана, к примеру.
>>1343006 С проектами вроде комфи часто объективная проблема, что ультраполезный базовый функционал пересекается с непроходимой упертостью авторов. Наверняка тысячу раз обсуждалось, что неплохо бы комфи иметь интерфейс похожий на эту пинокию или еще на что-то, но всегда разбивалось об идиологическое "а мне так не кажется" костяка команды. Причем сделать это внутри - никакой тех.проблемы нет, кроме этого манярезиста. Потому и плодятся эти суб-стрим проекты, которые постоянно отстают, потому что нет структуры, мешающей что-то ломать изменениями в основном проекте, и они ходят прыжками от версии к версии. В опенсорсе такое сплошь и рядом. Берется парадигма, и слепо ей следуется. Зачем - никто ответить не может. Так принято. Разбираешь по частям - возгорание, а че сам не зделоешь, а да че ты панямаешь, а че мне тут бесплатно вам че-то делоть. Хотя проблема в 500 раз тривиальнее чем те, что он решает каждый день, а все что надо сделать, это разрешить кому-то создать ветку с этой фичей и потом просто принять ее.
>>1343293 В пинокио дело не в том, как интерфейс выглядит, а в том, что пинокио логично автоматизирован. Тоесть там все модели и прочая хуйня просто само скачивается.
Но сами ноды тоже конечно через очко сделаны. Там нельзя например название скопировать, нельзя выбрать файл модели просто из файлового менеджера винды.
Эту хуету делали не люди и не для людей. Этим невозможно пользоваться.
>>1343293 Комфи по сути и так упрощение с ограничениями. Можно вообще все на питоне писать и запускать, а ты предлагаешь дальше упрощать до пинокио и стабилити матрикс? Это вообще не решение, это деградация. В текущем виде комфи позволяет реализовать вещи выходящие за рамки, позволяет экспериментировать, это в первую очередь инструмент для энтузиастов. Для обывателей сделали wan2gp, фреймпак и прочее на градио. Им по сути и не нужны эти инновации, картинку загрузил кнопку нажал, хуй в рот засунул и рад.
>>1343301 >все модели и прочая хуйня просто само скачивается Для базовых воркфлоу и в комфи все качается само.
>>1343326 Энтузиастов ебли в очко разве что. Качаешь портативную версию, качаешь воркфлоу. В нем миллион каких-то файликов рассованы по папочкам и подпапочкам каким-то шизом. Ну ты справедливо решаешь удалить нахуй эти папочки, и всё слинковать в одну папку, как нормальный человек. Ой, а эта ебанина больше не запускается, ей поебать на линки и логичность, она хочет что бы всё было в шизопапочках. Ладно 4 часа качаешь тысячу ебаных файликов, и рассовываешь по шизопапочкам. Тычешь на кнопку, о боже наконец эта хрень запустилась. пол часа она докачивает еще миллион каких-то файликов, и... ваши зависимости не зависимости. Как? Я же скачал портативную версию, вот и питон тут. Вот же он. Нееет, хуеглот. А ты не знал, что помимо питона есть еще и тритон, только он почему то в отличии от питона не включен в портативную сборку. Да вот был у тебя питон, анаконда, теперь будет еще и тритон. Целый зоопарк хуйни. Только тритон должен быть такой же как питон, смотри не перепутай. А иначе нихрена не запустится. Как ты не знал, что помимо уставки тритона, еще нужно выполнить команду по установке зависимости, а ты не зная этого запустил воркфлоу и опять ждал 20 минут? Ну бывает.
>>1343390 >Энтузиастов ебли в очко разве что Вот это верно подмечено, энтузиасты же ни пидорасы какието, мануалы читают, обучающие видео смотрят, совсем дебилы, не то что ты, сразу в дело! >Ну ты справедливо решаешь удалить нахуй эти папочки Полностю согласен, я вот когда винду устанавливаю тоже сразу папку виндовс чищу, хули там папок так много совсем идиоты эти разработчики замусорили всё. >всё слинковать в одну папку >нормальный человек Правильно. Во дураки то разложили лоры, модели, адаптеры, аудиомодели и прочее по разным папкам, надо было вообще все модели и прочее в один файл собрать и заебись было бы, его выбираешь и все работает. >тритон Вот что они за неумехи, они же сразу должны были скомпилировать тритон под все видеокарты и добавить в дефолтное комфи. Или еще лучше сделать сразу 50 сборок комфи под каждую видеокарту и обновлять их.
>>1343399 > Правильно. Во дураки то разложили лоры, модели, адаптеры, аудиомодели и прочее по разным папкам, надо было вообще все модели и прочее в один файл собрать и заебись было бы, его выбираешь и все работает. То, что я не могу самолично указать путь к нужному файлику это тупо
>>1343399 >Полностю согласен, я вот когда винду устанавливаю тоже сразу папку виндовс чищу, хули там папок так много совсем идиоты эти разработчики замусорили всё. Попытался в аналогию но тут же обосрался. Шизопопачки комфиюая пустые, и я на все сделал виндовый линк на общую папку. То, что программа не поняла виндовые линки, говорит только о криворукости её разрабов. > Во дураки то разложили лоры, модели, адаптеры, аудиомодели и прочее по разным папкам, надо было вообще все модели и прочее в один файл собрать и заебись было бы, его выбираешь и все работает. Дураки, да и шизики. Складывать каждую ерунду в отдельную папку это шизофрения. Это как в винде создавать отдельную папку для каждой длл-ки. Одна папка для всей этой ерунды и логичнее и практичнее. А подобную структуру может нагородить только аутист, который носки разного цвета по разным ящикам ирл раскладывает. >Вот что они за неумехи Именно. Ведь в пинокио всё ставится само. Очевидно, что определить на этапе уставки какая у кого видеокарта труда не составляет. Для нормальных разработчиков.
>>1342940 А если все работает — то у того человека, который это делал, а не у тебя. Я считаю, все справедливо. Генерь 2 часа, короче.
———
Тред не читал, Комфи не хотел всерьез делать че-то, завирусился, интерфейс полное говно, но сосут те, кто макароны не юзают, ничем помочь не можем, проще юзать макароны, чем самому писать код, шо поробышь.
из залупения импорт залупоха, подзалупы хуйзалупа = [залупох.залупохуйство(хуилиард параметров из 15 модулей).всполучить(хуение.КакойТоМаняКейворд4) for (дроч, парам, пампам) in хуение.кудаХуюдаТензоры[индекс_Залупы].каратель(подзалупы())] очередь.вставить(хуйзалупа[1:], -(очередь.индекс_хуиты(долгое получение хуиты)-1)) ...еще 30 строк этой дрисни...
То есть в коде та же самая проблема - нет нормального интерфейса. Ты не представляешь мое горение, когда я вижу, что мог бы иметь чоткий простой код и грабить корованы, но вместо этого у меня либо лапша, либо хуйзалупство. Тут дело не в "кнопку нажал", а в том, что комфи это датафлоу программирование, как бы себя кто ни обманывал. И оно сосет, и для юзеров, и для кодеров. Это маняидея каждого второго школотрона - обмазаться визуальными блоками. Она быстро разбивается об то, что даже в простом случае выходят невоспринимаемые сопли. Вы уже переизобрели то ли циклы то ли процедуры >>1335631. Это ред флаг, сверкающий алармом, разрывающий уши. Но слепые не видят, глухие не слышат. Через N лет какой-то хер из этой тусовки будет мудро почесывая бороду рассуждать, что мда конечно вф подход породил множество пиздеца и конечно ну пиздец и можно было просто человечный код, да, и модульность, и либы. Опыт и путь конечно интересный, но кто ж мог знать на ранних этапах, хиндсайт ис 20/20. любой хуй с 10+YoE, просто блять спроси
Вот так бы выглядел ван22 темплейт с функционалом автоподбора аспекта и колва кадров, где основные параметры собраны в отдельный проперти бар, с историей значений и прочим:
----- clip = load_clip(<name>, type="wan") vae = load_vae(<name>) high = load_diffusion(<name>) low = load_diffusion(<name>) extra_loras = [load_lora(name, strength) for name, strength in ui.loras] pic = load_pic(ui.pic_path)
video = pics_to_video(vae.decode(latent), fps=ui.fps) ui.video_path = video.save(...).path -----
Это (и автозагрузка нехватающего) отменило бы 99% каломатиков и пинокий, потому что они превращаются в 20 строк тривиального кода, которые энтузиасты могут писать и шарить в пастебин, а хомяки просто пастить в поле "задача" и жать кнопку "начать уи". А то что щас - это чистой воды пик выше.
>>1343846 Шиза это когда второй тред кекаешь с анона, который позавчера в него зашел, и путаешь его с очевидно другим. >Нет никакой объективной проблема Неудобства и ограниченность это объективная проблема. Возможно на твоем уровне юза это просто не видно.
>>1343803 Брат, запили такое решение, пожалуйста - я буду пользоваться. Еще надо, чтобы зависимости библиотеку сама разруливала и микропрограммы в изолированных средах исполняла, чтобы конфликтов версий не было.
У вана нужно и лоу нойс, и хац нойс модели в один воркфлоу кидать? С моими 12гб врам оно же дохуя это будет генерить, хотя у меня ддр5 с 95гб пропускной. Минут 10 точно. И это ради 5 секунд.
>>1343956 Да ладно - у меня на 3060 и ddr4 2400 - оно в 3-4 минуты укладывается для 5-и секунд. Это c fp8 safetensors моделями. Какие еще 10 минут? Так что - да, нужно обе, и high и low. Просто по 2-3 шага для каждой, с соответствующими лорами.
>>1343966 Напоминаю, что от размера/кванта моделей (почти) не зависит, если оперативы хватает. На fp16/bf16 на соответствующем железе даже может быть быстрее, чем на fp8, хотя и минорно. Так что ты объем тоже уточняй. =)