>>1253463 → В ЛЛМ принято считать, что вытекание в оперативу убивает инференс (на самом деле, для 1-2 лишних слоев некритично, а дальше — да). Многие могли притащить эту мысль сюда. Лишь предполагаю.
Хотя на деле влияние в видео-нейронках слабое, всего-то в два раза по скорости.
Господа, знает кто-нибудь нормальные "сайты", который предоставляют облачные гпу-серваки, с оплатой из России без геммора, почасовой арендой, с нормальным выбором видях (кастомизацией железа)? Юзер френдли. В линухе не шарю. Что-то типа иммерса... Селектел в топку.
Есть у кого 100% рабочий промпт для вана, чтобы из картинки вне фокуса, он сделал её резкой и "чёткой". Или как вариант перекинул фокус с переднего плана на задний или наоборот.? Для статичного изображения.
Возможно ли создавать видосы дольше 5 секунд с light2x в комфи за вменяемое время? Я как ставлю количество кадров 121 (8 сек) так он генерит час, а 5 секунд за 5 минут генерятся, это какие-то особенности алгоритмов?
>>1253641 у тебя не хватает памяти для 121 кадра, либо снижай разрешение, либо видяху с большим объемом vram бери (хз, даст ли буст относительно часа добавление простой озу)
>>1253641 Методом последовательной генерации. Картинку из конца первого отрезка как стартовую для второго, а потом соединить результаты. На том же сиде и промпте - движение обычно боле-менее корректно продолжается. Разумеется - если не вручную ковырять, а как единый воркфлоу оформить. Для второго отрезка, в прочем, промпт можно и специально менять. Простор для экспериментов.
>>1253768 Спасибо. Чет охуел с промптинга - на каждую картинку надо свой отдельный промпт писать описывая окружение и тд. как тут это делается все знают англюсик на с1?
>>1253782 >на каждую картинку надо свой отдельный промпт писать описывая окружение далеко не всегда. В отношении оживления картинки вообще достаточно описывать только то, что должно двигаться. Модель сама понимает контекст картинки, поэтому от того, что ты опишешь ей ее толку не будет.
>>1253641 Эту модель обучали на коротких видео максимальным отрезком в 5 секунд, если требуется больше, то как уже писали использовать последний кадр прошлой генерации. Скорее всего следующая генерация поменяется в цвете появится так называемый color drift. Дело в том, что после окончания 5 секунд модель начинает забывать, что же там было ранее. По этому наверное стоит даже взять несколько отрезков по 3 секунды, вместо двух по 5. Или же применять технологии пост обработки типа color match.
>>1253815 Разумеется можно и автоматизировать, если речь про комфи, по сути два раза или более раз повторить весь воркфлоу (не считая лодеров), но при второй итерации на инпут впихнуть последнее изображение из batch от прошлой итерации предварительно прогнав через color match. Просто руками - тоже можно, ничего от этого не поменяется.
>>1253862 На то он и воркфлоу анона, если не понимаешь че там ноды делают,может он каждый кадр 4х апскейлит, хрен его знает, пока сам не пересоберешь - не узнаешь...
>>1253872 У него база вроде киджаевская, честно я не знаю чего он там добавил "от себя", но аноны в треде писали, что киджаевский базовый воркфлоу по умолчанию жрет больше памяти в сравнении с нативом.
>>1253878 length 81 Ты можешь в length просто писать 165 и он сам запердолит 81 В любом числовом поле комфи работает математика. Нужно будет 4 секунды просто напиши 164 итд
>>1253884 FIX: Ты можешь в length просто писать 16 (знак умножения) 5 и он сам запердолит 81 В любом числовом поле комфи работает математика. Нужно будет 4 секунды просто напиши 16 (знак умножения) 4 итд
Так много насрали этих wan моделей может кто по человечески рассказать? С чем все понятно t2v, i2v
Далее пошло: (VACE хз типа доступны контролнеты? Fun-InP ваще хуй пойми что... FLF2V типа модель которая позволяет работать фиче first - last frame, но вроде как и Fun это тоже держит, как и VACE. Fun даже не выложили в офф репу wan-AI)
Короче помогите пожалуйста упорядочить эту кашу. FusionX и прочие модели просто с запечными лорами можно не рассматривать, интересуют только офф. релизы.
Так с этим ваней заеблись, что не заметили что HunyuanVideo-I2V уже как 4е месяца вышел. На цивитае нихуя вобще нет про него. https://huggingface.co/city96/HunyuanVideo-I2V-gguf/tree/main сразу с гуффом. Чесно гря даже с каустиком ваня просирает ханю в скорости генерации. А если въебать турбо версию ханю, то просто пезда.
Аноны встал вопрос - а есть ли какая нибудь приблуда чтобы применение лоры начало происходить с определенного кадра? Может можно в промпте какие нибудь тайм штампы прописать или ноду какую добавить?
>>1253910 Так его тестили, он вроде в сухую отсосал по пониманию промпта, сохранению (лиц, вайба, итд) и его собственно с тех пор и не обсуждают толком.
>>1253916 а к хую кстати пытались привязать каустик? Так бы скорость была бы уже на уровне LTXV, кстати, почему ещё ни одной порнолоры по него не сделали? Основная проблема то в СКОРОСТИ генерации. Из-за роста времени генерации по экспоненте локальная генерация это балавство ебаное пока что.
>>1253926 А ты мб скипнул инфу тут lightx2v разъебал в пух и прах все прошлые ускорялки по этому они уже и не нужны, просто подключаешь лору и меняешь настройки семплера и кайфуешь, что теперь видосы можно штамповать как на заводе.
>>1253912 да, надо просто использовать два Ksampler Advanced, первый который без лоры генерит первый определенное количество шагов, после чего латента от него идет к следующему Ksampler, к которому подключена лора
>>1253947 Я про это думал, но это не то. Ксэмплер же генерирует все кадры одновременно. И просто на начальном этапе лора не наложится, а на 2 семплере наложится на все кадры.
А у меня задача начать применять лору скажем с 73 кадра и дальше. Но чтоб до 73 кадра лора не применялась.
Надо както разделить латенты чтобы во второй семплер - который лорой попали только нужные кадры, а потом их склеить в декодере. Но боюсь тогда будет жесткий переход в месте склейки. Либо дважды обрабатывать видео тпа сперва i2v потом v2v или типа того.
>>1253974 Мне кажется ты в правильном направлении мыслишь, сначала делаешь 3 секунды без лоры, потом берешь последний кадр и делаешь прогон далее, но уже с лорой, объединяешь.
Вообще ситуация с локалочками тут даже лучше чем в картинках и уж тем более лмм - имея одну карту 24гб врам ты можешь запустить топ модель на текущий момент, в ллм для этого нужно 4 карты по 24 врам
>>1254253 Я тут на реддитах услышал про некие VIP лоры, кто их делает и где их взять хз, но на всякий случай скаченные лоры уже не удаляю как раньше...
>>1254255 О, я одну такую купил за 200 баксов. Отвал башки просто. Вот что тут дрочат на каузвид - это смешно. Да блабла х2 скорость. С этой вип-лорой х100, и туда сразу вшиты хуи, письки-сиськи, минеты, ебля в 12 позах (автор обещает завезти еще 10 через месяц). Весит правда 10гиг, но это хуйня.
F:\Anaconda\envs\Wan2GP\lib\site-packages\sageattention\attn_qk_int8_block_varlen.py:41:0: error: Failures have been detected while processing an MLIR pass pipeline F:\Anaconda\envs\Wan2GP\lib\site-packages\sageattention\attn_qk_int8_block_varlen.py:41:0: note: Pipeline failed while executing [`TritonGPUAccelerateMatmul` on 'builtin.module' operation]: reproducer generated at `std::errs, please share the reproducer above with Triton project.`
приметил для себя один мааааленький минус lightx2v, при просмотре превьюшки на первом шагу, если всё устраивает, то на втором может всё существенно поменяться, анимации и т.д.. Для тех у кого 10-20 секунд итерация не так критично. Но кто ждёт по минуте и выше, когда увидев превью и уйдя пить чай, в конце получит чуть отдаленный результат. Не трагедия, но мелочь.
Какую программу лучше всего использовать для объединения разных видеофайлов в один? По сути только этот функционал и нужен, так то понятно что всякие вегасы это могут
>>1254423 я пару лет назад юзал Wondershare Filmora, не тяжелая, лёгкая (по крайней мере тогда 2021г). Минимальный фунционал типа переходы, титры есть. Сейчас с приходом ии я хз каккая она.
>>1254394 Вернул обратно и откатил сейдж до 1 версии, вторая на 30 серии нихуя не делает а жрёт как сука, теперь и веса каждую пикчу не грузит и клип фуловый
>>1254329 Брат, там буквально написано, что нужно делать, там нужно единственное мониторить версию python, pytorch и для какой он куды-туды. Вот пот этим 3м вводным можно работать.
Условия для тритона: Triton 3.3 works with PyTorch >= 2.7 . Triton 3.2 works with PyTorch >= 2.6 . Triton 3.1 works with PyTorch >= 2.4 . PyTorch 2.3 and older are not supported.
А сажа тупо качаете whl файл и ставите в среду окружения (На пике) Слева направо версия сажы, версия установленной куды от pytorch, версия python cp312 = python 3.12.* итд
>>1254337 Если сажа не ставится, посмотрите через pip list мб она у вас уже установлена через "pip install сажа", это устанавливает первую версию - удаляйте через pip uninstall и ставьте по новой.
Если вы хотите, чтобы сажа работала глобально, а не только с киджаевскими нодами нужно добавить аргумент запуска в стиле "python main.py --use-sage-attention"
>>1254423 Скачиваешь ffmpeg в папку, создаешь bat файл, в него вписываешь это, скидываешь 2 файла которые надо объединить в папку и запускаешь bat файл
@echo off set "file1=1.mp4" set "file2=2.mp4" set "output=output.mp4"
>>1254423 Если это ролики от генерации - то в самом ComfyUI через ноды для работы с видео. Лучше всего, т.к. в процессе можно в workflow оптимизировать склейку движения между кусками, добавить интерполяцию для фреймрейта, и подчистить цветовую гамму. А в другом случае - программ уже накидали.
>>1254615 Он нормально работает Я не ебу что писать я не машина к сожалению, описал подробно как смог что хочу увидеть и там промпт короче этого раза в 3 вышел
>>1254626 Ебать у тебя шиза, а на каком языке с роботом разговаривать тем более с китайским? Это тебе не литературное произведение, а команды аи. А самое главное что они работают. Я пробовал сделать литературно и результаты были хуже.
У вас есть такое что вай скипает первый кадр и начинает вообще не с того что на картинке? Типа на картинке женщина а у ваи у неё уже хуй во рту на 1 же итерации
>>1254654 Такое может быть с магрефом, особенно если промпт сильно отходит, потому что он юзает пикчу как референс. Ставь дефолт и2в модель если не хочешь чтобы так было
>>1254652 В негативы допиши missing cum, vanishing sperm, vanishing cum
Больше всего со всеми этими ускорялками мне не нравится то что они альтерят лицо и чем оно меньше на исходном изображении тем сильнее изменения и первые несколько кадров смазанные получаются. Вот как пример. 1 видео с детальным описанием персонажа флоренс, 2 - просто с тем что ему надо сделать. 3 видео с метадатой.
>>1254653 Взял флоу другого человека хотя по сути я там особой разницы не заметил, да лор поменьше навалил, а промпт взял от чела который белобрысой постоянно в рот дает и немного переделал.
>>1254659 >Такое может быть с магрефом ааа теперь понятно кто виноват
>>1254678 Цвет менял, но давно на обычном ване без ускорителей прозрачность тоже скорее всего можно менять. Как с ускорялками дела обстоят не знаю, не проверял.
>>1254677 >Зато я не задумываюсь сколько у меня там поинтов для дневной нормы генерации осталось Я с пяти акков (даже не гугл) себе за джве недели сгенерил около 2к видосов. Время генерации одного видоса ночью - 30сек. Мне даже столько не надо, я просто тупо перегоняю все что за джва года инпейнтил/генерил в видео. И потом еще раз перегоню, когда смогут делать больше 6 секунд стабильно. Так же как я 3к калтента с 1,5 через сидиэксель до 6к штук перегнал. Просто как хобби.
>>1254685 Разные сетки, у них разная степень цензуры, у некоторых её вообще нет, как у пики, например по апи. Какие то понимают про хуи и еблю, в каких-то можно имитировать маняврами. Ты же помнишь как в клинге с крестами было. И таких дырок много даже сейчас.
>>1254688 Короче я понял, нихуя нет, максимум высеры уровня тензора, иначе ты бы уже приложил свои шедевры, из 2к видосов уже хоть что-нибудь можно было черрипикнуть
>>1254693 >иначе ты бы уже приложил свои шедевры, из 2к видосов уже хоть что-нибудь можно было черрипикнуть Но зачем? Чтобы получить бан? Ты щас рассуждаешь как чел, кторый не может сгенерить сиську стреляющую молоком. Даже в картинках. Я просто читаю тред и говорю своё мнение. Когда перекроют онлайн халяву, вкачусь на уже всё готовое без вот этой вот ебли.
>>1254699 >Но зачем? Чтобы получить бан? Смешно, тут уже который по счету тред весь в минетах, ничего не удалено и никто не забанен. Просто хотел посмотреть уровень того что там можно сгенерить, ну уже не интересно энивей
У меня с этими ускорялками котик не бежит, а с fusionx вообще в тигра трансформируется. А раньше бегал, но все равно в пределе кадра 3,4.
А вообще есть какой нибудь воркфлоу который довольно динамичный и можно было бы сгенерировать как котик бежит на камеру и мужик следом за ним, а по боками прилавки и камера отдаляется от них?
>>1254715 Это первая версия получается у тебя установлена, которая куда ядра не использует получается. можешь через pip list чекнуть. Мб они конечно в репозиторий положили вторую версию, но чет сомневаюсь.
>>1253489 Вынос мозга. Но интересно. Продолжай, получается всё лучше. Однако середина сильно затянута, почти три минуты ничем не разбавленного песдежа. Вообще самая лучшая стратегия это сделать видео, отложить его дня на четыре, потом посмотреть его посвежевшим взглядом, внести правки и снова отложить. Три таких подхода, и будет очень близко к идеалу. И косяков по монтажу и сюжету будет в разы меньше.
>>1254866 >Подскажите пожалуйста как к дефолтному воркфлоу на вай 2.1 прикрутить сейдж и тритон Вот тебе нативный воркфлоу со всеми бустами, можешь оттуда забрать, бонусом промпт для ценителей прекрасного https://files.catbox.moe/o82gng.json
>>1254729 если честно я с этим питоном на винде не разобрался на линупсе все просто и понятно, а винда это какой-то бесконечный костыль есть смысл перенести все на WSL2? будет работать вообще?
>>1254975 да и вообще, по-хорошему, надо отдельно поставить чтото, а то в игори не поиграть пока генерится - а на сервачке точно линупс. сто лет не ебаался с дровами на видемокарточки на прыщах, как там сейчас с 4090?
>>1254976 Хз как на дебиане и убунте с производными (вроде минта), хотя по отзывам вроде бы тоже неплохо. А меня - манжаро, проблем с поддержкой железа нет вообще. Даже проброс vfio-pci в виртуалку легко настраивается и работает. Динамически, с отключением-подключением карты без перезагрузки, тоже.
>>1254647 Бля как я ору с твоей многократно невыстреливающей спермы. Экспериментатор-кун, это реально проблема lightx2v или конкретно его настройки? Очень скоренько потестил без лор, как будто тоже показалось, что все остальные ускорялки отжили своё.
>>1255137 >Экспериментатор-кун, это реально проблема lightx2v или конкретно его настройки? У меня та же хуйня, сперма не долетает, лол. На flowmatch_distill семплере вроде получше, но там хардкод на 4 степа и качество картинки в целом хуже, еще не подобрал оптимальных настроек (надоело пока)
>>1250359 → Аноны поясните, где взять этот воркфлоу? Почему в треде пишут просто перетянуть видос в comfy, откуда в mp4 возьмется json со всеми данными?
Какое же говно просто. Мало того что для нас все заблокировано и надо через костыли, так ещё и наши кабанчики только и мечтают как придушить весь западный интернет.
По итогу, без вложения пары сотен баксов, что-то нормально сделать не возможно. Veo в принципе отказывается генерировать видео, если там лицо актёра, а есть единственный лайфхак, для нормальной наследственности лица во всех изображения, во всех остальных случаях, с одним промтом лицо отличается, нет индвидуальности.
LДа и вообще, цензруа, анальная цензура. я просто не могу сгенерировать чувака в лесу с факелом. Это пиздец.
Что вообще есть? Kling хуевое качество видео даёт беслпатно, wan может вообще такие приколы выдать, в гугловские хуйни хер пробьешься, так ещё жестко не хочет брать мои пикчи
>>1255225 Да я просто не могу даже попробовать нигде на нормальном качестве, что бы понять, вообще уровень и стоит туда тратить время и деньги, Везде генерации платные сразу, особенно на платформах где можно попробовать разные модели
может нейронка не сможет в мои запросы? например sora и image fx, сильно отличаются по моим запросам. sora конечно картинку высокого разрешения выдает, но без деталей и постоянный перезум,
Kling вообще тупо не умеет в историчность или что не современное, он этого не понимает, image fx тут конечно то же не идеал. Например создать поселение в стиле в древней Руси 111 века, он не может, там либо деревни викингов, либо вообще японские замки сёгуна
>>1255222 >для нормальной наследственности лица во всех изображения По результатам моих эспериментов, в этом отношении лучше всех показал себя Pixverse. Правда это было полгода тому назад, когда я перепробовал всё, то есть действительно всё что только было. Только в pixverse консистентность лица в рамках пяти секунд и при сравнении между собой разных пятисекундных роликов с лицом более или менее отвечала моим, возможно завышенным требованиям.
Вся индустрия сейчас скатилась к высасыванию денег за каждую фичу. хочешь одно лицо, без изменение в разных кадрах? Внезапно рынок может предложить не так много вариантов, я бы даже сказал их нет от корпораций, только flux модели платные на tensor есть хороша одна. HHM FLUX с подпиской про.
Но все остальные, хоть на sd с ip adapterom там не тот уровень.
Как трекать вот такую ебанину, чтобы видео-маску создать? SAM2 параша может или одежду, или мелкие детали трекать, при попытке затрекать обе вещи, оно выделяет всего человека. Или для каждого объекта нужно обязательно делать свой AddPoint? Есть что-то лучше SAM2, с большим контроллем, эти точки какая-то лажа, не знаешь как они сгенерят маску.
>>1255315 Там сейчас драчка смертельная, с весны началась. Сначала китайцы выкатили wan 2.1 и kling с 1.6 дали пососать американцам, были лидерами.
параллельно это Трамп в начале срока начал выделять бабки на ии. и вот недавно гугл выкатил Veo3 и уже дал пососать Китайцам. Подняв планку ещё выше, да может в отдельных анимациях ван лучше, перспективнее даже. но совокупность звука и анимации, дало результат, плюс космический ценник.
С тех Китайцы пока ответа не дали, планку никто не поднимал.
а вот рост закупок железа, мощностей и т.д просто ниебический. даже если сравниить с тем что было года 2 назад( а там был космический отрыв от 19-20 года) То сейчас там совсем аут.
Ну и самое главное полетели уже просто огромные бабки в ии, триллионы баксов. вот Пентагон контракт заключил с open ai.
К сожалению нас там вообще не видно, хоть изначально на эпохи коммерческого зарождения нейронок (2016 +-) наши были во многом лидеры.
например распознавание по лицу нейронкой, готовый коммерческий продукт. findface был у нас и ещё парочка.
но сейчас от наших вообще ничего не видно и не слышно, не удивительно конечно, мощностей нет, для своего развития. если только локальные open source модели модифировать, в принципе можно успешно паразитировать на этом, но пока громких явлений нет.
а сейчас между штатами и Китаем заруба даже не за триллионы, там уже триллионы вложены. Слить их в пустую никто не хочет, а хотят окуп уже сейчас.
нет глобального 3 игрока. Забавно что у Европки что то есть в плане на бумаге, вложение денег и т.д но от России не далеко ушли, а в некоторых сферах даже далеко позади. По хорошему все гейропе надо было совместно с РФ работать, что занять свою 3 часть рынка, встав между Китаем и США Но по отдельности шансов нет, У европейцев даже ещё хуже дела, не смотря на вложения в целом. Это не говорю просто инфраструктурное/энергетическую часть У нас хотя бы есть надежда на паразитирование на локальных open source моделях, которые могут быть значительно переработаны. Буквально вся it индустрия так живёт 30 лет. А у вот европейцев такого опыта нет. Они плотно сидят на американских возможностях.