>Генерация картинок на Wan 2.1, вот прям топ топыч с нативной поддержкой FullHD и нормальной анатомией рук. Смотрю comfy ее поддерживает, но там примеры только генерации в видео, а не картинку. Для нее уже завезли что-то типа InstantID?
>>1284336 >Для нее уже завезли что-то типа InstantID? Типа, вышла целая кастомная модель https://huggingface.co/QuantStack/MAGREF_Wan2.1_I2V_14B-GGUF правда я не проверял ее на картинки, но технически можно сделать пару кадров видео и из них вытащить один кадр как картинку, или может сразу можно картинку генерить, хер знает в общем
>>1284346 Респект за ссылки, буду разбираться. Там в первом комменте "Looks miles better than the plastic-looking Flux base model, and on par with some of the best Flux fine tunes." Значит действительно есть прогресс. Я в какой-то момент устал накидывать лоры на flux, всеравно хуета получалась.
Потестил последнюю версию флекси хача, кажется она делает все сд модели, или я не прав? Может ли хрома ваша такое отражение сделать?
Промт: 35mm film. blond woman performing a deep squat in a gym, with a wall of mirrors behind her. She is posing her hands on a mirror. She is dressed in a vibrant yellow thread thong and a yellow bra. Her skin is white and sweaty. She is looking over her shoulder at the camera with a smirk. A towel is placed near her.
>>1284962 Да не, почему. Хрому нужно как то заставить рисовать письки-сиськи, лоры, хуёры. А поняшке попросил нарисовать девушку на звёздном небе, а поняша такая рисует: ван герт стендинг, стоит раком, дубль перетрейшен, 2 зелёных инопланетянина с большими членами, кам кам кам...
В общем поняша уже знает чем всё закончится, и буквально предлагает не терять время на всякое говно. Какая ещё модель способна предсказывать будущее?
Сейчас вспомнил такую хуйню как Omost. Какой же он клоун. Тупо сделал воркфлоу ллм + региональный промптинг и бегом давать этой хуйне уникальное название и детальное помпезное описани.
>>1285152 Я не смог порнуху генерить на хроме. С сосками она ещё справляется, вареники там - сплошной бодихоррор. На позах чуть сложнее лежания бревном - ломается. Короче постоянный реролл и ноль фана мимо
я чот не осиливаю хрому, или это она в ForgeUI в принципе не работает? какие настройки ни выбираю, всё время генерируется рандомный шум, в лучшем случае очень отдалённо напоминающий промпт
>>1285235 >оно еще ж на стадии обучения Дело не в этом. Там ещё на 29 версии можно было кучу всякого фана нагенерить. Хрома изначально в порнушку не целилась. Иначе бы они хотя бы вареники в датасет доложили.
>>1285238 да есть там вареники, пиздатые, только иначе промтить надо, типа через каметое и проч, в противном случае получаются лохмотья бабы Зины. Я на перчансе генерил, там хоть и более низкое разрешение, но порой страшно, аж не отличить (на экране нокии) от реальности =) Плюс нужны теги на "казуал", аналог и прочую хуйню.
Объясните как формируется оптимальное разрешение изображения для генерации? В интернете какой-то бардак, многие разрешения противоречат парвилам.
Например взять модель flux, изображение должно быть кратно 64, но если посмотреть таблицу или примеры на civitai: 1920×1080 1440×960 1153 х 1728 Они вообще не придерживаются данного правила. Тоже самое и с SDXL, в разных источниках разрешение при той же сумме пикселей и соотношении сторон имеет разные значения ширины и высоты.
>>1285371 > посмотреть таблицу или примеры на civitai Хуй знает про какую таблицу ты говоришь, но если поставить неподходящее разрешение латента, то он сам делает его кратным 8, т.к. ксэмплер ничего другого не примет. > 1920×1080 Ресайз или кроп по вкусу, чтобы получилось стандартное FullHD. > 1153 х 1728 Васянство с кропом/ресайзом в пайнте. > должно быть кратно 64 Тут нужно дополнить, что оно желательно должно быть кратным 64, чтобы уменьшить вероятность артефактов и прочей хуйни, как и с ХЛ, а обязательно оно должно быть кратным 8.
>>1285371 Главная базовая база в стандартных моделях - это чтоб твое разрешение сильно не превышало сумму 1024+1024 пикселей, то есть 2048. В рамках этой суммы можешь кочевряжиться как тебе угодно, нейронка даже из самого ебанутого соотношения что-то внятное постарается нарисовать. Если ты видишь что-то сильно больше, то это уже апскейл скорее всего.
>>1284917 не, не imagen4, так как позиция лица в отражении не проебывается, у хрома тут >>1284919 и SDXL тут >>1284925 вообще хуета.
Скорее всего Хач догадался тупо взять Wan, сделайть трейн на 1+ картинку и сказать будто-бы это его уникальная новая модель, а так у него даже грейн как у самого популярного сейчас на реддите ворклоу для Ван.
>>1285371 >как формируется оптимальное разрешение изображения для генерации? зависит от модели
>>1285371 >1920×1080 разрешение видео, на котором тренился Wan к примеру, по этому он не артефачит даже на этом разрешении. Другие модели, которые тренили на меньшем качестве картинки, понятное дело захлебнуться если попросишь их сделать то, на чем их не тренили.
>>1285464 гарантирую, что ты попросил один цветок, а он тебе выдал два. Такие артефакты появляются, когда модель не знает как работать с заданным разрешением
>>1285470 > img2img img2img в смысле подал в латент другую картинку? Или img2promt2img? Смысл оптимального разрешения в генерации с нуля. Модель училась рисовать условную голову размером в плюс-минус 300 пикселей, потому когда ты ей подсунешь холст в 3000 пикселей, она её в центре нарисует, и потом такая начинает заполнять окружающую пустоту всяким мусором. Может повезти, и этот мусор окажется вполне логичным, уместным или даже артистичным, но в целом модель не заточена на такие портянки.
>>1285464 Проблема завышенного разрешения в том, что нейронка теряет понимание соотношений и пропорций, перестает понимать, где какие предметы должны находиться относительно других предметов. Это ярче всего на изображениях людей заметно, потому что начинаешь получать мутантов с дико искаженными телами. Ну а что-то достаточно простое как цветок, наверное, куда меньше подвержено подобным ошибкам.
А если ты имг2имг используешь, то это вообще другой вопрос, там исходное изображение служит контуром, нейронка не фантазирует с нуля.
>>1285465 >зависит от модели В итоге и Flux, SDXL, SD3.5 используют кратность 64. В чем разница — не понятно.
>понятное дело захлебнуться если попросишь их сделать то, на чем их не тренили. Т.е. даже если я сделаю оптимальное соотношение сторон, сохраню суммарное количество пикселей в 1 мегапиксель, то это не гарантирует отсутствие артефактов, просто потому что для моей задачи не нашлось фоток подходящего формата? Ну логично.
>>1285458 не, это 100% вариация имагена4, обычный или ультра. С лицами "не проеб" это просто роллинг. У вана не такая картинка, а на имагене зерно тоже сделать можно. Но само просто как понять, что генерации однотипные, посмотри на трусах в районе копчика, везде появляется одинаковая "бляха"... совпадение? не думаю.. Хачатр наебал всех. Хотя я хз как он греет. Просто тегов накидал своих поверх вводимого промпта. Да и вывод я сделал только по твоим пикам..
>>1285498 Может контролнет не тот, или настройки не те? Вот исходник того прохода xinsir-promax, если че. Машину немного изменило, добавив гребень на капоте, но кривая дорога с ухабами цинично сохранена.
>>1285519 ох ебать, спасибо за год соберу может быть по этому чертежу) Я контролнетами только в фордже последний раз пользовался год назад. В комфи их вообще не трогал.
>>1285519 Только денойз в этот раз забыл убавать для прохода с тайловой диффузией. Должно быть не больше 0.4. >>1285531 > за год соберу Ну хуй его знает. Я вчера за пару часов с нуля пересобрал. Но с перерывами в течение всего дня, ибо нехуй долго глаза слепить.
>>1285560 Как раз из-за этого поменял на KJ Set/Get, т.к. теперь все перезаписанные инпуты - просто точки (пик2), а раньше хоть видно было, на что инпуты переименованы.
>>1285655 >эти шизоиды не генерят картинки Так тут таких 90%, либо скрины своей шизолапши, либо просто текстошизу . А если кто и постит сюда картинки, то это какой то криво-мыльный кал говна, как специально. Я хз вообще зачем этот тред.
>>1285713 >любой Нет. Только тот, что уже третий год по 30 раз за тред генерит одну и ту же текстошизу без картинок про то, что в треде много текстошизы и мало картинок. Остальные вроде люди.
Никому не нужная информация: если писать контексту "Теперь она в образе Венеры эпохи Возрождения. Предстаёт натурщицей перед художником. Фотореализм! Сохрани позу/причёску/фон неизменными.", то он раз из пяти выдаёт средненькие нюдесы.
>>1285227 >>1285232 я хз что изменилось но оно заработало. все файлы вае т5 клип_л те же, модель та же, настройки в Settings вообще не трогал, настройки генерации вроде бы те же - семплер еулер, шедулер нормал, кфг 3.5 и 3.5, и теперь вместо мутного рандома генерит уже что-то похожее на промпт но выходит кал, NoobAI лучше
Имеет ли смысл пытаться вкатываться в Illustrious/NoobAI и учиться промтить под них, если я очень люблю западную 2д / 2.5д рисовку (InCase, Asura, Xinaelle, redpandawaifu), но при этом аниме меня совсем не интересует? Или лучше дальше на файнтюнах Пони сидеть? Меня вроде всё более-менее устраивает как есть, но я слышал что IL/Noob гораздо лучше умеет в анатомию - руки, предметы в руках, позы... Это правда? И если я не хочу анимешности и хочу держаться больше западной рисовки - это будет тяжело сделать в рамках IL/Noob моделей?
>>1285222 Анон, ты даже не представляешь насколько она качественно может генерить прон, любой, причем такую детализацию может бахнуть что я даже у бывшей жены с лупой бы настолько качественно не увидел. Поработав как следует с хромой и поняв дзен того как она промптится я нахуй поудалял все пони из моделей, а последние хромы настолько хорошо в позы научились что похоже и люстры мои скоро уедут в dev null
Кто-нибудь пробовал это? Чел уверяет что это лучше контекста. Очень смелое заявление для чего-то о чем скорее всего забудут через неделю: https://www.youtube.com/watch?v=dHdjjwWzrjM
>>1285984 Там сейчас каждую неделю что-то лучше контексат выходит: то blip3, то omnigen2, то xverse, то hyperlora, теперь вот E1. Суть омнимоделей в том, что там бесконечное количество применений, и уверен, для каждой из этих моделей найдётся сценарий, где она выигрывает. Это и хорошо, пусть развиваются. Конкретно E1 даже по рекламным картинкам видно, что не умеет вертеть сцену, только инпейнт.
>>1285925 Dot nose в негатив и убогое аниме гасится. Но этим не ограничивайся, он хорошо работает с (medium) тегами. С тех пор как перешёл, пони включать нет никакого желания.
>>1285928 >поняв дзен того как она промптится Расскажи хромо-промоутер ещё с 17х версий
>>1285722 и че сука характерно, была выложена именно картинка, на которую был попрошен и получен воркфло, после чего шизло высралось парой десятков постов без картинок на тему, как плохо что лашпичники срут постами без картинок. и с тех пор тред вернулся в дефолтное состояние пиздежа типа "я промптер хромы 80-го лвла и докажу это тысячей слов, без единой картинки, естественно", что как-бы намекает на истинные цели этого >>1285655 шизла
>>1286397 На некоторых настройках даже за 4 шага уже нормально делает. 8 оптимально. CFG 1, разумеется. >>1286425 >берёт пять фломастеров в руки, несколько часов бездумно хуярит по бумаге >не получает нужный плакат >КАГ ДАТА НАЧНУТ ВЫПУСКАТЬ ХАРОШИЕ КАРАНДАШИ Я ТО ВСЁ ДЕЛАЮ ПРАВИЛЬНО
>>1286528 > предлагает новую модель > она делает хуже старой > это ты фломастерами не умеешь пользоваться > а я вам щас расскажу, как я фломастерами хорошо пользуюсь, но не покажу
>>1286550 Ты сам не видишь, что у тебя пережарка ебейшая? Я че, блядь, создатель и профессионал, который знает лучшие параметры нейронных сетей в хуй знает каких архитектурах и конфигурациях в первые минуты использования? За 3 года уже пора бы привыкнуть, что это ты криворукое ебланище, если модель тебе выдает хуиту. Исключение: Stable Diffusion. В этом случае, криворукие ебланы на разрабах.
>>1286557 > пережарка ебейшая Кстати да, на 41 хроме её нет на тех же параметрах, а на 46 - есть на буквально настройках со страницы на хаге. Но ты же долбоеб, который её даже не трогал, но точно знаешь (потому что авторитетные источники так сказали), что СД - кривое говно, хрома - заебись, а в сд треде сидят криворучки, и надо им всем обязательно об этом сообщить.
>1286557 >это ты криворукое ебланище, если модель тебе выдает хуиту. Исключение: Stable Diffusion. В этом случае, криворукие ебланы на разрабах земля тебе пухом, братишка
>>1286945 shot from behind, a big ass milf in a loose flower dress, 50 years old, leaning forward, she is mopping the floor, the scene takes place in living room of a soviet apartment, there is a sofa and a cupboard with glass doors in the background
>>1286957 Любой стиль на фото по вкусу. Эпик, которому похуй на большинство того, что написать в стиле. На той пикче: polaroid photograph {prompt} . 35mm photograph, film, professional, 4k, sharp focus, highly detailed
>>1287233 > разглядывает пиксели на чужих картинках, вместо того, чтобы генерить свои > постит тредшоты, вместо того, чтобы постить свои генерации это уже какая стадия сд-шизы?
>>1287270 В крайней степени сочно. Хрен с ними, с бабами, но эти полы, эти серванты - вы только посмотрите как свет падает на полки на 4-ом пике - прям будто в детство вернулся. Это какая модель такой кайф выдаёт?
как же жопа горит с уебанского цивитая, где вот такой кривой кал, где кривое все - руки, нос, глаза, поза и общая анатомия, - получает с каких-то хуев под сотню лайков, пока мои выдроченные шедевры нахуй никому не нужны и хорошо если один "смех 😁" получат в удачный день
>>1287313 А что не так? Красотища же. Честно, я на проебы обратил внимание только через минуту. Цвета очень приятные, персонаж известный. А ноунейм бабу я никогда не лайкну, тем более если это ещё и реализм, в который никто не умеет, кроме парочки флакс юзеров.
Почему вместо упрощения и доступности всё только усложняется? В начале была 1.5 которая понимала буквально "епты бабу мне дай нахуй стендинг с большой жопой", теперь у нас хрома где нужно докторскую по худ райтингу защитить чтобы промпты на ней писать.
>>1287339 Размерность текста в кучу раз раз меньше, чем размерность изображения, даже латентного. Потому, чем сложнее ты изображение хочешь рисовать - тем сложнее текстовые конструкции надо собирать. Будущее за омнимоделями. Ты там напишешь "вот эту бабу с фотки 1 поставь в позу как на фотке 2" и больше никаких портянок.
>>1287339 Потому что 1.5 не могла нихуя кроме того чтобы баб генерировать, а если нужно генерировать что-то особенное, то пиши это, епта, модель не экстрасенс чтоб твои мысли читать. Если не нравится базовый стилистический фантюн модели и хочешь чтобы из коробки по промпту "собака" модель тебе ебашила золотистого ретривера эффекто бегущего в слоу-мо по полю изумрудной травы с эффектом боке и прорисованными волосами на анусе, то используй ИИ энхансеры промпта.
>>1287349 Не, уже есть генераторы промпта. Просто надо в компфи модель на 2б и ноду где быстренько пишешь че хочешь и тебе переводит в нейроновский язык
>>1287356 > 1.5 не могла нихуя кроме того чтобы баб генерировать Странно. Почему тогда во времена 1.5 в треде было катастрофически больше разнообразия?
>>1287377 Также никто не виноват что ты отсталым родился и оскорбляешь всех подряд без повода. Но благо люди с трехзначным айкью могут понять, что кроме нейропорна существует обычное, а генерацию можно юзать для реализации своих идей, а не просто для того чтобы передернуть.
>>1287371 > одни кумеры ебанутые Как это влияет на то, что ты отказываешься постить сюда, что-то кроме текста? Правилами треда не запрещено постить не баб.
>>1287387 >>1287389 Это было без непреднамеренно и без желания оскорбить. Извиняюсь если задел чьи-то чувства. Для меня лично это не выглядит оскорблением, как "импотент", но понимаемо, простите.
>>1287359 Да есть. Но понимаение текстового промта всё равно ограничено. Оно никогда не сможет вобрать в себя столько информации, сколько есть в исходной картинке.
>>1287394 Ебанутые - однозначное оскорбление, импотент - медицинский термин, который может быть использован, как оскобление. > Для меня лично это не выглядит оскорблением Может в этом вся и проблема? Попробуй относиться к другим так, как тебе хотелось бы, чтобы относились к тебе.
>>1285955 Согласен, лор очень много, но когда я в каком-нибудь файнтюне Пони подрубаю лоры западных художников - стиль имитируется ОЧЕНЬ близко к оригиналу, в Illustrious чуть-чуть похуже. "Похуже" - не в том плане что качество самой генерации хуже - нет, на самом деле я прям порадовался тому насколько лучше Il делает руки и предметы - а особенно предметы в руках - похуже - в палне что не так точно имитирует стиль. Но скорее всего это просто я еще не до конца разобрался, потому что вот совет >>1286114 мне очень даже помог! >Dot nose в негатив и убогое аниме гасится Спасибо! Стало рил лучше. Я еще попробовал "anime" в негатив добавить, стало как будто еще лучше (в смысле, ближе к западному стилю), но ощущения что это на цвета картинки немного негативно влияет. Но может быть мне просто кажется. >он хорошо работает с (medium) тегами. А можешь пожалуйста поподробнее на этот счет? Что за (medium) теги? Я пытался гуглить, но на слово "medium" находить столько мусора, что полезной инфы я так и не смог среди этого отрыть.
>>1287447 Ну вот, наконец-то я вижу что то отличное от дженерик-ебла портрет-хуйни, тут уже лица похожи на живых людей а не биороботов. Это чекпоинт или лора?
>>1287263 >У него прекрасная генерация. Ты просто завидуешь. Ты слепой? Тут баба совсем нереалистично на фоне комнаты выглядит, как будто её фотошопом вставили и потом заинпейнтили
>>1287468 >опять таблетки принять забыл? Теперь понятно почему у вас в треде единицы кто генерит нормально, вы критику на ваш нейромусор абсолютно не воспринимаете.
>>1285519 ужс. комфи это визуальное программирование, и когда ты ограничен в кубиках, получается вот такая байда, где половину всего пространства занимают элементарные вещи, вроде прокидывания переменных и математических операций. лучше бы посидел с гопотой, разобрался в кастом нодах и накидал свои для своих задач, тогда бы не пришлось заниматься вот этой херней и выглядело бы прилично.
Не понял я этой флэш хромы 46й. Пережарка либо блур даже на самых рекомендованых cfg, а если выкручивать в единицу то начинаются постоянные косяки с анатомией. Сижу дальше на обычной, в целом всё в ней устраивает. Подумал может мужики там что то интересное выкатили, а они чёт увлеклись этими "dmd" версиями в ущерб удобству.
>>1287646 ты не разбираешься. почитай тред хоть. в том, что хрома 46 хуже старой хромы виноваты криворукие разработчики сд, выше экперт прямым текстом всё по полочкам разложил
>>1287450 >А можешь пожалуйста поподробнее на этот счет? Что за (medium) теги? Это когда ты в промт добавляешь painting \(medium\), именно с таким синтаксисом, или photo \(medium\), или ещё что-то. Подобные тэги теоретически должны дать понять нейронке, что ты именно такой вид искусства хочешь использовать. А не просто нарисовать картину на стене.
не подскажете, какие нейронки хорошо правдоподобно рисуют мужские эрегированные писюны, через инпэйнтинг или так, в общем, с хорошей насмотренностью в этом и экспертизой?
>>1288653 > риcовать один объект? Приблизь соотношение сторон к квадрату, например. > дура рисует КАРАНДАШИ Смени модель. Даже надроченный на фотки эпик выдает скетч по твоему промпту.
>>1288658 Вроде получилось >Pencil Sketch Drawing of wheel, rubber tire, huge tire, futuristic, tech, rough, white background
С инпутом, где есть однородный цвет, он справляется лучше, чем lineart препроцессор. С лайнартом начинает вставлять спицы. С img2img та же фигня, лайнарт наотрез отказывается воспринимать, а вот когда рисуешь цветовые пятна, то все видит.
>>1288685 Ну значит модель меняй. У тебя всё равно вайт бэкграунд нихуя не вайт. Попробуй еще что-нибудь типа Pencil Sketch Drawing, dragster Wheel, huge tire, white background
>>1288689 >У тебя всё равно вайт бэкграунд нихуя не вайт. Это из-за лоры под скетч. А еще какая-то странная вещь, например я пишу промпт "off road tire" и я вижу, как протекторы стали более грубыми, потом удаляю промпт, а оно как будто в памяти остается и продолжает рисовать протекторы в том же стиле.
Я это еще заметил с карандашами. Я убрал из промпта все что касается карандашей, даже стиль, а нейросеть продолжала рисовать карандаши.
>>1288711 Какой же я сукадебил. Короче, комфи стремится оптимизировать ресурсы и не всегда их перезагружает, и если загрузилось изображение в память один раз, а оно не изменилось, то оно не будет считываться с диска заново.
Я загруженное изображение пихаю в пайплайн, попутно кадрируя, пихая в семплер, а далее сгенерированную картинку пихаю туда же, перезаписывая данные входящего изображения.
При следующей генерации, комфи не загружает изображение заново и не перезаписывает данные пайплайна (на что я надеялся). В итоге сгенерированная картинка становится новым инпутом, на основе которого работает контрол нет.
Я удаляю слова из промпта, типа карандашей, но эти карандаши уже отпечатались в предыдущей генерации. В итоге я не понимаю откуда карандаши взялись, потому что их нет в промпте.
Ох ебать. Кроме того, при каждой итерации у меня увеличивается детализация. Когда я заменяю входное изображение, все резетится и детализация резко проседает, у меня начинается шиза и я начинаю шатать параметры не понимая в чем дело. Мдаааааааа ...
>>1289230 > что бы мы без тебя сладенького делали) не знали бы какой микроскопический уровень скилла нужно превзойти, чтобы вызвать лютую бешеную зависть у главного трясуна нейрача?
Хули у меня такой кал получается по тому промпту с реддита? У вас получается точно так же, как у него? Если да, то покажите настройки. Желательно, на киджаевских нодах.
>>1289691 Можете посоветовать модели для моего случая? Я предпочитаю иметь возможность переводить текст описания в промпт для модели, потому что собираюсь генерировать специфичные и сложные изображения, для которых писать промпт самостоятельно мне тяжело.
>>1289705 У меня был такой сетап еще когда был в моде автоматик и SD1.5 Но даже тогда все работало со скрипом, я уже даже не помню какие параметры выставлял. И оперативы было гигов 16, но основная проблема была в видюхе, если в нее не лезло, то получал ошибку.
Только ЛЛМ модели могут перераспределять нагрузку на оперативку, но там время генерации ответа улетало в бесконечность. В итоге смысла особого в этом не было т.к. бесплатная веб-версия работала быстрее и запоминала больше.
>>1289705 >Я предпочитаю иметь возможность переводить текст описания в промпт для модели, потому что собираюсь генерировать специфичные и сложные изображения, для которых писать промпт самостоятельно мне тяжело.
Современные модели и так умеют понимать человеческий язык, и порой работают хуже, чем с промптом.
>>1289683 >почему ты тупо не используешь его воркфлоу? Питорчпидарасы+комфипидарас всё сломали и на свежих версиях клип выдает (или выдавал) ошибку на нативных нодах, лень всё переустанавливать, откат даёт новые ошибки. На киджае всё работает. >Нахуя? Он их не под t2i собирал. Так я и генерирую обычно i2v.
Пороллил ещё, выпало похожее на его контент. За счёт размытия качество поднялось. Без рандомного размытия выходит кал как на второй пикче.
>>1289841 Неблохо, (открытую коробку конфет забыл), с удовольствием посмотрел бы на то, как Скарлет по бырику отблагодарила ухажера прям там, на кухне. Заходи сюда: https://2ch.hk/nf/res/28619.html , хоть будет с кем попиздеть)
>>1289922 >>1289877 >Что за магия, ты как русскую надпись сделал? >какая модель? Ладно, я больше не буду, всё таки это тред локальной генерации. Это последняя модель от гугл, она может писать русский текст
>>1290332 Я не знаю, что ты там подумал, но если я правильно подумал, что ты там подумал, то то, что ты подумал сгенерить легче, чем то, что я хотел сгеренить.
>>1290420 Короче покрутил этот воркфлоу. Ставлю length на 1 - получается такая хуйня, ставлю как было 81, более менее норм, но генерится видео и генерится крайне долго, а мне нужна чисто картинка.
>>1290509 Охуенно пояснил. Там походу баг разработчиков ноды, что они длину приравняли к шагам, потому что с предыдущей версией wan там есть другая нода и она работает как надо с длиной 1, но там нельзя референс фотки вставить.
Можно конечно лору натренить, и это именно так я делал и с флуксом
>>1290795 Так у меня и получилось. Но во первых мне нужно фото, а воркфлоу под видео (без возможности поменять, а ждать 10 минут что бы потом кропнуть 1 кадр не вариант), а во вторых мыльная cartoon параша. Вообще по моим тестам wan прям четко понимает анатомию, по сравнению со флуксом, но более реалистичные изображения дает флукс, особенно с лорами
VAELoader Error(s) in loading state_dict for WanVAE: size mismatch for encoder.conv1.weight: copying a param with shape torch.Size([160, 12, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([96, 3, 3, 3, 3]). size mismatch for encoder.conv1.bias: copying a param with shape torch.Size([160]) from checkpoint, the shape in current model is torch.Size([96]). size mismatch for encoder.middle.0.residual.0.gamma: copying a param with shape torch.Size([640, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for encoder.middle.0.residual.2.weight: copying a param with shape torch.Size([640, 640, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for encoder.middle.0.residual.2.bias: copying a param with shape torch.Size([640]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for encoder.middle.0.residual.3.gamma: copying a param with shape torch.Size([640, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for encoder.middle.0.residual.6.weight: copying a param with shape torch.Size([640, 640, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for encoder.middle.0.residual.6.bias: copying a param with shape torch.Size([640]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for encoder.middle.1.norm.gamma: copying a param with shape torch.Size([640, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1]). size mismatch for encoder.middle.1.to_qkv.weight: copying a param with shape torch.Size([1920, 640, 1, 1]) from checkpoint, the shape in current model is torch.Size([1152, 384, 1, 1]). size mismatch for encoder.middle.1.to_qkv.bias: copying a param with shape torch.Size([1920]) from checkpoint, the shape in current model is torch.Size([1152]). size mismatch for encoder.middle.1.proj.weight: copying a param with shape torch.Size([640, 640, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 384, 1, 1]). size mismatch for encoder.middle.1.proj.bias: copying a param with shape torch.Size([640]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for encoder.middle.2.residual.0.gamma: copying a param with shape torch.Size([640, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for encoder.middle.2.residual.2.weight: copying a param with shape torch.Size([640, 640, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for encoder.middle.2.residual.2.bias: copying a param with shape torch.Size([640]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for encoder.middle.2.residual.3.gamma: copying a param with shape torch.Size([640, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for encoder.middle.2.residual.6.weight: copying a param with shape torch.Size([640, 640, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for encoder.middle.2.residual.6.bias: copying a param with shape torch.Size([640]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for encoder.head.0.gamma: copying a param with shape torch.Size([640, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for encoder.head.2.weight: copying a param with shape torch.Size([96, 640, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([32, 384, 3, 3, 3]). size mismatch for encoder.head.2.bias: copying a param with shape torch.Size([96]) from checkpoint, the shape in current model is torch.Size([32]). size mismatch for conv1.weight: copying a param with shape torch.Size([96, 96, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([32, 32, 1, 1, 1]). size mismatch for conv1.bias: copying a param with shape torch.Size([96]) from checkpoint, the shape in current model is torch.Size([32]). size mismatch for conv2.weight: copying a param with shape torch.Size([48, 48, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([16, 16, 1, 1, 1]). size mismatch for conv2.bias: copying a param with shape torch.Size([48]) from checkpoint, the shape in current model is torch.Size([16]). size mismatch for decoder.conv1.weight: copying a param with shape torch.Size([1024, 48, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 16, 3, 3, 3]). size mismatch for decoder.conv1.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.middle.0.residual.0.gamma: copying a param with shape torch.Size([1024, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for decoder.middle.0.residual.2.weight: copying a param with shape torch.Size([1024, 1024, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for decoder.middle.0.residual.2.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.middle.0.residual.3.gamma: copying a param with shape torch.Size([1024, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for decoder.middle.0.residual.6.weight: copying a param with shape torch.Size([1024, 1024, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for decoder.middle.0.residual.6.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.middle.1.norm.gamma: copying a param with shape torch.Size([1024, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1]). size mismatch for decoder.middle.1.to_qkv.weight: copying a param with shape torch.Size([3072, 1024, 1, 1]) from checkpoint, the shape in current model is torch.Size([1152, 384, 1, 1]). size mismatch for decoder.middle.1.to_qkv.bias: copying a param with shape torch.Size([3072]) from checkpoint, the shape in current model is torch.Size([1152]). size mismatch for decoder.middle.1.proj.weight: copying a param with shape torch.Size([1024, 1024, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 384, 1, 1]). size mismatch for decoder.middle.1.proj.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.middle.2.residual.0.gamma: copying a param with shape torch.Size([1024, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for decoder.middle.2.residual.2.weight: copying a param with shape torch.Size([1024, 1024, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for decoder.middle.2.residual.2.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.middle.2.residual.3.gamma: copying a param with shape torch.Size([1024, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([384, 1, 1, 1]). size mismatch for decoder.middle.2.residual.6.weight: copying a param with shape torch.Size([1024, 1024, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([384, 384, 3, 3, 3]). size mismatch for decoder.middle.2.residual.6.bias: copying a param with shape torch.Size([1024]) from checkpoint, the shape in current model is torch.Size([384]). size mismatch for decoder.head.0.gamma: copying a param with shape torch.Size([256, 1, 1, 1]) from checkpoint, the shape in current model is torch.Size([96, 1, 1, 1]). size mismatch for decoder.head.2.weight: copying a param with shape torch.Size([12, 256, 3, 3, 3]) from checkpoint, the shape in current model is torch.Size([3, 96, 3, 3, 3]). size mismatch for decoder.head.2.bias: copying a param with shape torch.Size([12]) from checkpoint, the shape in current model is torch.Size([3]).
>>1291262 хуйли тебе долбаёбу пояснять, когда тебе на пальцах показывают как считать до пяти, а ты тупарь вместо того, чтобы научиться считать, пиздишь что ногти не стрижены?
>>1291312 Не пробовал, но судя по тому, что в прошлом (или этом) треде выкладывали, он таки остальное трогает. Или его просто не правильно использовали?
>>1291357 А можешь саму пикчу 1152х1536 выложить, а не крохотное превью. А то не понятно же нихуя, что там изменилось, а что нет, но выглядит зашакаленным по сравнению с оригиналом.
>>1291357 >>1291372 А еще лучше вот сюда на написать что-нибудь или купола на лобок набить, а то что-то мне хуеву тучу гигов качать и воркфлоу собирать ради одной проверки как-то не оче.
добавлять татухи можно ещё в СДХЛ инпеинтом если че в буковки большинство свежих моделей умеет прекрасно, особенно если ты буквально ничего кроме буковок в промте не просишь
>>1290807 >Скоро прикроют лавочку онлайн генерации Это хрома, ты же видишь что надписи не русские. Лицо понятное дело инпейнт. Как ты посмел подумать, что я это всё одним кликом сделал.
>>1291732 > никто тебе тут ничего не должен Я на двач прихожу за всем новым, то есть по идее, когда я прихожу всё новое должно уже быть здесь. Раз я за новым прихожу, очевидно, я новое не делаю. Нет. Я прихожу его и беру. Раз я сюда прихожу за новым - десятилетиями, явно кто-то новое тут десятилетиями делает. Очевидно - это ты, и раз оно тут должно быть, то априори - ты должен. Так что давай, не лекнись и не отлынивай, не перекладывай своб ответственность на меня.
>>1291869 analog photograph of a cat in a stripped red and black sweater sitting on a carpet and watching a tube tv, on the tv screen is a cartoon pig riding a tractor, the scene takes place in a soviet apartment . 70 mm Hasselblad, 35mm medium speed Ektachrome film, natural colors, highly detailed
Впрочем, без пладиса лучше получается, слишком он багованый.
>>1291452 >Из 15 роллов 4, и те хуйня. Наконец то, хотя-бы один случай адекватности! >>1291681 Аааа - не, похоже рано похвалил) Что с рукой? Она должна опираться локтём о сидушку дивана, но вместо этого он висит в воздухе, а рука похожа на клешню богомола, переделывай, копродел.
>>1291610 Аргумент остаётся, локальные модели лучше потому что их никто не может у тебя отобрать и ничего с ними не случится даже если Голливуд засудит создателей моделей. Что будет когда Дисней выйграет суд над Миджорни и использует это против Гугла?
Короче. — 5b для картинок кал — чисто low noise ван 2.2 практически индетичен ван 2.1 — res 2s + bong tangent сильно лучше euler beta, но в 2 раза медленнее — high noise + low noise для картинок отличается только композицией, не всегда в лучшую сторону — high noise euler beta + low noise res 2s получается лучше чем с euler и одной моделью и быстрее чем только res 2s
>>1289873 Посмотрите на этого долбаеба, который кичится возможностями закрытого Imagen 4 показывая как ему приходится обходить фильтр чтобы сгенерить Скарлет Йоханссон.
В чем толк, если сейчас тупо упоминание ее в промпте приводит к блокировке генерации. То, что ты можешь генерить ее написав промт на русском ещё ничего не значит, гугл тоже закроет эту возможность как только догадаются что их фильтр не работает на другие языки (ну и я помогу конечно же им написав это в их поддержку )
>>1292080 >Посмотрите на этого долбаеба, который кичится возможностями закрытого Imagen 4 показывая как ему приходится обходить фильтр чтобы сгенерить Скарлет Йоханссон. А ты забавный, даже смешной, мне это нравится. Что ещё расскажешь?
>>1292273 Ахахахахахха, найс тряска, я даже в свой акк не заходил чтобы там генерить, кого ты банить собрался? Корп акк гугла? И к твоему сведению, там абсолютно всем юзерам доступны настройки фильтров, и те кто генерит в вертексе, сами решают нужно ли им генерить селебов или нет. Гугл этого не запрещает. Бля в голос ору с идиота.
>>1292072 > ван На него лоры уже тренить можно? Просто выглядит как глоток свежего воздуха после года застоя, но хочется иметь возможность добавлять какие-то свои стили...
>>1292919 Для всего юзкейс найдётся: Ван — хорошее понимание промпта даже на русском, физ модель точно лучше всех, минимальное количество поломанной анатомии. но кроме фотореализма особо ничего не может Хрома — самая разнообразная по стилям, может почти что угодно. мне понравилась, но медленная. ждём нунчаку Флюкс — лор много, всякие контексты и адаптеры есть, с нунчаку быстрее sdxl генерит По 3.5 правда не помню, даже 10 генов не сделал, как помню
>>1292981 Картинко-тред уже давно для меряния пипи миллирдами параметров - если параметров много - это хорошо, чем больше, тем лучше. Но есть нюанс. Почти ни у кого нет железа на эти параметры, потому картинко-тред теперь для текстового меряния пипи, но так как доказать свою точку зрения железо не позволяет, то получается обычное перекидывание какахами. Сдохля - исключение, т.к. её можно крутить на тостере, поэтому её ненавидят любители помериться параметрами и юзкейса для нее не находят.
>>1293004 Ты не прав, когда сдохлю стали ебать тюнами, то очень многое незаметно проебали. Хрома и Опендалле - на одном уровне по художественности, опендалле - тюн сдохли и его можно крутить на тостере. Просто в треде не знают нормальных моделей.
>>1293018 >А вот тут можно было и тоньше. Ты хуйню не пиши, манемедмдклоун. Опенндале. Январь 2024. Ты походу даже не догоняешь что речь про тюн сидиксель.
>>1293004 >уже давно для меряния миллирдами параметров А мне наоборот интересно колупать стоковую хромку, исследовать её возможности, нащупывать границы. Даже в лоурезе. Прост потому что это приключение и поиск вширь, когда фотореализм - это унылое копание вглубь.
Все такие умные в треде. Один знает таинственные модели, которые никто не знает, при этом не хочет делиться. Другой копает вширь, но даже не обмолвится о принципах поиска.
Но сдается мне, эта пиздаболия окутана тремя слоями тайны только для того, чтобы быть весомой в спорах, ну или как минимум оставляет владельца тайны чувствовать иллюзию превосходства.
>>1293057 > исследовать её возможности, нащупывать границы Ну если интересно, то почему бы и нет. А так-то еще не все границы ХЛ нащупали. Некоторые думают, что на каждую мелочь нужна отдельная лора, например, тогда как дохуя всего на большинстве моделей, достигается обычным промптом. Или понакачают себе всяких сайберлистиков, а потом думают что все тюны - перетрен. Ну и как бы желание щупать вширь, не объясняет того, что треды скатились в тексто-срачи и скоро картинок в картинко-треде будет в два раза меньше, чем постов, да и те тредшоты.
>>1292080 >В чем толк, если сейчас тупо упоминание ее в промпте приводит к блокировке генерации. Чё несешь, ебанутый? Они сами фильтры сняли и тестят модель.
>>1292070 >Что будет когда Дисней выйграет суд над Миджорни и использует это против Гугла? Гугл накинет нойза и будет фейр юз. Суно уже так сделал на коверы. К тому же нет никакой дисней/пиксаровской стилистики. Копирайт распространяется только на персонажей. Выпилить определенные сочетания и не выдавать тебе мини-маус в определенной одежде и т.д. - это можно даже щас.
>>1293119 Я конечно понимаю, что вопрос может показаться тупым, но я полгода в тред не заходил и нихуя про эти хромы/флаксы не шарю. Какой гайденс? CFG 7 дает пик1, FluxGuidance 7 дает пик2.
Говно этот ван, без контролнета рисует что взбредет. А контролнет только vace, а под него только генерация видео, а не картинки. Чем заменить? Неужели дрочить дальше флукс?
>>1293241 Это местный обиженный жизнью клоун чудит. Пытается доказать кому-то (в основном себе), что локальные модели нинужны!! А все из-за того, что нет денег на видеокарту.
>>1293410 >>1293241 Как же криворучкам обидно, что они не могут запромптить хрому. Ничего, на старте поникала вы так же нули и генерили >>1293134 вот это.
Хрома по ощущениям очень хороша, но никак не выходит побороть неприятный рандом, одновременно с фотографичными результатами выдает пластик или нечто уровня semi-real. Поделитесь, как вы этой херни избегаете?
>>1293854 >но никак не выходит побороть неприятный рандом >Поделитесь, как вы этой херни избегаете? Ты видимо новенький. Я на флюксе с год генерю или когда там турбофлюх первый вышел. Отвечу коротко: никак. Это особенность самого флюкса.
>>1287307 Эта тупая срань даже близко не делает как в фордже. Тем более на настройках с пикрила. Кто-то пользуется чем-то получше? Или комфи - говно без задач без внятных результатов?
А что за фигня в новом ван2.2? Разделено на основу и рефайн? Что за хай/лоу нойз? Я на ван2.1 генерил с лорами ускорялками. Попробовал их на 2.2 и что-то борода какая-то. Есть официальное воркфлоу для лор ускорялок?
>>1294808 И опять в примерах дефолтные портреты ебал, ну как же это бесит, почему все эти сддауны выкладывая свои модели, в пример показывают этот кал говна, который генерился ещё 3 года назад на полторахе?
>>1294808 Убогий кал. Это раз. Никакого "более реалистично" там нет. Вся суть в том что она генерит с шума показывая сразу, поэтому креа (отсылка на креа.аи). Пользы от куска говна - ноль. Художников нихуя не знает, выдрочена на стоковом кале. Ище и с цензурой. Понимает промпт хуже хромы в разы. А хрома, на секундочку - васянство. Последнее - хрома. Там я вижу эстетику и художественный стиль.
>>1295380 Контекст норм. Вот одним промтом, только что сделал за несколько секунд. Тех. качество плохое, но свет норм и прочее. В фш я бы долго мучался, пытаясь нарисовать этот свет на ее лице.