Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
Мне ваш реализм в прошлом треде не нравится. Смотрите, как легко чел без пост-пердолинга делает. https://civitai.com/user/Danrisi/images Раз такое дело, тоже попробовал его лору на ван и жидко пукнув, обмяк. Походу, надо без light юзать и не на euler-beta. Да и шум надо применять как-то грамотно по маске глубины и яркости.
Не хочет эта блядь заводиться. FaceID Plus v2. Ругается, что нет Clip Vision. Да я их сука положил туда, переименовал. Всё равно. Залупа ебучая. Анончик, которого я спрашивал в прошлом треде, скинь названия своих клип_виженов?
Аноны, какие модельки сейчас почёте для nsfw? Последний раз генерировал что-то год назад где-то с lustify вроде бы и big asp, а это был sdxl. А как дела сейчас обстоят?
>>1330791 Flux с undressing лорой заебок, WAN2.2, но видео. Ну qwen image, жду когда выкатят NSFW лору для qwen image edit, но мне интересно со знакомыми бабами, а так просто не вставляет. Да на чём хочешь ебашь, всего хватает чтобы надрочиться.
>>1330769 > без возможности выбора вручную Есть, но не рекомендую. Unified Loader для реюза удобнее. Конкретно для faceid plus v2 из клипвиженов нужен только CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors.
Похоже уперся либо в лимит того, что qwen способен переварить, либо в 1 cfg. an attractive happy young adult woman in a short yellow strapless dress sitting on a pile of potatoes with her straight legs apart exposing her red and black stripped panties, potato field and industrial zone behind it in the background, in the foreground directly in front of the woman there is a marching band of rats dressed in Scottish kilts walking by and playing various tiny musical instruments including but not limited to drums and trumpets and bagpipes, to the left of the woman is a pterodactyl in a top hat standing on one leg and holding a grocery bag with a logo depicting Belorussian flag and text 'Батька inc.', and on the right side behind the woman there is a happy piglet driving in a red tractor
>>1330800 Поделись, пожалуйста, своим конфигом для face_id. У меня пока что мордовки какие то ебучие получаются. Какие веса используешь, что в самом IPadapter прописано, в семплере, молю!
Вообще, я всегда пользовался InstantID, вот там работает, но всё равно это не похоже на нормальный результат.
>>1330851 Одной вполне достаточно для большинства ситуаций. В FaceID 3 могут улучшить результат, особенно если нужно повернуть голову промптом. В IPAdapter в большинстве случаев только одну.
>>1330799 Есть образец что и как именно писать этому рваному контексу? Я ему теги, он мне хуй. Я ему сказочную портянку, он только волосы перекрашивает. Че ему надо-то блять?
>>1330871 Я в прошлом треде писал, что у Flux есть особенность, что он делает только то, что ты просишь. А Qwen переёбывает всё изображение, так что осторожнее.
Что будет если я попытаюсь запустить 15гб модель на карте 8гб? Чего ожидать? Она не сгорит, не взорвется, комп не зависнет намертво? Придется лишь ждать два часа одной картинки 1024х1024? Боюсь нажимать запуск.
>>1330875 Примерно это: >[drm:nv_drm_gem_alloc_nvkms_memory_ioctl [nvidia_drm]] ERROR [nvidia-drm] [GPU ID 0x00000100] Failed to allocate NVKMS memory for GEM object >Out of memory: Killed process 280216 (python)
>>1330921 Если будете юзать qwen, то никочайти Qwen_Image_Edit-Q4_0.gguf Это залупа полная. На реддите тоже с такой хуйнёй столкнулись, лучше взять Qwen_Image_Edit-Q4_K_M.gguf или K_S Вот только K_M весит 13.1 GB, а VRAM у меня всего 12 GB. Ща посмотрим, ёбана, как работать буит.
>>1330950 >столетняя тухлая видеокарта, которая новой в принципе не существует во вселенной, что бы ни писал ИП АШОТ >смотрит на Яндексе за 130, а не на Авито за 50 Ну гений, че
>>1330943 Лучше взять fp8 в safetesors. Да, файл громадный кажется по сравнению с доступным VRAM. Вот только ошибки OOM не будет, если у соmfy стоит параметр хотя бы --medvram. А работает оно, несмотря на такой огромный offload, все равно быстрее чем gguf-ы. Даже в третьем кванте.
Сейчас gguf нужен тем, у кого даже просто RAM нету для offload. Тем, у кого ее ~16GB. У кого 32 и более - берите fp8, и будет вам счастье.
Да, блин. Пишу прямым текстом - это именно для тех, у кого 12GB vram. Лично проверено (у самого 3060). Разница между fp8 и gguf - - не в пользу последнего, ни по качеству ни по скорости.
Тогда вопросики: 1. Берем Q3 fp8? Или можно побольше взять? У меня 32 GB RAM. 2. Как работает --medvram? Шо он будет делать? Сливать в RAM? 3. А text encoder оставляем gguf? Там же похер? Как у тебя самого? Сейчас.
И сорри за кучу вопросов, но просто заинтриговал.
В целом у меня сейчас хорошо работает моделька q4_K_M, vram грузит на 94%. Пропали ебучие артефакты на qwen. Даже повторюсь - не берите Q4_0!
>>1330993 >1. Берем Q3 fp8? Или можно побольше взять? У меня 32 GB RAM. FP8 - это просто qwen_image_edit_fp8_e4m3fn.safetensors - оно уже квантовано в 8бит, но не так как gguf. Других нету (и не нужно). Это, кстати, касается и flux c chroma - они тоже лучше без gguf, и тоже работают так.
>2. Как работает --medvram? Шо он будет делать? Сливать в RAM? Да. Но это все равно быстрее, чем GGUF. Даже на моем i5-8400 c ddr4.
>>1330993 >3. А text encoder оставляем gguf? Там же похер? Можно и оставить. Но fp8 safetesors будет быстрее и промпт-процессинг.
Локальщики, поделитесь актуальной базой, какую модель сейчас лучше всего использовать для генерации реалистичных изображений? Сам очень давно ничего не генерировал, наверное со времен первого стейбла, так что можете считать меня совсем нулевым. Имею 12 кило видеопамяти и 32 оперативной. Интересует и SFW и NSFW (не полноценная порнуха, а скорее эротика, но шобы бабулеху можно было полностью раздеть и ну всё там нормально у нее было без артефактов)
>>1330999 Короче, получилось вот как: Я юзал только модель fp8, не трогал text encoders. FP8 модель долго загружалась в VRAM, потом в RAM, подготовка длительная. Промпты исполняются за 1.43-1.47 минут. Изображение сочнее и точнее, всё таки с деталями, которые больше подходят к референсному изображению. GGUF быстро впихнулся в VRAM и сгенерировался за 1:35. Пикча была худовата. Можно сказать так, что когда ты видишь только gguf генерацию, то тебя она вполне устроит, но если ты включишь FP8, то она будет немного лучше. А сравнивал я Q4_K_M и fp8_e4m3fn. Конечно, лучше будет вторая, но она помедленнее будет всё равно.
Может быть, конечно, есть вариант, взять GGUF модель какую-нибудь Q8 и глянуть.. Интересно стало.
>>1331034 Сравнивать скорость надо по второй генерации, когда все модели уже в памяти (обычной). У меня она занимает 60-70 секунд на стандартном workflow из темплейтов comfy (там уже есть для qwen-edit) с 4-шаговой лорой. Правда, если все модели целиком в память не лезут - подгрузка, конечно, будет есть время...
>>1331035 qwen, что image, что edit, это пока не про фотореализм, IMHO. А вот стилизация под различный art - это у него хорошо выходит. Плакаты, pin-up, аниме, classic oil painting by... Вот это все. При попытке в симуляцию фото, основная беда у него даже не с персонажами, а с задниками. Картинка-картинкой, почти всегда.
Вчера 40 минут одну фотку генерил, охуел от такой скорости. А потом смотрю, а там конфиги на 50 шагов по дефолту стоят. Проперделся с этого. Подключил лору на 4 шага - рабочий варик
>>1331178 >Wan сейчас нет общей модели, любители порно Ван 22 следует промпту и там порно може напромптить. Но для этого нужны руки. Единственное. при минете может иногда хуй откусить, как мороженку. Но это только в 2 случаях из 5.
>>1331236 Чтобы UnifiedLoader правильно работал всё должно лежать в указанных https://github.com/cubiq/ComfyUI_IPAdapter_plus?tab=readme-ov-file#installation местах и с указанными именами. Конкретно для того воркфлоу нужно: models/clip_vision/CLIP-ViT-H-14-laion2B-s32B-b79K.safetensors models/ipadapter/ip-adapter-faceid-plusv2_sdxl.bin models/loras/ip-adapter-faceid-plusv2_sdxl_lora.safetensors models/ipadapter/ip-adapter-plus-face_sdxl_vit-h.safetensors
Ебать, я думал это шизики пишут, а оказывается 48-dc реально всегда генерит лучше HD v1 или v2. Выходит то же самое, но чуть меньше проебов. Сравнивал на пикчах от 1 до 2+ мгп, на клоунах, с лоу степ лорами и без. https://huggingface.co/silveroxides/Chroma-Misc-Models/tree/main
>>1331259 Так результат или конфиг и промт. Для результата используешь Save Image ноду (или Save Video). Чтобы посмотреть конфиг, перетаскиваешь сгенерированную ранее картинку в конфи и всё загружается.
>>1331267 А нет такого чтобы всё сохранялось автоматом? Например, в процессе я могу сотни пикч сделать, но потом мне нужно вернуться и глянуть как и что я делал раньше.
охуеть, в удивительное время мы живём, можно быть тупой пустоголовой болванкой и получить от карманного прогера что хочешь без рекламы и смс за наносек... Если кому надо http://pastie.org/p/4guLUeIxqBf8fXZ0GKo0od
>>1331297 > можно быть тупой пустоголовой болванкой Секрет в этом. Когда ты тупой, ты не хочешь ничего уникального и нового. А старое миллион раз сделанное нейронка может.
>>1331326 содомит >>1331361 это скорей из области: не очень-то и надо было, но раз можешь дать - давай, но быстро, а если нет - иди на хуй, т.к. время на просьбу кого-то или тратить время на мелочи не хочется И тут нейронка заебись в этой нише
>>1331374 во-во, я о том и пишу рад за комбайнёров, которые придя домой могут написать стих своей 5й дочке для домашке, рождённой из-за маткапа, т.к. жена тупая доярка тоже, но и она теперь может решить уравнения своему 4му сыну
>>1331297 Чел, будь ещё немного гением: сделай тоже самое, но чтобы сохраняло в формате jpg. Я когда-то пытался, но там запара какая-то была с конвертированием и я бросил.
>>1331424 хм, хоть я и юзал сохранение в вебп через ноду с анимацией, но так будет прощё, согласен держи анонче http://pastie.org/p/6ucRc9JHsEdVjGpzyWKowP тестанул, меты нет, сохраняет в джпег, он правда изменение сжатия ещё запилил хз работает ли а вообще https://chat.deepseek.com/ если что, там впн не нужен, всё бесплатно
>>1331047 Да, там потом ускорилась, но пропорционально первой генерации. И заметил, что на какую-то генерацию может уйти 3 минуты, вот только не понял, из-за чего. Разрешение, на первый взгляд.
>>1331297 Никогда ещё ворфлоу, сгенерированное гопотой или дипсиком, не заработало. Просто хуита-мешанина при загрузке, всё переёбано и нет связей между нодами. Если получилось что-то, то я очень удивлен.
Народ, а вы вот что ищете в генерациях? Вот чисто для себя. Я вот ищу сходство с реальностью, чтоб бабы, сгенерированные мною, были похожи как на настоящих. Настоящих отношений я больше не хочу, мозгоёбства. А тут ты вроде как повелитель фоток, делаешь что хочешь с ними. Типа, как воля к власти, что ли. А ещё эскапизм, я сьёбываюсь от реальности, генерируя всякую хуйню.
>>1331508 >А у вас что, аноны? Развод лохов на бабло, думающих что я хуйдожник и рисую на заказ. Портфолио во всяких пиксивах и т.п. пруфаю, а долбоёбы верят. Видел ту рекламу в телеге - пМУЖЧИНКИ ПРИШЛИТЕ ФОТО ЖЕНЫ И ПРОФЕССИ АНАЛЬНЫЕ ХУЙДОЖНИКИ НАПИШУТ ЕЁ портрет за 2 дня - это тоже я. мимо 500к бачей/наносек
>>1331534 рад, что 6 лет обучения в универе на программиста моё умение логиниться в дипсик и 1 минута потраченная на написание в неё запроса принесли кому-то пользу
>>1331508 А я ищу недоступный реальности уровень эстетики. И дешёвый дофамин. Ну и да, возможность хоть чуть реализовывать фантазии.
>>1331514 Удивительно количество быдла, покупающего эту срань. Не потому что вообще нейронки срань выдают, а потому что часто срань рекламируют и делают самым ленивым путём.
>>1331559 он коротконожку делает не специально, а пытаясь вместить ноги в кадр. Ищи противоречия в промпте.
>>1331559 То, что он делает при околоквадратных пикчах, это болезнь полторах и первых тюнов сдохли, поэтому существуют стандарты на разрешение для генерации и авторы тюнов обычно указывают кол-во сурсов в датасете с каким оно разрешением. Попробуй генерить в разршении сдохлей, я хз. У флюса например база это любые пропорции в пределах 2048х2048 а тут походу скорей всего он запиливался под вайдскрины смартфонов и минимум 16:9 разрешение и выше. Тренился на кадрах китайских фильмах это я жопой чую.
>>1331563 >он коротконожку делает не специально, а пытаясь вместить ноги в кадр. Ищи противоречия в промпте. Не, это не случается, когда персонаж уже с длинными ногами в оригинальной картинке, получается так только тогда, когда ноги персонажа не были показаны модельке, как тут >>1331458 Тут у мема никогда не было ног и ему приходится придумывать самому и он стремится в короткие мультяшные ноги.
>>1331565 >стандарты на разрешение для генерации и авторы тюнов обычно указывают кол-во сурсов в датасете с каким оно разрешением Ну так Qwen Image так не делает, только Qwen Image Edit Разрешение и там и там нативное для всей семейки Qwen - 1056x1584
>>1331563 >эстетики Это очень важно, кстати. Но у меня не было никогда такого, прям ВАУ ЕБАТЬ.
Хотя, но отходя от эстетики, первый раз я ахуел от нейросетей, когда впервые facefusion-ом фейссвапнул порноактриссу с лицом моей знакомой. Вот тут я ахуел. А потом понеслось.. Пока лучшие варианты сходства держатся за WAN. Потом, похуже, qwen image edit (он, сука, может ВМЕСТИТЬ НОГИ В КАДР, в отличие от kontext), потом уже kontext, как тупо редактор определенной области. А потом уже SDXL. А другие как-то обошли меня стороной вещи. Что вот ещё интересного попробовать? Чёт Chroma меня не вставила пока. Да и с редакторами контекста поинтереснее мне играться. Но ту дрожь я никогда не забуду, когда я впервые ахуел от нейросетей, лол. У тебя в голове взрывается фейерверк от понимания, что ты любую хуйню можешь рисовать при должном умении.
>>1331639 Да, на родном языке писать куда удобнее. Но вот какие-то тонкие понятия на русском хуже ловит. А комбинированный промпт хоть и умеет, но не рекомендуют.
В принципе, учитывая, что модель заточена на естественный язык, можно чатботами переводить.
А это самое. Вот по той ссылке гоняешь? Как у неё с кожей? Така же хуйня? Пластилин ебучий? И сиськи важны ещё, на мультиконцептуальной лоре всё время огромные сиськи. А мне такие не нужны.
>>1331651 Прикол у Квена ещё в том, что хотя бы на типовых жестах довольно редко или малозаметно портит руки. Отсев картинок идёт по содержанию, а не как со сдохлей 90% сразу на удаление из-за рук. В итоге скорость генерации на одну пригодную картинку выше, несмотря на то что скорость генерации 1й картинки в разы ниже. Хотя с лайтнинг логой и в батче 40 секунд на картинку даже на моей несвежей 3060х12
>>1331654 Да, вот именно её гоняю. А другой и нет пока.
Кожу по умолчанию может мылить. Но если просить реализм, фото, натуральную, то лучше всё это. При реализме пытается в оволосение и пушок даже без просьб.
По размеру сиськи любые естественных типовых размеров точно делает. Но для мелких нужно иногда указывать нелегальные тэги, как и у других моделей тесная связка понятий. Если девушка полная, то плюс к размеру груди, если фотография эротическая — ещё плюс.
>>1331696 да нахуя фотошоп? Хоть Fire alpaca, хоть команду для imagemagic Хоть напрямую блядь в комфи склей, он умеет! Нужна нода для определения размера картинки. Большую под меньшую по высоте подогнал, сдвинул вторую на размер первой. Всё.
Я даж уверен, есть онлайн-хуйня для этого. Возлагать чисто механическую алгоритмическую задачу на нейронку это ебануться же!
>>1331742 >>1331752 Вообще да, видел как люди делают с лорами и без лор тоже промпты на моментальный свап чего-то в картинке, к примеру баба моментально переносится куда-то и занимает какую-то позу. Потом вытаскивают последний кадр и типа получается эдит. Но это еще более костыльный вариант чем склейка двух картинок для едита и контекста.
>>1331758 Ну, можно выбрать более квантизированную версию модели, если выгрузка происходит из-за недостатка памяти. А так вообще Комфи не должен выгружать модель, если она уже помещается, может только если ты меняешь промпт и для текстового энкодера не хватает, по этому приходится выгружать. Текстовый энкодер тоже можно выбрать fp8 вместо fp16 к примеру.
>>1331752 Не понятно, что ты имеешь в виду, но через маску можно зафиксировать лицо и другие части фото, подключить лору на раздевание и сделать или видео инпейнт, или даже сразу описать голой и сгенерить только первый кадр. >>1331742 Ещё есть какой-то васянский киджаевский flow-edit, который вроде так и должен работать, но хуй знает это реализовано, учитывая, что это просто код, а не отдельная модель. >>1331761 >костыльный вариант Зато у чистого ван одно из лучших сохранений лица.
Конечно, это всё не одной кнопкой, как вы тут привыкли, сначала надо смастерить воркфлоу.
>>1331759 >ну так а нахуя тогда НЕЙРОНКА которая склеивает? Нет нейронки которая склейвает, где ты ее видишь блеать? В воркфлоу встроены инструменты на основе Комфи, чтобы не вылезать никуда из окна комфи, когда нужно две картинки запихнуть в модель как одну.
>>1331761 Может действительно слишком большая, хз. У меня почти забита 32Гб оперативки и перед каждой генерацией видно как модель заливается в видеопамять (24Гб).
>>1331762 >через маску Можно поподробнее, как указать модели работать с маской?
>>1331797 Color bleeding же, тот самый, не побежденный. Можно попробовать по сложности сначала сделать два объекта (персонажа) потом результат склеить с другой картинкой и уже с ней попросить следующее действие. Если модель уже не справляется со сложностью.
>>1331811 Один перс, но в разной одежде. Модель просто забивает на часть запроса
>>1331827 Ну не протекание, а скорее она просто не понимает что делать с персом. Если взять двух разных, то лучше (пикрил). Но если я хочу сделать ее в одежде клоуна, то она уже путается и просто пихает клоуна на картинку
>>1331797 Неправильно делаешь. Если персов два - они в промпте должны быть подчеркнуто разными, иначе по дефолту модель сделает их близнецами. Т.е. так и пиши - "Первая девушка ... сидит слева. Вторая девушка ... сидит справа." Где вместо ... важные детали внешности, для каждой свои. Для каждой - отдельное предложение, и обязательно "маркер" - первая/вторая, или можно им условные имена дать - Ира/Юля. Тогда детали практически не перетекают с одной на другую. Ну, и общие детали тоже отдельным предложением.
Вот сматри. Я беру с Алика Nvidia Tesla P40 24 Гб за 10к рублей. Видео выход из процесса. Норм? Какие подводные кроме шансов, что карта будет отоженная майнингом? Технически это выполнимо для генерации нейросетей?
>>1332110 >CMP90HX Это грязь из-под ногтей, у нее специально вырезаны не только тензорные ядра, но и блоки вычислений с плавающей точкой. Она может только майнить. Вроде текстовые додики чет с ней еще могут, но не уверен. >>1332119 >K80 Это вообще кеплер, 2012 год, пирожок. Абсолютная немощь, а чтобы еще веселее было - это две видеокарты на одной плате, каждая с 12 памяти. А что там у нас с генерацией картинок? Правильно, она не работает на нескольких GPU. Хотя, кстати, то ли ван то ли квен вроде может чот такое, пробовал кто? Короче опять мимо. >>1332124 >Tesla P40 Это паскаль, причем очень хилый по производительности на фоне обычных видеокарт, им текстовые додики достоверно пользуются, для генерации картинок явно не годится, если ты не согласен час ждать. Производительность паскалей сойдет максимум для SDXL со слезами и DMD лорой, 24 гигабайта памяти тебе ничего не дадут.
Думал систему наебать ? А хуй тебе, ты один что ли такой умный. Никаких хмдденгемов не существует.
>>1332141 Чего ты подгорел-то? Это не варианты разумиста или даже нищука, согласного подождать, это мусор, который продается по цене мусора, потому что это мусор. Ну, и ,кстати, первая ни разу не для нищих - дичайший оверпрайс при ПОЛНОЙ бесполезности, а P40 за 10к он не купит, потому что это классика GPT хуйни и очень востребованна.
>>1332142 Хуйню не советуйте человеку, ебонаты. Все СMP без тензорных ядер если не хуже, в генерации они не лучше паскалей. Если так, то пусть p104 покупает - то же самое, только в 3 раза дешевле.
>>1332139 >Думал систему наебать ? А хуй тебе, ты один что ли такой умный Спасибо за ответ. Так как наебать систему? Неужели единственной вариант это брать, по средствам, 3090-> 4090 -> 5090 тупо смотреть где больше врам?
>>1332124 Обладатель Теслы Р40 репортинг. Брал для текстовых нейронок, и там всё ещё работает сносно, но и для изображений... Короче смотри сам. Производительность для SDXL, лоурез 832х1216 - 1.8-2.3 сек/шаг Апскейл предыдущего разрешения в 1,5 раз - 3.5 сек/шаг. Я ещё андервольтинг делал для охлада, без него чуть быстрее будет.
Такие дела. Должен быть уровень примерно 1080 по производительности.
>>1332139 >если ты не согласен час ждать По факту 2 мин/пикча на SDXL с апскейлом, 3-4 Мин - Флюкс в оригинале. Да, не быстро, но и не час.
>>1332148 Никак. Пользоваться квантами. Зачем тебе врам, кстати? Ты кокнретно знаешь или только предполагаешь? Если что, то владельцы 5090 тоже на самом деле попуски-нищуки без памяти, пользующиеся лоботомированными моделями. Тот же Ван, например в официальном мануале минимум на 80 гигабайтах предлагают запускать.
>>1332154 >Зачем тебе врам, кстати? >>1332153 >1.8-2.3 сек/шаг У меня 3050 с 8Г врам около 1сек\шаг. Теперь ясно, что менять на Р40 особо смысла нет. Использую фп8 так как все гуфы медленнее.
Анончики. Вот уже неделю, пытаюсь вкатиться в генерацию анимации в WAN через Google Colab Есть тут такие же ебанутые? По идеи вариант неплохой, бесплатные ресурсы, памяти 15 гигов, уж пережатая GGUF версия 14В должна залезть подумал я... Но хуй там, памяти вроде даже хватает, но всё отваливается на одном из этапов. То ругается на отсутствие sageattention, то вылетает без каких-либо ошибок на этапе загрузки VAE. Как же я заебался...
У кого-нибудь получалось поднять анимацию на колабе? Какие воркфлоу - модели юзаете?
>>1332174 film still from 80s b-movie, a spaceship engulfed in flames performing a reentry over the amazon river . faded film, desaturated, 35 mm motion picture Ektachrome film stock, soft glare, cold colors, highly detailed
>>1332286 В Wan 2.2 динамика лучше, как будто-бы highnoise делает анатомию и позицию тел более сложными. В принципе лоры между моделями шерятся. lownoise модель это почти то же что и обычная Wan 2.1 модель.
>>1332398 qwen >>1332418 > Что можно еще улучшить Чтобы с одним нажатием "Поехали" - хуй знает, наверно ничего больше из XL не выжать. Вручную - проинпейнтить косяки, ебануть суперсэмпл - 2х апскейл с tile контролнетом и даунскейл в оригинальное разрешение, и опять инпейнт, если что-то поломалось.
Представьте локальный инпаинт. Вот например я делаю инпаинт глаз или лица целиком и я вижу, что шаги инференса идут через всё разрешение картинки, а должно затрагивать только область инпаинта. Иначе никак не повысить качество деталей в больших картинках. Желательно без лишних нод. Только встроенными можно это сделать? Как автоматически кропать область инпаинта, ну вы понимаете. Спасибо.
Объясните, что за нвттё про мыло вечное? Это же ахуеть как неважно. Важна идея, концепция, композиция, которая зацепит глаз. А детали потом апскейл наращивает. А сверху ещё шуму.
Поможет ли прорисовка текстуры кожи сломанным пальцам? Нихуя.
>>1332498 Есть готовые пайплайны. Для примера можешь взять фэйсдеталер. Он кропает лицо а потом вставляет. То же и с маской. Но область надо брать всё равно с запасом.
>>1332502 >идея, концепция Говнище, нахуй ненужное. Если это не выглядит реалистично, мне похуй на твою шизу. Вот сверху как раз яркий пример такой фантазии. Даже сломанный палец будет круто смотреться, если он будет выглядеть реалистично. Апскейл и шум это коуп для слепых и тупых. Если на обычном получился кал, это не исправить. Поэтому дмдодики с апскейлом выглядят вдвойне смешно.
>>1332500 Она слабее 1060. Эта карта имеет смысл для бедных инженеров и работе в САПР. Для генерации картинок будет иметь смысл только если нужно модель просто запустить и не хватает ни 8 ни 16, а денег нет.
>>1332512детализация -- это не реалистичность ещё. Реалистичность есть и в общем, в цветах, в свете.
То есть ты предпочтёшь очередное ебало очередной реалистичной тёлки вместо свежего фантастического сюжета в комиксовой рисовке? Ну тогда смотри фотографии и не выёбуйся. Генерация не для тебя пока что.
>>1332516 >комиксовой рисовке Ну, вот, сразу слился в тематику другого треда. >детализация -- это не реалистичность Нахуй ты мне это пишешь, я про детали ничего не написал. >очередное ебало очередной реалистичной тёлки вместо свежего фантастического сюжета Безусловно. Даже генерация куска плеча лучше шизовысера фантастодебила без вкуса. Потому что у реалистичного плеча есть вес - человек знает как генерировать хорошо. А фантастохуйню любой имбецил может высрать. Все криворукие ебланы пытаются коупить сюжетом и делают от этого ещё более убогий кал. Ты сначала инструментом овладей нахуй, а потом уже генерь что-то сложное. У тебя (не у тебя конкретно) же нулевой скилл, нулевое понимание теории, куда ты лезешь.
ух ты. вниманиеблядь наконец нашла себе собеседника. интересно, на сколько его хватит слушать про скилл, да про кал, и про теорию скилла и кала, прежде чем ньюфаг пошлет вниманиеблядь нахуй
А где-нибудь есть прям, блядь, мануал по qwen? Что-б блядь как Руководство администратора, лол Или хоть по одной нейросетке. А то тыкаешься просто как чмоня туда-сюда. Экспериментируешь. ну хотя это тоже неплохо
>>1332512 >Если это не выглядит реалистично Ну вот херoта из шапки типa реалистичнaя,но что тoлку от рeализма, если всё равно выглядит как кaл из фoтoжoпa?
>>1332600 >>1332609 проблема реалистик моделей в том, что они в итоге не умеют в ничего кроме девушка, стоит/сидит/сосет член.
Тут мы оцениваем модели по тому, могут они нарисовать что-либо сложное, к примеру плакат на котором девушка жанглирует пистолетами, в то время как ее держит на одной ноге перевернутый сверху вниз слон.
Помню два года назад, парень несущий девушку на своих руках казалось просто невозможной сценой для локальных нейронок.
А чо, я один такой умный, что нахаляву генерю в рандомных(один минус) моделях без логина, регистрации и смс? А много так можно сгенерить, кто знает? Цензура есть, но..халява же? https://lmarena.ai/
>>1332605 > image edit же А чтобы ничего не менялось тебе нужен инпейнт, который оставляет оригинальные пиксели, как есть и меняет только то, что под маской.
>>1332628 >рандомных Нахуя? Рероллить, ждать когда попадется норм модель, учитывая что там куча устаревших говномоделей есть. Плюс ты тупо рандомишь еще и свой промпт, так как модели по разному реагируют и имеют собственные особенности синтаксиса промпта. Плюс еще среда абсолютно не стабильная, погыгышить можно, но потом к чему возвращаться что можно там настроить? То есть вообще нет контроля
>>1332624 >проблема реалистик моделей Это проблема просто плохих моделей. Закрытые модели почему-то во всё умеют. Ну и новые модели с лорами не такие плохие, с ними можно приблизиться к реализму.
>>1332651 > Закрытые модели почему-то во всё умеют кроме генерации картинок( ты же не стал бы сидеть тут и выплескивать свою накопившуюся обиду, если бы в онлайн-треде были аноны, не так ли?
Шок, давно не чекал что тут вышло, юзал сдохлю и разные пони залупы с лорами, когда учился. Щас Квены, Флахи, Шнели, Ваня… дайте базу, кому не в падлу, что из этого огонь сча? Поставил какую-то скрещенную Flux с Crea и еще чем-то, вроде норм, но генерит долго по дефолту, секунд 200+. Ну и нсфв не оч воркает, в основном титю запалить может, если дальше в открытый сэкс то начинается какая-то пизда с текстурами. Шпасибо за понимание, мимоходом был.
>>1332671 Нет. Пока она переводит весь пик в латент, она его не заменит. Edit - это img2img с возможностью сохранять часть картинки близко к оригиналу и сильно изменять другую часть. Инпейнт - это про другое.
>>1332677 Да вопрос не только в Проне, это я просто на тест взял. В целом интересно с чем щас можно интересно по-генерить. Пока только въехал что контекст хорошо инпейнтит)
Можно ли как-то контролировать движение по продолжительности?
Сейчас я могу поставить ключевые кадры на примерно нужном месте в списке из 81 фреймов. Но Сетка все равно буджет делать движения слишком резкими или ломанными
>>1332699 Чел, у тебя же есть комфи. Закинь через лоадер оригинал и то, что ты считаешь не изменненным, и кинь их в Image Comparer (rgthree). Ну или просто посмотри на разрешение, если тебе это о чем-то говорит.
>>1331636 >чтобы она скомпоновала это в страницы комикса? Где-то вот так наверное.
>>1332699 Да не перерисовывает он, просто это результат того, что картинка энкодируется в латенту и декодируется обратно, так всегда будет если не брать отрезки картинки из оригинала. Можно комбинировать вроде Qwen Edit с инпейтнингом, чтобы Qwen Edit работал только по области инпейнта.
Обновился сейчас до последней комфи v0.3.52 и он начал обрываться на этапе загрузки клипа. Просто в консольке пишет всё, пауза, только выход. Установил с нуля ту же версию и тоже самое поведение. Поставил v0.3.49 с загашников и всё норм. Держу в курсе, если кто столкнётся. Никаких ошибок в консольке чтобы загуглить нет.
>>1332677 Все порно видео, которые есть на Wan можно повторить и для txt2img, вот примеры. Слева txt2vid справа txt2img по такому же промпту, просто нужно переделать ворклоу с видео на картинку как тут >>1332281 Поэтому нет - для порно все таки вышло и есть серьезный прогресс, так как Wan хорош в анатомию.
>>1332748 Кажись последний торч увеличивает потребление VRAM или какая-то другая ошибка заставляет грузить все модели долго, сам пересел обратно на pytorch 2.7.1
>>1332685 Ну квен и квен эдит вполне интересные модели, с лайтнинг лорой и батчем на 4—8 картинок получается вполне быстро.
А ещё прикол, что если не менять сид, а лишь немного менять промпт, то картинки очень стабильные, как из одной серии. Удобно делать серийные картинки. Вот например. Это не квен-эдит, это отдельные генерации с одним ключом, где изменилась только цифра в запросе.
Болезни те же: слипание понятий, отказ работы со сложными детализированными запросами, автоприоритет понятиям, которые указаны первыми или шире расписаны. Например если описал детально лицо, откажется рисовать ростовой портрет, будет стремиться к крупному плану.
Ну и если нет какой-то концепции, то всё идёт по пизде. Например квен даже с сиськолорой не смог нарисовать мне девушку, снимающую трусы. Потому что концепция голого тела в лоре есть а позы такой нет.
>>1332756 потому что все хуй кладут на прописывание тегов и заголовков руками. А автоматика такой тэг не ставит. Более того она не ставит тэг персонажа даже.
Кстати, если вы меняете промпт немного в чате квена, то он молча использует модель Edit. Вчера я сгенерил штук 20 и ещё штук 20 в утиль ушло. Только после этого он мне сказал «лимит исчерпан, подождите 2 часа». А так заебись халява.
Имею GTX 1650S и 16гб озу. Можно ли что-нибудь поставить адекватное? Задача: генерация картинок с конкретной тян, уклон в реализм. Без цензуры, вообще.
>>1332826 Всё перебрал. Всё хуйня. qwen чуть-чуть делает чё я и ты хотим, FLUX kontext тупо раздевает, ван видео генерирует. Уот така хуйня! Ну, более менее работает InstantID на SDXL, ipadapter faceid v2 наверное тоже, но у меня хуйня получается. Надо кстати опять попробовать поразбираться с аноновским воркфлоу..
>>1332826 Посоветовал бы забить хуй на генерацию и дрочить инпейнт, но в свете всяких рванов контексов и прочих ымаге ыдит это уже неактуально. Впрочем я старовер, живу масками, поэтому пох.
>>1332839 а ты эсдээкселишь с рефайнером? Или это апскейл такой?
>>1332836 Ну они были надёжные, а не то что эта залупа. Но сё таки за что полюбил квен, что я могу в промпте сунуть чё угодно, и подцепит ебло человечка нужного, и он попытается с его еблетом сгенерировать.
>>1332870 Да, таггер выдает только теги, но хотя бы не дает отсебятины, которую приходится вычищать
Я вспомнил что еще можно через gpt тегать, надо попробовать с новой версией, пока она бесплатная. Хотя хз есть ли там апи, а то сотню картинок рыками пихать как-то запарно
Сгенерьте этот промпт в хроме или еще где. У меня лапки. The photograph shows a woman from a low-angle perspective, focusing on her exposed genital area and thighs. She is wearing a floral dress with a dark blue base color, adorned with small red and white flowers. The dress is lifted up, revealing her shaved vulva and inner thighs. Her skin tone is fair, and she has long brown hair partially visible at the top of the frame. The background consists of green leaves and tree branches, indicating an outdoor setting. The lighting is natural, suggesting that it's taken during daylight hours. The image has a slightly grainy texture, which may be due to the camera resolution or post-processing effects. The framing emphasizes the woman's lower body, with her face mostly out of the shot, adding a sense of anonymity. The perspective and angle create a provocative and intimate view, highlighting the contrast between the delicate fabric of the dress and her bare skin. The photograph has a candid, almost voyeuristic feel, capturing a private moment in a public space.
>>1332883 >в хроме >у меня лапки и не только у тебя. основное преимущество хромы в том, что её адепты предпочитают говорить о её преимуществах, а генерации с сивитаи таскать
>>1332787 данный промпт оказался отличным тестом, показывающим, в чём лайтнинг-лора уступает. Крупная цифра и там и там ок. А вот мелкие примитивы совсем не те. они гораздо лучше без лайтнинга и с 20 шагами.
>>1332883 заходишь сюда и генеришь. в шакальном разрешении, для представления и тренировки достаточно. https://perchance.org/ai-character-generator я только хз какая версия там хромы, есть подозрение что последняя
>>1332883 Лол и тупо ни одного ответа с хромой. >>1332981 JoyCaption похоже пишет. >>1332909 В чём проблема перегенерить с цивита? Алсо показывал как можно альтернативно генерить за 10 шагов или даже ниже. Модель ебущая. Просто лично я надеялся на охуенную дистилляцию от самого автора, а не обоссаный бесполезный флеш. Ну и он каждый час заливает какие-то апдейты, готовит Radiance версию.
>>1333024 > В чём проблема перегенерить с цивита? Тут кажется в прошлом треде анон говорил, что хрома от любой хуйни, типа лишней запятой, сыпется и это признак кривых рук пользователя, который не знает, в каком месте ставить запятые. Но если лишний нейтрино, попавший в трансформаторную будку за три 3км от пользователя, заставляет хрому косплеить сд1.4, то может это и есть причина, по которой нет ни одного ответа с хромой. Может анон с хромой уже 4-й час пытается нароллить пизду с растущую не из подбородка. На цивите-то всё уже нароллили за него.
Так, господа. Кажется я нашёл трюк с Квеном. Написал разного по внешности, кого генерить — максимум по середину бедра генерит. Если писать типа «в кадре видны колени» — нейронке плевать. Но стоит добавить условие типа «под левым коленом маленькая родинка», то есть мелкую деталь, и квен наконец решает, что надо хотя бы колено показать, раз чототам описано.
При этом не особо катят такие вещи, как «румянец на коленях» или «накачаные загорелые голени». Нужна именно какая-то деталюшка, похоже.
Буду тестировать.
>>1332957 а ты зачем льёшь картинки без контекста? Ещё и часть несвязная, сломаная.
>>1333319 >не обоссали - ноет >не триггернулись на жирный байт - ноет >написали, что насрано не хромой, но не тегнули - ноет Мне заебалось ебать твой рот, остальные говноеды
Пытаюсь создать подобие пленочных фотокамер. Насколько они похожи? Замыливания быть не должно, шум должен зависеть от освещения. точки должны быть рандомными, свет должен быть мягким, не такая высокая контрастность. Чатджпт пишет, что ему сложно однозначно сказать, нейронка или нет
>>1333501 Могу еще посоветовать особую модель "апскейлера" х1 который делает очень качественно зерно фотопленки на картинку. Не тупой шум, как в фотошопах. Вот, для примера две картинки до и после. Рассмотри их прям внимательно на предмет плёночного зерна. Кому надо те заметят отличие.
Воркфлоу в картинке. Натвиз дмд фулл-хд за 12 шагов. Всё, как мы любим? На шизо промпт не обращайте внимания - это случайно получилось так и решил оставить.
>>1333664 >На 4степс лоре совсем пиздец же будет, не? Надо попробовать, но в примере и так пропускают 50% шагов из 40 (20), так что хз может и можно половину из 4 шагов пропустить.
>>1333501 >>1333503 А я пытаюсь воссоздать эффект видеотрансляции на хуевую вебку. Получается так себе... Пирлы генерил на жидосервисе с лимитами и лучше этого не находил ничего... У тебя прикольно выходит. Пали конфиги
На 4 шагах скип одного шага дает вот такое говно как на первой картинке На 8 шагах скип двух шагов (33% ускроение) дает норм как на второй картинке На 8 шагах скип трех шагов (60% ускорение) дает снова говно.
В общем вот, с лорами, если сидишь на 8 шагах еще можно использовать ускорение. Только хз, может с другими настройками можно как-то вызвать скип специфичных шагов, но я использовал вот эти.
>>1333501 пока похоже на нейронку. Дело в морщинах ритмичных например. Плёнка разной была. Я снимал на 4хслойную, кажется Конику. Вот там охуенно градиенты света ловились, никакой деградации пятнами. Снимал облака, воду, всякое с тонкими градиентами. так что наверное тебе стоит указывать класс фотиков и плёнки для ясности.
>>1333796 Укажи проблемы с кожей. Слишком ухоженные безволосые ножки для нищенки. Чистые ногти. Ноги ещё и с ровным загаром. Просто чуть грязненькие. НЕ ВЕРЮ! Улица хорошая. Но она не бедная. Прост асфальт старый. Нищенские улицы засраны, на стенах графитти, кучи мусора, крыса там дохлая.
Кстати то же самое и с ботинками. Они старые, но за ними хорошо ухаживали, они сделаны из хорошей кожи. Они целые. Только юбка ок. Свитеру нужны затянутые петли, прожжёное пятно, чуть потянутая нитка на рукаве. Пока что всё это бутафория и реквизит.
>>1333693 Че-то я попробовал настройки с пик4 на 8steps, и нихуя разницы по времени не ощутил. В конце написало EasyCache - skipped 1/8 steps (1.14x speedup). У тебя 2 шага написало? 1 - с кешем, 2 - без. >>1333836 Улица-то как раз самая обычная. Ни разу бездомных не видел на ухоженных улицах? А ботинки только вчера в помойке нашла нужного размера. Не придирайся.
>>1333673 >>1333693 Кажется я нашел как можно скипать до 3-х шагов из 8-ми без полной потери качества достигая 60% ускорения только на этапе семлинга.
Сначала попробовал LazyCache с этими настройками и заработало (пик 2). Такие же настройки на EasyCache дали гораздо худший результат (пик 3), что говорит о том, что на этих настройках LazyCache может быть лучше чем EasyCache
>>1333547 Когда дорвался до аутпейнта, но выбрал самые ебанутые варики, а она все равно как была скрюченной бабой в коробке, так и осталась) Ты если так любишь генерить своим натвисом-хуятвимом, можешь просто сделать один степ нормальной sdxl-ной моделью, а потом подставляй его на остальные 9, дай хотя-бы один шанс сформировать композицию нормально, чтобы сверху и снизу воздух был, блядь, и она не была вечно скрюченной, как знак вопроса. Прикинь, можно ещё и вверх аутпейнтить, если что...
Не трогал эту всю хуйню со времен выхода сдхл. Сидел тогда на а1111. Накатил комфи, решил побаловаться с модным флюксом. Около получаса разбирался почему эта хуйня не робит. Оказалось в итоге, что клипы/вае надо скачивать самому. Потом сидел пердел с блюпринтами и ещё кучу времени пытался разобраться какого хуя не генерит. На выходе оказалось, что эта ебала модель выгружает в память по ебаных 10 минут. А потом строчит как пулемет. В конечном итоге качество генерации было на уровне обычного диффужена двухгодовой давности. Это что за наебалово?
>>1334147 >В конечном итоге качество генерации было на уровне обычного диффужена двухгодовой давности. согласен, тоже вот понаделал подобного говна, велкам ту криворукий_говнодел клаб, бадди
>>1334084 ты просто пока еще не замечаешь, что идеограм на самом деле просто вставляет лицо в картинку, всегда под тем же наклоном что и оригинал, в итоге выглядит как будто-бы фотошопом вставили. А ты попробуй, когда лицо даешь под углом, чтобы оно сделала положение сгенерированного лица прямо смотрящим в камеру, не будет такого.
>>1334123 средний дезайнер за такой кал попросит от 40 до 80 долларов кста, а квен делает за бесплатно, еще можно сколько угодно раз рероллить, а дизайнер тебе даст макс 4 наброска из которых ты выбираешь один и потом еще 3 варианта на основе него, в общем очень ограничено все у живых людей.
>>1333968 >Что насчет Хромы и Квин? Хрома это искусственно раздутый ожиотаж, который сработал потому, что его дорого ждали. Выкладывали версии пощупать и было создано ощущение, что в конце что-то будет дельное. Если бы хрома вышла просто конечным последним файлом, то ее бы заметили, попробовали и плюнув пошли дальше. А сейчас многие не могут на нее плюнуть, типа зря ждал что ли. Медленная, кривая, не голодная. Квин же создан только для текста. Для текста и только для текста, всё. Убери текст из Квина и он не нужен. Топ это Ван, Флюк Креа, Флюкс Шнель.
Как некоторые могут уже знать, использование res_2s сэмплера и bong_tangent шэдулера может значительно улучшить результаты на Qwen и Wan за счет сильной потери скорости (почти в два раза).
Как я понимаю, на самом деле res_2s тупо делает двойной (тройной?) сэмплинг вместо заданного количества шагов, по этому на самом деле их больше.
Если использовать следующие настройки ЛэзиКэша с res_2s то можно и скупинуть половину всех шагов даже на 4 шагах, то есть скипнуть 2 из 4 шагов на Квен (потенциально и на Wan).
Пик 2 результат со скипом 2 из 4 шагов на res_2s Пик 3 результат без скипа каких либо шагов на 4 шагах с res_2s Пик 4 результат без res_2s и без скипа на euler/simple (если добавит на euler какой-либо скип на 4 шагах то выйдет говно)
4 шага за 2 на дефолтном сэмплере НАХУЙ
Аноним28/08/25 Чтв 16:13:45№1334542470
>>1334526 Фон не подходит для экспериментов. Используй примерно такой: "фотография девушки в полный рост в белом сарафане с розовыми цветками на сарафане, девушка стоит босиком на траве в лесу. Вокруг нее видны стволы сосновых деревьев. " В общем рисунок на платье, пальцы на ногах, сама девушка, кора сосновых деревьев и трава дадут представление о качестве генерации.
>>1334553 Да, но это будет почти то же самое что 4 шага на euler думаю, хотя может и нет, хер знает сколько реально res2s бонг добавляет скрытых шагов.
>>1334726 > Qwen на русском плохо пишет. Лайфхуцк. Если в слове есть английские буковы, пишешь их, больше шансов что нормально сгенерирует. И разумеется все капсом.
>>1334526 >за счет сильной потери скорости (почти в два раза) А нахера ты используешь 2s когда надо использовать 2m без потери скорости и идентичным результатом? Потому что рандомный хер с цивитай так написал?
Кто генерировал т2и на Квин едит? Как он? Я помню пробовал генерировать на флюкс контексте, но там ещё более зацензуреная модель, чем простой флюкс. Не пригоден. А как дело у Квин Эдит т2и?
>>1334787 Смотри, Qwen Image Edit это просто ретрейн Qwen Image, поэтому использовать его вместо Qwen Image не имеет смыслка, когда есть чистый t2i генератор построенный на идентичной архитектуре.
Но если тебе интересно, Qwen Image Edit спокойно не ограничивает себя заданной картиной, ты можешь как поменять картинку, так и использовать объект в картинке чтобы сделать новую картинку, при этом на совсем другом разрешении с другим соотношением сторон.
Вот примеры, оригинал запихнутый в Qwen Edit - результат
>>1334814 Держи лучше весь воркфлоу, вообще там res2s bong_tangent был на той картинке, но его реально долго ждать, поэтому скидываю наиболее оптимальный вариант с которым можно экспериментировать.
Генерю на 4 шагах ради скорости, но если анатомия начинает сыпаться, поставь хотя-бы 8 шагов, с ними и euler норм выдает результат.
Если полный Wan 2.2 слишком много для тебя, то попробуй просто на lownoise модели прогнать, убрав highnoise и переподключив ноды.
>>1334867 >>1334869 Никакой. Картинки и видео не скейлятся на несколько карт нормально, в отличии от LLM. Для квена в FP8, минимально достаточно и 3060 12GB + 64Gb рамы, а остальное будет плюсом к скорости.
>>1334908 Хм, думал будет жёстче. Но > Картинки и видео не скейлятся на несколько карт нормально, Видел ноды с распределением гпу, т.е. на 1 гпу вешаем клип, на другой модель, не?
>>1334361 У дизайнера если есть шаблон, то 5$ попросит за редакцию.
Так же куча бесплатных шаблонов и надписей. Клиенту их предлагают первыми.
Главный минус такой картинки — она спечённая. Ноль контроля. И когда заказчик попросит «а мы можем у розы сделать несколько лепестков голубыми?» нейронка обосрётся, ибо сделает не те лепестки, которые заказчик захочет. А дизайнер какие надо выделит и покрасит на изи.
То есть тут опять вариант «жричодали» от нейронки. А вот от дизайнера/тридэшника «любой каприз за ваши деньги»
Нейронки хороши в своём сегменте: гибче и дешевле чем сток+человек, хуже чем спец. Нет гарантии полного совпадения с ТЗ
>>1334925 Это просто выигрыш в скорости. Оно не требуется одновременно карте. Сначала считается клип, потом рендер картинки самой моделью. Даже если разделить на 2 GPU - последовательно будет. Чутка сэкономит время за счет выгрузки-загрузки моделей в карту. Если обе влазят в обычный RAM - то совсем чутка.
Самое большое, что в теории могут эти ноды - делать offload модели не в RAM, а в память второй GPU. Но считает все равно одна карта. Особо большого выигрыша не получается. Лишь немного быстрее, чем offload в ram, и то не всегда.
>>1334937 >Главный минус такой картинки — она спечённая. Ноль контроля. >И когда заказчик попросит «а мы можем у розы сделать несколько лепестков голубыми?» нейронка обосрётся, ибо сделает не те лепестки, которые заказчик захочет. А дизайнер какие надо выделит и покрасит на изи. А вот тут, позвольте не согласится. С квеном зайдет такой прием - грубо заляпываем нужные лепестки каким-нить вырвиглазным цветом (просто сплошные пятна, не красим даже), а потом просим нейронку что-то вроде "замени фиолетовые пятна на голубые лепестки розы, сохранив цвет остальных". Квен уже вполне такое пережует. Если ему маркер дать - он вообще хорошо отрабатывает по деталям. Я пробовал на картинке с 4-6 персонажей просить заменить, скажем, обувь только у одного - описывая нужного через детали (цвет волос, поза, одежда, etc) - квен вытягивает.
>>1334954 >грубо заляпываем Что и есть ручное накидывание. И оно не всегда спасает при перегенерации, я уже протестил.
>>1334982 Обмазав вот эти лепестки маской я могу лепить действительно любой цвет. И только в конце скормить нейронке, чтобы она реализм подтянула. Заказчик попросит цвет с конкретным кодом. Что тогда? Я с графикой работаю. Нейронки немношк применяю. Но когда заказчику нужен нейрослоп, он идёт не ко мне. Он ко мне уже с нейрослопом приходит, чтобы я превратил его во что-то приличное. Иногда даже трёхмерное и анимированное.
Ну, получается вот так на Ван. Но ощущается какая-то неправильность в лице. То ли пропорции не правильные или расстояние между глаз-нос-рот не то. То ли просто помятое лицо. Анон, ты бы принял эту генерацию за фотографию? Интересует персонаж, не окружение. Что нет так?
>>1335008 Да, пропорции неправильные. В жизни так бывает, но эт некрасиво. В первом случае на второй рот поехал вниз а нос короткий при этом и узкий. Во втором случае на четвёртой рот уехал вверх чутка. Немного пережат подбородок в сторону аниме. Улыбка не особо широкая а губы сильно натянуты.
Ну а шо ты хотел? Эт нейронки, они не разбираются в анатомии, только в том как пятна на пятна лепить.
Ну шо. Я наигрался с квеном пока что. Руки рисует лучше и вообще детали реже срёт, но контроля мало. Буду использовать для идейных но не завязанных на тонкие детали генераций.
Отсутствие весов при желании точного результата — весомый недостаток. Там где в сдохле я сбалансирую через слайдер нужный оттенок волос, в квене даже «едва различимый отблеск рыжего» превращает волосы в рыжие слишком часто. А иного управления кроме «едва/сильно» и прочих слов нет.
Отсутствие всего богатства слайдеров и лорочек. Особенно драматичный свет, вечерний, контрастный. Сам квен кое-что делает и лучше голой сдохли, но сдохля с лорами вне конкуренции по художественности.
>>1335050 Я это понял в первые запуски Квина, когда увидел эти веснушки. Они либо есть, как клопы выглядят, либо их нет. Это какая-то особенность Квина или вообще особенность всего семейства таких моделей. Лобо 1 либо 0.
>>1335050 Внезапно этот унылый квен (который редактор изображений) может в неплохой такой фейссвоп, по крайней мере результаты для меня явно лучше чем у говнореактора с inswapper128.
>>1335060 Дальше пробы уже скачанных моделей на пригодность под мои задачи и вкусы. Понравилась Pony Cyberrealistic Catalyst. Такой эстетичный реализм. Понравилась лора Dramatic light. Прям отлично иногда пятна света. Первая картинка.
Для фуррей и милых девушек та же киберреалистик но Semirealistic. Вторая картинка и тоже немного веса в драматик лайт
Понравилась KFT Requiem Fur a Dream: отлично натаскана на мягкую детальную шерсть и лапы. Очень часто норм лапы с равным количеством пальцев. Третья картинка.
Для более рисованного уже перехожу на Illustrous. Надо пощупать низкие шаги, низкие и высокие cfg, потому что результаты порой интересные. Например 4я картинка на cfg=4 куда приятнее, более мягкая, живописная, как мягкой кистью, а на 6+ слишком резкая уже, более мультяшная, ещё и контур вылазит.
Поищу модель, которая может в наиболее сложные позы и анатомию. Вангую, это окажется какая-нибудь порно-модель. С SD1.5 это было именно так.
>>1335057 Да. Склонен он очень на ключевое слово хуярить по полной. Не важно, указал я ему лёгкий пушок или волосы на ногах, результат один. И пока я не нашёл подхода. Квен-чат не помог.
Ещё один момент нашёл. Если сказать «девушка одета только в чулки» — будет пытаться изобразить трусы и пояс. А вот если сказать «на ногах у девушки чулки до середины бедра», то исправно локализует.
>>1335240 Ещё поищу скрытые жемчуга среди XL моделей.
Потому что бывает, модель вроде аниме и плоскота, а при грамотном промпте она выдаёт хорошую светотень полуреалистичную + преувеличенную пластику, эмоциональность.
Смотрю кто чем генерит. Часто встречаю expressive hentai лору даже на околореализме: добавляет изюминки в мимику. Кстати вот тут на 1й картинке>>1335240 она тоже включена.
Даже флаксовые селеболоры кое-как работают с хромой, то есть стили и прочая фигня должны прям хорошо работать. Это со спидап лорой, кроп без детейлера.
Признайте уже, что хрома не получилась. Готовили, пекли, тренили и получился пшик. И сейчас не только лишь все могут показать на ней что-то хорошее, вменяемое.