>>1328420 Я время от времени закрываю комфи, где вайлдкарды отрисовали совершенную дичь, и просто иду на данбуру, смотреть что завезли и заценить свежим взглядом так сказать.
>>1329074 > тянки Слово-маркер хуесоса с IQ=85, который лепит деминутивы на иностранные суффиксы.
>Но у меня всегда получается так что тян сверху, какого хуя? Используй другие теги позиционирования: on back, lying on back, missionary и тому подобные. Вариант с boy on top годится тоже. Если не срабатывает - смени модель на менее ёбнутую, которая понимает теги данбуру.
Перестал есть в кафе, перешёл на домашнюю готовку простых блюд и незаметно избавился от большинства мелких проблем со здоровьем, которые меня доканывали. Но раздражает, что на это уходит больше времени. Когда есть кому готовить, это даёт выигрыш времени или он съедается целиком вместе с деньгами на удержание личного повара?
>>1328749 Такому персонажу и десяток не жалко! У каждого чара скины отдельный тег имеют >>1329304 Даже если съедается - это же твой комфорт. А если бы повар как на твоей пикче - бесценно.
А что если... желание генерить прон (в т.ч. нейроблядство вцелом), это просто одно большое подсознательное желание просто лежать в траве в обнимку с женой Пинки Пай и вдвоем созерцать безмятежное небо, никуда не торопиться?
Кстати, а тут кто–нибудь пробовал с помощью нейронок сделать себе скин аниме-девочки в том же майнкрафте? Понятное дело, что развертку всё равно придётся рисовать самому, но нейронка хотя бы может высрать пикчи, которые можно брать как референсы.
Кек, цивит молча удалил генерацию с некомими, потому что алгоритмы классифицировали как child, притом что непотребств на картинке не было никаких. Видимо, их яйца крепко зажали дружные коммьюнити жриц Кибелы, которая явились к ним с кастрационными ножами, ещё не обсохшими от предыдущих жертв.
Привет, анони я из b, у меня вопрос есть онеме картинка в 16/9, хочу ее доделать в формат 21/9. То есть нужен inpainting какой лучше всего нейронкой это сделать. У меня херня выходит с sd3.5
>>1330061 В городе вроде комаров не было и так, да и жары было буквально всего-ничего. Почему-то в этом году ощущается, как конец чего-то...
>>1330063 Да там всего намешано, к сожалению ван/квен тоже не всесильны, а с их скоростями проще оказалось наролить нужный лоурес в хл, потом сляпать вместе с фоном, а это уже скейлить ваном/квеном. Из наблюдений - квен в и2и гораздо сильнее перерисовывает, ему раза в 2 меньше нужно денойс ставить.
>>1330067 > да и жары было буквально всего-ничего. В этом году абсолютно мерзкое лето, я успел его возненавидеть уже на старте, когда было холодно как осенью. Потом была совершенно адовая жара прямо из какой-нибудь сахарской пескоублюдии, которая отправила меня на операцию из-за обострения хронической болячки. И теперь снова осень.
>>1326130 → Этот пишет тот анон, которому очень нужен Квен. Для начала я решил поставить комфи и первое что я не могу понять, почему при вроде одинаковых настройке в Комфи выдает дерьмо? Что я делаю не так?
masterpiece, best quality, 1girl, (curly brown hair: 1.3), (medium hair: 3), (golden crescent earrings: 1.5), (black top: 1.5), (bare shoulders: 1), (blue eyes), (gold cross necklace: 1.3), upper body, smiling with teeth, (cute2), waifu, big eye, head tilt, face turned 3/4 view, looking to the side, port, sea, (adjusting hair: 1.5)
Negative prompt: bad quality, low quality, blurry, bad anatomy, extra limbs, deformed face, distorted eyes, duplicate, watermark, text, signature, nsfw, (looking at viewer: 2)
>>1330177 >Шедулер другой в комфи у тебя. Да действительно, но дело не в нем, он не влияет уж так сильно на качество >Ну и выкрученные до 1.5 коэффы - это не ок. Я убрал все коэффициент, оставил только 1.5 на medium hair, та как ненавижу прическу каре masterpiece, best quality, 1girl, (curly brown hair), (medium hair: 1.5), (golden crescent earrings), (black top), (bare shoulders), (blue eyes), (gold cross necklace), upper body, smiling with teeth, (cute), waifu, big eye, head tilt, face turned 3/4 view, looking to the side, port, sea, (adjusting hair). Принципиально ничего не изменилось >А квен тут причём, кстати? Это же хл у тебя на скринах. Если я не смогу сгенерировать технически качественные картинки в простом ворклоу, то с квен уж точно не разберусь.
Пока здесь все по Аршавину, мои ожидания. мои проблемы.
>>1330194 В негативе тоже убери веса для (looking at viewer: 2)
Я вообще не уверен, что в автоматике усиление веса работает, если ставить пробел между ":", и весом. Вполне возможно, что для такого случая поведение в отдельных форках автоматика и в комфи отличается. Попробуй в автоматике вес ещё выше выкрутить и глянь, будет ли ломаться картинка.
>>1330172 > Для начала я решил поставить комфи и первое что я не могу понять, почему при вроде одинаковых настройке в Комфи выдает дерьмо? У комфи немного иначе работает преобразование промпта в клип, для точного соответствия автоматике тебе нужна специальная нода.
>>1330204 Спасибо огромное, я бы и не догадался, в чем дело. >Я вообще не уверен, что в автоматике усиление веса работает, если ставить пробел между : и весом Работает, я всегда ставлю — проблем нет. >Попробуй в автоматике вес ещё выше выкрутить и глянь, будет ли ломаться картинка. Цвета начинают тильтить при (looking at viewer: 5), (looking at viewer: 10) — картинка уже как в Комфи.
>>1330219 >Тебе нужна специальная нода. Ничего непонятно, но очень интересно.
В целом ComfyUI оказался вроде не таким сложным, но мне пока прям очень неудобно работать, в webui всё уже на рефлексах делаю. Очень много вопросов по настройке удобства работы, например как вернуть параметры какого-то из предыдущих результатов (аналог png info -> send to txt2img).
Что однозначно понравилось — рендер как будто чуть быстрее, процентов на 15%. Я думаю, пока останусь на a1111, может, попробую перейти на Forge, только не могу понять на какой конкретно, чем отличается Forge ReForge EasyForge никто не ответил
Если возвращаться к баранам и моей потребности — я на правильном пути?
А ета правда, что чем больше пиков в датасет кидаешь, чем больше результат становится непохожим на персонажа, размазанным усреднённым стилистически и физиономией? Я заметил что самые лучшие и похожие мои лоры, где я клал 5-8 пиков почему-то...
>>1330256 >например как вернуть параметры какого-то из предыдущих результатов (аналог png info -> send to txt2img). Перетаскивание генерации в окно с воркфлоу откроет её воркфлоу. Исключение - перетаскивание на ноды типа LoadImage, которые принимают в себя картинку. Также воркфлоу можно сохранять через меню и потом использовать из библиотеки с поиском.
> но мне пока прям очень неудобно работать, в webui всё уже на рефлексах делаю. Это всё вопрос привычки. Когда у тебя всё настроено в comfyui, тебе остаётся только вытащить подходящий под задачу воркфлоу или переключить группы нод у универсального комбайна.
>Что однозначно понравилось — рендер как будто чуть быстрее, процентов на 15%. Комфи интенсивнее развивается, разумеется они активно внедряли разнообразные ускорения. Можно ещё забустить процесс в ряде случае, добавив ноду-кэшер (расширения типа DeepCache, TGate) и им подобные; их влияние на стиль картинки минимально, в отличие от лор-ускоряк.
>>1330367 >Перетаскивание генерации в окно с воркфлоу откроет её воркфлоу. Исключение - перетаскивание на ноды типа LoadImage, которые принимают в себя картинку. Хороший инсайд, спасибо, не думал что тут есть люди способные разбираться в таких технических деталях. Ощущение. будто не аниме-тред, а сижу в каком-то месте и вокруг меня гики, как в научно-исследовательской лаборатории или отделе НАСА.
>>1330428 > люди способные разбираться в таких технических деталях > будто не аниме-тред, а сижу в каком-то месте и вокруг меня гики, как в научно-исследовательской лаборатории или отделе НАСА. >> открытие пнг2инфо Что с тобой будет, когда узнаешь, что тут сами тренят, и не только тупые лоры, пишут код и прикручивают изолентой энкодеры
Кто тренит ван - попробуйте потренить не только лоу, но и хай-нойс лору, и использовать обе. Важно добавить для лоу в аргументы: --preserve_distribution_shape --min_timestep 0 --max_timestep 875 ^ И для хай соответственно: --preserve_distribution_shape --min_timestep 875 --max_timestep 1000 ^ Сейчас сравниваю, что натренилось - сильно гибче и разнообразнее, чем одна на лоу без указания такого распределения
>>1329822 >пик У меня тоже такая хуета со следом от шлепка по жопе во время дегенерации происходит, сижу на люстре причем. Я офк понимаю почему оно так выходит, но как фиксить то? А вот хуй знает
>>1330428 > будто не аниме-тред, а сижу в каком-то месте и вокруг меня гики, как в научно-исследовательской лаборатории или отделе НАСА Это недалеко от истины.
Краткая, но поучительная история о том, как единственный шиз, не отягощенный iq, но обладающий неограниченным временным ресурсом, пользуясь слабостью общественного договора, уничтожил само желание что-либо постить.
>>1331057 Тред сдох не из-за этого. Просто никакого прогресса в сфере имэдж джена не было за 3 года. Абсолютно те же возможности и недостатки. Ни ризонинг, ни консистенси нормальный до сих пор не завезли. Сложных пикч с нужными персами и сценами, которые можно было бы использовать в историях, до сих пор не сделать. Остается только клепать рандомный дженерик, который и так просто ищется по тегам.
>>1331065 Рандомные дженерики просто клепаются на фоне вайлдкардами с лёгкой заменой промпта, когда хочется экспериментов. Для осмысленного комикса и сюжета надо ебаться с контролнетом и разметкой заготовок под аутпэйнт, заабузив внутреннюю согласованность генерации (даже старая сдохля согласует части картинки, за счёт чего работают теги типа 2koma). Уже полгода назад в nf были связные комиксы.
>>1331096 >>1331098 Не, нормальный комик не сделать никак. Можно высрать кал из жопы с контролнетами и потратить в 10 раз больше времени, чем хуман артист, на что-то в 10 раз хуже. Даже помимо консистенси, тупо обычные эмоции и позы нейронки не умеют генерить. И концепции, которых нет в датасете. А если еще 3д-сцену сложную нужно с иерархией объектов, то это сразу гг. Я пришел к тому, что для полноценного создания визуальных историй нужен AGI, по-другому никак.
>>1331121 Ты хочешь, чтобы нейронка тебе сразу высирала в рот готовые гомиксы, и не готов кормить её контролнеты 3d-сценой с предварительно выставленными интерьерами/персонажами и с региональной разметкой под консистентность и разделение персонажей? Когда пайплайн наработан, он занимает довольно мало времени и требует гораздо меньше экспертизы, чем у хуман артиста. Он просто сложнее, чем нагенерить обычный слоп по t2i и запихнуть в хайрезфикс/адетейлер.
>>1330911 > UmeAiRT Хорошие у него воркфлоу, спасибо за наводку.
Ещё давно пытался строить подобные воркфлоу с разделённой секцией настроек и секцией исполнения, чтобы только ключевые параметры были на виду. Но было слишком лень под каждый кейс подобное лепить. А у него прям то, что нужно.
>>1331121 >манхв и манхуй маньхуа разве не генерятся с помощью комп графики, лол? Тащемта в контексте корейских и китайских комиксов нейронка таки может справиться, но вот жапанские да, врядли осилит. Таки слишком жапанские выше по качеству >>1331057 А че случилось? Я миллион лет сюда не заходил Вышло чето лучше люстры кст?
>>1331431 >маньхуа разве не генерятся с помощью комп графики, лол? Не генерятся. Болванки для сцены и обмаза поставить - это одно (этим вообще очень многие промышляют), целиком рендерить - совсем другое. >врядли осилит Никакие не осилит. Одним кадром, в один проход - точно. Связности, постоянства и логичности не хватит.
Анончики. Вот уже неделю, пытаюсь вкатиться в генерацию анимации в WAN через Google Colab Есть тут такие же ебанутые? По идеи вариант неплохой, бесплатные ресурсы, памяти 15 гигов, уж пережатая GGUF версия 14В должна залезть подумал я... Но хуй там, памяти вроде даже хватает, но всё отваливается на одном из этапов. То ругается на отсутствие sageattention, то вылетает без каких-либо ошибок на этапе загрузки VAE. Как же я заебался...
У кого-нибудь получалось поднять анимацию на колабе? Какие воркфлоу - модели юзаете?
>>1331431 >жапанские выше по качеству Жапанский кал черно-белый, сразу в мусорку идет. Все манхуа и манхвы строго в цвете и сюжеты пизже. За последние годы индустрия очень выросла. Я вообще щас даже аниме не могу смотреть, такой скучный калич и рисовка для шкилы-дегенератов. Вот что значит вкусить чего-то лучше.
>>1332104 Вот этого поддвачну. В догонку ещё кину патологическую ненависть жапанских авторов к АИ-генерации. Лично мне, как потребителю глубоко похуй кто рисовал фоны на фреймах, который я просматриваю в течении 3,5 секунд, особенно, если это не совсем дженерик кал. А вебки читаю в первую очередь ради интересных сюжетов с чем у японцев тоже беда Но мангакам похуй на современные технологии, они должны рисовать тушью по бумаге и выпускать по главе в год пока проект не закроют на середине В то время как ушлый китаец делает по главе в день, в цвете, а в перерывах в рот ебёт каждого "создателя аниме-манги" лично.
>>1332104 >Я вообще щас даже аниме не могу смотреть, такой скучный калич и рисовка для шкилы-дегенератов. Вот что значит вкусить чего-то лучше. Интересное мнение, я более 10 лет не смотрел аниме (именно сериалы). Основная причина - раздражает низкое количество кадров и сюжеты приелись. Хотя наверное нужно посмотреть Провожающую в последний путь Фрирен для общего развития. Мне больше японские игры нравятся: jrpg и прочее.
Вчера впервые упоролся генерацией картиночного аниме кума, до этого полтора года ебал буквы. Оказывается, там тоже можно словить просветленный гунинг-стейт-оф-майнд, когда ты промптами крутишь-вертишь персонажа и сцену. И это не оказалось не просто, надо мастерски манипулировать тегами, чтобы выдало нужный угол, и это молчу о неудачных генерациях. Зато как же поднимает шишку, когда это наконец-то удается. Ух как пригодился риг, распределенно гоняю генерацию по четырем картам.
Юзал NoobAI и RouWei, на первых результатах прям улыбнулся, потому что видел сотни подобных картинок в такой дефолтной стилистике на пиксиве. Прикоснулся к чему-то великому, считай. (если что, дефолтную не использую, я уже знал художника, который 100% в кокоро попадает, и модельки отлично его понимают)
Мой неописуемый респект тем, кто писал раздел модели https://2ch-ai.gitgud.site/wiki/nai/models/ - написано охуенно понятно, сотни мильенов нефти тебе. Сегодня пойду дальше курить, что такое эти ваши контрл неты да инпеинты, надеюсь, там так же хорошо объяснено. Еще у меня вопросы: 1) Хочется попробовать и FLUX, но с ним все не так просто и советов конкретных тюнов я не нашел. Что вы конкретно используете и используете ли вообще? Можно отдельно для sfw и nsfw. 2) Использованные мною модельки очень плохо понимают концепт spreading bar в бдсм. Я так понимаю, что нужна лора на это дело. Но вот бегло поискал на civitai - такого не нашлось. Причем на бурах я видел много сгенеренного арта с этим элементом. Как правильно добиться того, чтобы моделька начала это понимать? Очень желательно без обучения самому, неохота с этим возиться.
>>1332803 Второй вопрос снимаю, я искал с неправильным окончанием. Вроде что-то нашел, вроде даже работает. И нашел еще ссылки на лоры в гайде, тоже спасибо за это
>>1332803 > Мой неописуемый респект тем, кто писал раздел модели https://2ch-ai.gitgud.site/wiki/nai/models/ На самом деле оно подустареть успело за последние три месяца. За лето много базовых чекпоинтов общего направления повыходило, особенно если SFW интересует без сложного позинга:
Но это скорее чисто свежие штуки на поиграться для тех, кого уже от мёрджей/тьюнов люстры воротит. Художников/чаров они не знают, и надо много пердолиться чтобы был толк. Если тебе нужно txt2img для NSFW генерок - то тут производные люстры пока безальтернативны.
Может ещё что интересное забыл, аноны ниже поправят.
> Сегодня пойду дальше курить, что такое эти ваши контрл неты да инпеинты, надеюсь, там так же хорошо объяснено. По контролнетам там гайды были актуальны во времена SD1.5, хотя общий подход в целом не изменился. Под SDXL думаю можешь просто поставить этот универсальный https://huggingface.co/xinsir/controlnet-union-sdxl-1.0
Под FLUX тоже есть контролнеты, но я их не щупал и ничего конкретного посоветовать не могу.
>>1332803 Гоняй нуба до посинения, завидую по-хорошему, несколько месяцев у тебя впереди прекрасны.
Флюкс тебе не нужен, говорю как ярый его апологет в своё время. Дистил, невозможно нормально чему-то обучить, особенно анимечному. Контекст и КвенЕдит можешь потыкать, если железо позволяет, но всё равно дальше баловства оно почти не пригодно.
Вот ван - классный, много знает, учится хорошо. Если интересует что-то больше 1гирл, секс, стендинш, вайт бэкграунд, то может быть интересно. Квен что-то не догнал пока, вроде голый много знает, но нормально лоры под него сделать пока не получилось.
>>1332970 > что-то больше 1гирл, секс, стендинш, вайт бэкграунд В недавней попытке опять с ними поиграться показалось что сейм, только без секса. Ну ладно, задники действительно крутые можно делать, или некоторые замены (прежде всего того же задника или мелких объектов) удобные. В остальном, отсутствие столь необходимых знаний, неудобства промптинга, прекрасное следование более общим вещам но игнор анимуартрелейдет огорчает. > дальше баловства оно почти не пригодно This, только ассеты и заменять, удобнее инпеинта. Сдохле пока нет замены, ее развитие или совместный семплинг могли бы помочь, но пока такого нет. Ну и видосики с милыми вайфу в ване, жаль с больше одного персонажа там тяжело.
>>1325351 → С нодой на цвето-коррекцию явно сильно меньше виден переход в зацикленном видео. Хотя всё равно не так хорошо, как хотелось бы. Ещё и хвостом толком не машет, обидное.
>>1332934 > Какую настройку там для стабилизации тайлов при апскейле использовать? Не вспомню уже, сто лет тайловым апскейлом не пользовался, как ушла мания делать шизоапскейлы. Для SD1.5 из последнего актуального вроде в настройках MultiDiffusion настраивался нахлёст тайлов и гонялось в img2img под tiled контролнетом. А вот что сейчас под XL актуально не знаю - может ещё кто подскажет.
>>1333000 Что на других типах контролнета ставить - я знаю. На этом - непонятно, так как в нем целая куча всего зашита, и тайловых препроцессоров несколько разных.
>>1333000 > под XL Все то же, режим смесь диффузерсов работает аккуратнее обычного тайлового в пиксельном пространстве апскейла. Но в фордже ее поломали и фиксить не спешат, поэтому можно юзать обычный. Контролнет - энитест для большей вариативности и дорисовки, юнион для прибития гвоздями чтобы ни один гост не проскочил, в обоих препроцессор None. Можно играться с их сочетаниями и заменой на разных этапах и получить нужный баланс. >>1333004 Ничего, None в случай апскейла, будет работать как тайловый. Менять препроцессор нужно для работы в других режимах, он сам поймет что там и сработает.
>>1333010 >> в фордже ее поломали и фиксить не спешат > При фиксации сида и выборе мультидифьюзии, результат отличется А, или в рефордже она тоже поломанная?
В целом работает, но у меня пока ничего приличного не вышло нароллить - кажется, что персонаж вообще не синхронизируется с заданной на вход песней. Возможно, длину входного аудио-отрывка надо как-то подгонять под длительностью видео, чтобы совпадало всё. Или ещё какие-то параметры крутить.
>>1334664 Да здравствует тред! >>1334688 Кайф, лиса и жопа особенно понравились. >>1334753 Еще видеотред и ллм, последний вместо медленного по 3-4 раза в неделю начал катиться в последнее время. > поничмо Оставь надежды
>>1334929 Хз, есть ли лора на Люстру на медведя на Цивитаи. Наткнулся на лору Мужика вчера уже поздно - не удержался, чтобы не вывалить первые результаты в тред. Лору на Пчелу надо.
Есть ли вообще смысл менять 3090? Разница с 5090 процентов ~30? И цена такая что дешевле 2-3 3090 в паралели крутить. Но хуанг через слово говорит AI - то AI - это. Они туда что-то интересное завезли или пиздабол?
>>1335178 > Они туда что-то интересное завезли или пиздабол? Да. Они завезли пристяжную видеокарту, которая охлаждается в отдельном гробу и которую можно присоединить к монитору.
>>1334981 Можешь рассказать про все оптимизации плиз? Я раньше на 3060 просто запускал и всё, а щас 3090 приедет и хотелось бы максимум профита выбить (кстати xformers у меня на винде почему то не работает, просит установить тритон, я его устанавливаю, а он всё равно его не видит, хотя раньше работало, но после переустановки винды почему то не хочет снова с xformers работать)
>>1335125 И пчелу тоже надо. Собери датасет, натреним, лол. >>1335178 Depends, у тебя денежки на это есть? Если да то бери 5090, разница будет раза в 2 и более в зависимости от кейса. Но по прайс-перфомансу 3090 офк выгоднее из-за низкой цены. >>1335313 Да там уже относительно давно ничего нового не было. Нужен последний рефордж с штатными торчами в его рекварментсах (или новее), аргументы > --xformers --allow-fp16-accumulation --pin-shared-memory --cuda-malloc --cuda-stream Из важных по сути дефолтный xformers (вообще возможно он уже не топ и есть шустрее) и аккумуляция фп16.
>>1335315 У рефорджа бранч newmain_newforge поддерживает sage attention (и flash attention, но я не ставил), я так 25-30% производительности по сравнению с main с --xformers получил. Вообще xformers и в новом бранче должны ставиться с этим флагом, но автоматом у меня ошибку выдавало, а разбираться почему - я тупой слишком.
>>1332860 Спасибо за инфу, но я был наивен, спрашивая про флюкс, ибо меня база утянула на дно и хочет утопить, сука. Все эти дни я ебусь с апскейлингом (использую комфи, к слову). Причем половину этого времени провожу, питонируя кастомные ноды, чтобы распределенные вычисления хоть как-то работали в моем флоу. Что самого алгорится, то наилучший результат пока я получил с tiled diffusion и controlnet-tile, все остальное давало или швы или хуево их мазало, а 4х апскейл загонять в семплер, я так понимаю, некошерно же, т.к. sdxl не умеет в такое гигантское разрешение? Поэтому я остановился на тайлах. НО! Меня заебало, что он генерит персонажей на тайлах! Сегодня потратил 3 блядских часа на эксперименты с инпеинтингом и все равно получается хуета - замазываю эти ебучие рожицы белым цветом и кладу маску, он либо на их месте какую-то инфернальную дичь инпеинтит (при денойзе 1), либо что-то криво-косо, вдобавок не до конца заполняя белый цвет рисунком (при денойзе меньше 0.5). Как его заставить ПРОСТО БЛЯТЬ ЗАПОЛНИТЬ ПУСТОЕ МЕСТО ПО КОНТЕКСТУ? Я пробовал и с оригинальной моделькой, которой генерил арт, и уже отчаявшись, скачал веса оригинального xl, все равно хуета. В воркфлоу есть контрлнет с depth anything, не ебу зачем он, но эффекта он не дает. В общем, прошу советов мудрых, как избавляться от ехидных пикрил нек на крышах? Он их генерит (но в другом виде) даже без промпта на персонажа. Модельку юзаю WAI.
>>1336031 Попробуй перетащить картинку в таб PNG-info в автоматике. Если там нет меты, то можешь теги другой нейронкой узнать (без стилей и тегов качества) >>1331153
>>1336031 Ещё можно тупо в блокноте посмотреть мета-теги картинки, если исходный генератор не запихал их туда в хитровыебанном формате. Они будут в начале или конце файла.
>>1336000 Ты любишь изобретать велосипеды и делать троллейбус из хлеба? Не осуждаю, может и правда нравится. Конкретно то, что ты описал - нужно снижать денойс, в идеале менять и упрощать промт, чтобы на пустые тайлы в промте не приходил 1гирл, контролировать разрешение тайлов, т.к. выше определенного порога когерентность в хл сыпется.
Есть SD_upscale в автоматиках, есть расширение для них и аналогичный нод для лапши - SD_Upscale_Ultimate. Все проблемы, что ты обнаружил, и что обнаружишь еще - там давно решены.
Ещё можно использовать разные модели. Например флюкс/ван для апскейла, промт надо будет изменить, очевидно.
А есть какие то ключевые теги, чтобы нарисовать девушку со спрятанными под шапку волосами? Я сам пробовал, но стабильных результатов не получается достичь. Вдруг это просто и я чего-то не понимаю.
>>1336000 Ну смотри, ты режешь картинку на тайлы. Но промпт при этом не меняешь. В результате все эти тайлы апскейлятся с одним и тем же промптом "вангёрл, стэндинг, аутдорс" - и сеть под высоким денойзом пытается тебе этих самых вангёрлов нарисовать там, где их раньше не было. В промпте то они присутствуют! А промпт для сети - это команда, это надо рисовать. Вот эти призраки и лезут везде.
Решить по-нормальному это нельзя, только с компромиссами.
Вариант первый: снижать денойз. Или давить фантазию сетки контролнетом. Или оба сразу. Сетка все еще будет пытаться нарисовать тебе призраков, но из-за недостаточного денойза, или из-за гайденса от контролнета, сделать этого не сможет. Артефакты местами все равно будут, но не такие заметные. Однако детализация все-таки повысится.
Вариант второй: перед апскейлом (обязательно на низком\среднем денойзе) убрать из промпта практически всё. Оставив только квалити, стиль, стилевые лоры, и то, что гарантированно будет попадать во все тайлы. Как по мне - плацебо. Бот просто не поймет, что именно ему надо рисовать в тайлах, и будет вольно фантазировать. Но может получиться и сравнительно неплохо - тут куча переменных, ответственных за успех.
Вариант третий: забить на добавление шума и сделать 4к алгоритмическим апскейлером. Детализации от такого больше не станет, но картинка может получиться четче за счет удаления части артефактов. Или наоборот, апскейлер может ими насрать. Как повезет, что использовать будешь.
Вариант четвертый, самый геморный, но и самый качественный: использовать сначала вариант первый\второй\третий, для получения большой картинки, а потом уже, вручную, ставя маски и меняя промпт, делать инпэинт по разным областям. Можно даже не увеличивая локального разрешения (оно ведь и так у тебя уже большое). Но тут тебе придется смотреть за границами областей и масок, чтоб оно нормально стыковалось, следить за цветом, подбирать денойз, отбирать нормальные гены, сшивать... Плюс (в случае ну совсем разорвиэкранов) все равно давить фантазию сетки контролнетом, потому что когерентное разрешение в областях инпэинта будет превышено. Альтернатива инпэинту по целой картинке - нарезать картинку на фрагменты вручную, и уже их обрабатывать. Я так иногда делаю, особенно когда в нестандартных разрешениях работать приходится, типа ультра-широких полотен.
У меня вообще довольно давно есть идея для плагина, который этот процесс может потенциально улучшить, но так как я совсем тупой в программировании, то хз как ее реализовать. По идее, должно быть возможно наверное встроить в процесс тайлового апскейла модель-интеррогатор, чтоб она промпт тайлам писала. Или делала добавку к промпту от юзера (т.е. чтоб была возможность оставить квалити, стиль, лоры). И по этому промпту потом уже апскейлом идти. Да, дольше получится. Но и качество повыше должно быть.
Еще другая идея недавно образовалась, но это совсем шиза. Алгоритмические апскейлеры тренируются на парах картинок, так? Вот у нас лоурес, вот у нас хайрес, давай, робот, сравнивай, придумывай, что надо сделать, чтоб из лоуреза получить хайрез. Почему бы в качестве лоуреза не подать на тренировку результат декодирования из-под мыльного 4-х канального ВАЕ, а в качестве хайреза - базовую картинку? Если протренировать на таких парах - может ведь получиться модель для удаления артефактов ВАЕ?
>>1336162 >>1336161 Шутки-шутками, а ведь срабатывает.Пусть и не стопроцентно. Плюс иногда требуется веса завышать, как тэгу bald, так и тэгу шапки (swim cap).
>>1336390 Это сильно не то, потом что видно что она подстрижена под машинку и нет nape hair сзади, и все таки хотелось бы чтобы челка торчала из под шапки для эстетики.
В общем я в итоге прописывал в позитив: hidden hair, nape hair, hair up в негатив: back hair, visible hair, big hair, hairbun, ponytail, long hair. И если получался короткий хвостик, просто удалял в фотошопе. И делал контролнет, так как слово "nape" триггерит и разворачивает девушку затылком.
Если прописывать просто swim cap, сгенерирует картинку с шапкой просто поверх волос как на второй картинке, а если у персонажа есть понитейлы и твинтейлы, то это все еще будет торчать из шапки.
>>1336386 >По идее, должно быть возможно наверное встроить в процесс тайлового апскейла модель-интеррогатор, чтоб она промпт тайлам писала. Или делала добавку к промпту от юзера (т.е. чтоб была возможность оставить квалити, стиль, лоры). И по этому промпту потом уже апскейлом идти. https://github.com/HallettVisual/Regional-Prompt-Upscaler-Detailer
Разве что для анимешных моделей >BLIP, Florence-2, CLIP, or ViT-GPT2 не подойдут. Надо что-то из семейства WD-таггеров ставить, с буру-тэгами. Хз, можно их туда прикрутить, или нет.
Хочу сделать Лору на стиль по одному очень странному советскому мультику. Как можно в фотошопе или в другой программе поднять качество датасета? Так как на некоторых дальних планах не хватает разрешения.
>>1336479 >и все таки хотелось бы чтобы челка торчала из под шапки для эстетики. Ну так и писал бы. Лично я принципиальной разницы между всеми твоими 4-мя картинками не вижу. Рулетку покрути побольше с обычной swim cap, ИИ что-то такое и будет рисовать. Рано или поздно нормальный результат поймаешь. Только особые фичи прически по типу хвостов действительно придется негативами убирать.
>>1336497 В ФШ можно, там есть варианты с шумоподавлением, но результат будет так себе.
Апскейлить попробуй. Апскейлеров сейчас целая куча разных, и для повышения резкости, и для зачистки от шумов. Первая - 4xReal_SSDIR_DAT_GAN. Этот вообще очень агрессивно картинку заглаживает, удаляя практически весь шум. Вторая - 4xNomos8kDAT. Этот послабее отрабатывает. Третья - комбинация из 4x_foolhardy_Remacri и 4xReal_SSDIR_DAT_GAN с силой 60%.
Аноны, совсем новокек в этом. Раньше пробовал вкатиться,но генерились квадраты вместо пикчей,удалил. Сейчас есть 1660 супер 6гб, на ней есть жизнь? какие модели под неё качать? или только переход на 8+гб? (максимум могу 2060 супер позволить) Пикчи хочу генерить в похожих стилистиках снизу, но нсфв
>>1336618 >1660 супер 6гб, на ней есть жизнь? Короткий ответ: нет. Длинный ответ: неееееееееееееееееееееееееееееееееееееееет. >2060 супер Уже можно что-то выжать, но все равно будет больно и с огромным количеством ограничений.
>>1336127 >Ты любишь изобретать велосипеды и делать троллейбус из хлеба? Поясни свою мысль. Единственное, что меня напрягает - что я пердолюсь с комфи, но в тырнетах почти все гайды - для автоматика. Просто я еще и видосики генерю, и хочу иметь один инструмент, в котором хорошо разбираюсь, поэтому не хочу пердолить еще и автоматик.
>SD_upscale, SD_Upscale_Ultimate Ты не поверишь... Естественно я пробовал уже ультимейт, он портирован на комфи. Только там проблема в том, что он накладывает сгенеренные оверлапнутые тайлы друг на друга с альфой и я буквально вижу эти переходы, и это с включенным режимом seam fix. С контрол нет тайл воркфлоу швов и переходов я не вижу, плюс сама генерация, как мне показалось, более faithful к оригиналу.
>Ещё можно использовать разные модели. Вот я не пробовал оригинальную xl именно для апскейла использовать. Или флюкс\ван, но мне с ними разбираться надо, наверняка воркфлоу там другой. Так что да, вариант. Но у меня опасение в том, что она не поймет стилистики картинки и начнет ее изменять под себя. Но надо пробовать, конечно
>>1336386 >Но промпт при этом не меняешь. Я же писал >даже без промпта на персонажа вай с пустым промптом на персонажа будет все равно будет генерить персонажей, другие модели также, подозреваю. Можно попробовать набить ему морду негативными тегами 1girl, это еще не пробовал.
>Вариант первый: снижать денойз. Это не нравится, таки снижается детализация персонажа, я сравнивал. Оптимальный денойз выходит 0.5. Т.е. мне очевидно не хочется просто апскейла (иначе я бы просто на шаге апскейла остановился без доп. прогона нейронкой).
>Вариант второй: убрать из промпта практически всё Не помогает. Генерит не нек, а каких-то абстрактных йоб-пушистиков. Как анон писал выше, разве что попробовать использовать оригинальные модели, которые не ужарены на персонажей.
>Вариант третий По сути радикальная версия первого варианта, там я уже ответил
>Вариант четвертый: делать инпэинт по разным областям Братанчик, я половину сообщения писал про муки с инпеинтом, чому проигнорил? Я тебе больше скажу, что ты писал - я уже пробовал. Я нашел воркфлоу с автокроп нодами. Вот ты указал маску на одну неку - автокроп нода вырезает тайл около нее и потом после обработки автоматически вшивает. Только проблема в том, что у меня нихрена не инпеинтится. Например, я закрашиваю самую левую неку белым, у меня получается, по сути, белое пятно, где нужно тупо дорисовать металлическую сетку. Но он либо в это белое пятно вставяет ебло персонажа, лол (при денойзе 1), либо при меньших денойзах руинит сетку вокруг так, что она начинает выглядеть как будто из бедтрипа, и белое пятно вообще не закрашивая. Как мне сделать этот блядский инпеинт, чтобы вместо неки он просто дорисовал небо и сетку? У меня просто сил нет. Я подумал, что в фш штампом я бы раз в 10 раз быстрее убрал все это. Может надо не белым закрашивать, а шумом каким-нибудь? Хз.
Кстати, тут еще увидел, что есть какие-то ДЕТАЙЛЕРЫ. Их же тоже нужно использовать, по идее, чтобы картинка на больших разрешениях не была пустая. Еще и с этим пердолиться, хехмда.
>>1336702 > и это с включенным режимом seam fix Выключи его и все исправится, без шуток. А так играться с оверлапом и областью склейки. Ну и все эти апскейлы подразумевают использование контролнета.
>>1336707 >Выключи его и все исправится, без шуток. А так играться с оверлапом и областью склейки. Ну и все эти апскейлы подразумевают использование контролнета. Зачем он нужен тогда. У меня сейчас флоу с тем же самым разбиением на тайлы, что и делает ультимейт, только с несколькими нодами, инарезатель тайлов еще что-то с моделью делает в режиме mixture of diffusers. В общем, проблем со швами у меня уже нет, проблемы в неках. Снижать денойз я не хочу, тут либо пробовать другие модели, либо ПОДСКАЖИТЕ КАК ИНПЕИНТОМ ИХ УБРАТЬ ХРИСТОМ БОГОМ ПРОШУ. Картинку выше я прикладывал
>>1336712 > проблемы в неках Пост слишком большой и не прочитал, речь же про кошкодевочек? Про кошкодевочек, да?
Контролнет он вообще не только/столько для тайлов, сколько для отсутствия гостов и сохранения исходной композиции. Как уже писалось, энитест для вариативности - добавляет деталей, фиксит (или ломает) пальцы, может создать гостов, юнион нещадно бетонирует что ни один гост не пролезет, но может тащить ган артефакты и меньше новых деталей. Можно использовать вместе для разных таймтепов, также тот же юнион можно использовать в нескольких экземплярах, добавляя препроцессоры, будет работать иначе. > Картинку выше я прикладывал Мм?
>>1336492 >Florence-2 Вроде подходит же, у меня в комфи с видео нода на неё отлично определяет, что аниме - это аниме. Правда персонажей, конечно, не знает. Ну так их и Ван не знает.
>>1336723 >речь же про кошкодевочек? Про кошкодевочек, да? >мм Конечно про них, лол. Смотри как ехидно выглядывают на крышах >>1336000 Еще и трипл выбил, только щас заметил, хех.
>>1336728 Вариант пофиксить их в 2 клипа котом тебя не устраивает? В фотожопе "удаление", в любом редакторе сложнее пеинта есть аналог. Для особых случаев можешь сгенерировать 2 варианта и потом с помощью маски слоя использовать куски от другого в качестве заплаток. Помимо заплаток можно глаза или другие удачные элементы применить.
>>1336702 >вай с пустым промптом на персонажа будет все равно будет генерить персонажей Странный вай у тебя какой-то, сколько его юзаю, не сталкивался с таким поведением Технически no_humans в позитиве может прокатить. Но можешь, и оригинального нуба попробовать. Однако врядли что-то поменяется. >Только проблема в том, что у меня нихрена не инпеинтится. Проблема в том, что ты пытаешься чинить то, что сломано, когда проще сделать это заново, и не сломано. Ну и явно что-то не так делаешь в процессе инпэинта, раз у тебя там все равно нэки появляются. Да, кстати, делать инпэинт по чистому цвету - так себе идея. Лучше уж в ФШ штампом бахни, чтоб там хоть какая-то информация была, от которой сетке плясать можно будет, а не чистая заливка. >ДЕТАЙЛЕРЫ То же самое, что инпэинт по маске, только маску рисует отдельная натренированная модель, а не ты сам. На каждый пук их не натренишь, понятное дело, и не всегда стабильно работают, плюс могут выдавать ложные срабатывания.
>>1336725 >нода на неё отлично определяет, что аниме - это аниме. Тут проблема не в том, чтоб аниме определить, а в том, чтоб интеррогатор писал промпт в понятном для модели формате. Понятный формат для аниме-моделей - это система тэгов. Причем очень жестко заданных тэгов. Для чистой XL, вана, флюкса, квена и прочих, натренированных на натуртексте - оно подойдет. Но не для люстры и пони.
>>1336618 > Сейчас есть 1660 супер 6гб, на ней есть жизнь? какие модели под неё качать? или только переход на 8+гб? Последние года два все оболочки (автоматик, фордж, комфи) поддерживают выгрузку части модели в RAM, так ты сможешь работать с моделями на 6.5Гб SDXL + лоры (если понравились). Время генерации не такое быстрое как на актуал карточках, но для задумчивых оно приемлемое. Flux, WAN - думать забудь про них без апгрейда, слишком долгая генерация.
Чувство когда потратил полдня на создания 4 картинок в честь дня рождения Мику, но все равно получилось дженерик. Не понимаю как правильно пользоваться inpaint, получаются очень резкие переходы на границе маски, в итоге брал и сводил последнюю картинку в фотошопе, но в нем тоже нужно иметь работать, шарики конечно вставил так себе, но сил уже переделывать то, что посмотрит полтора человека нет.
>>1336853 Да вполне прилично, стиль бы менее дефолтный только. Но в целом красавчик. Есть галочка soft inpaint, сглаживает переход. Для наилучших результатов нужно пользоваться инпеинт моделью (считай не существует) или инпеинт контролнетом https://civitai.com/models/1376234 работает с другими моделями тоже, в описании инструкция как юзать. Также можно потом просто пройтись i2i или апскейлом, замаскирует.
>>1336497 Так-то на любом говне можно стиль натренить. Просто лайн будет мыльный как в оригинале. Вот я на каком-то говне из яндекса натренил на отъебись никак не обрабатывая.
>>1336738 Ну, я и писал, что штампом было бы легче пофиксить... Или удалением, да, но сетку на месте левой нэки как-то хуево нарисовало, выбивается по цвету.
>>1336742 Котом можно испугать и прогнать кошкодевочек, это ты прав
>>1336762 >Ну и явно что-то не так делаешь в процессе инпэинта, раз у тебя там все равно нэки появляются. Когда нэку белым стираю, то не вторая появляются, а какая-то абстрактная крипота или анрелейтед рожа. Без стирания нэка остается. Я бы показал пример, да я в ярости все удалил >лучше уж в ФШ штампом бахни, чтоб там хоть какая-то информация была, от которой сетке плясать можно будет, а не чистая заливка. Понятно, тоже идея.
Ладно, я так понял, что красивого отработанного решения нет, пока что лучше всего понравилось предложение генерации с хай и лоу денойзом и потом на участки с нэками на хайденойзе вшивать с лоуденойза. Или в фш просто доработать, хах.
>>1336925 Хорошо! Поделись лорой, ну >>1336938 > сетку на месте левой нэки как-то хуево нарисовало Потому что буквально по клику на неку для демонстрации. Если не лениться то можно сделать аккуратно, но даже так не зная где искать не заметишь.
>>1336925 О да, то чего я и хотел, блин жаль все таки я не успел сам сделать, прокрастинирировал целый день на самом деле занимался артами по мику, еще и умудрился заболеть повторно через неделю после выздоровления а через три дни улетать. А так что касается лор, просто непаханное поле, огромный дефицит моделей, условно говоря, если я захочу сгенерировать тяночку заваривающую кофе в турке, то я не смогу этого сделать.
>>1336853 Спасибо! >стиль бы менее дефолтный только Да модель WAI 14.0 дефолтнее некуда >Также можно потом просто пройтись i2i или апскейлом, замаскирует. Слушай, а ловко ты это придумал. Я даже вначале не понял. >Да вполне прилично пришлось использовать все знания: супер кринжовый набросок в чат джпт - потом txt2img через контролент и региональный промт (форд купл) - потом уже img2img. На последней картинке возникла проблема, подсела какая-то розоволосая дама, ее невозможно было выгнать промтом, у меня были уже запредельные веса, в итоге пришлось ее убирать инпейнтом. После бесконечных попыток все равно неидеально, так у Тето как будто нет половины прически. Контролнет всегда ставлю в приоритет промпт, и весь иногда убираю до 0,3-0,5
Аноны, а насколько стабильный получается результат при работе с персонажем? Можно ли натренировать на своего перса и ставить его в желательные позиции, настраивать освещение и т.д.?
>>1337375 Страшна >>1337399 Нипа на первой сасная оче, с 4 в голос орнул >>1337447 Желто-коричневый ваислоп с минимальной стилизацией, ну такое. >>1337703 > строгого выдавать За тряску из-за размера пикч