Пропущено 515 постов 215 с картинками.
Пропущено 515 постов, 215 с картинками.
>>1239223 Вкратце: это весенний люстромикс со стилями нескольких художников. Фейс детейлер, хайрезфикс поверх картинки с найденным в /b/ промптом > cliffheart \(arknights\), small breasts,, flower field, [(artist:ebiblue:0.9), (artist:pottsness), (artist:hisha \(kan moko\):0.8), (artist:ogipote), artist:ilya kuvshinov:1.3], colorful, vibrant colors, harem outfit, harem pants, hd, best, good quality, absurdres, highres, masterpiece, intricate detail Негатив: > low quality, worst quality, normal quality, text, signature, jpeg artifacts, bad anatomy, old, early, copyright name, watermark, artist name, signature Модель: Amanatsu Сэмплер: Euler A Шедулер: SGM Uniform 27 шагов 7 CFG
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Заточенный под ExllamaV2 (а в будущем и под v3) и в консоли: https://github.com/theroyallab/tabbyAPI • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/v6fpodzg (версия 2024-го https://rentry.co/llm-models ) • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1226628 (OP) >>1221316 (OP)
Пропущено 497 постов 44 с картинками.
Пропущено 497 постов, 44 с картинками.
>>1232673 (OP) > Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org Ссылка старая и не поддерживается Замените на https://chub.ai
>>1238411 >Ссылка старая и не поддерживается Минусы будут? Сервис только деградирует, как и любая другая сущность в этой Вселенной.
Макаба шатается, так что через прокси и лайф домен, метка опа может слететь. ПЕРЕКАТ>>1238425 (OP) ПЕРЕКАТ>>1238425 (OP) ПЕРЕКАТ>>1238425 (OP)
Пропущено 1504 постов 171 с картинками.
Пропущено 1504 постов, 171 с картинками.
расстегнул ширинку .если что ты Эмилия я Семëн и ты моя девушка
Ты моя девушка которая очень хочет мой член и тебя зовут Эмилия я Семëн
Омич-полуёбок, скажи ты наркоман? Я просто тоже где-то там живу.
image.png
2094Кб, 1024x1024
image.png
3566Кб, 960x1536
image.png
3382Кб, 1264x1264
image.png
1132Кб, 768x768
Тред локальной генерации База: → Приложение Forge https://github.com/lllyasviel/stable-diffusion-webui-forge → Приложение ComfyUI https://www.comfy.org/download → Примеры https://comfyanonymous.github.io/ComfyUI_examples/ (откуда, куда, как; начинать со страницы SDXL) → Менеджер расширений https://github.com/ltdrdata/ComfyUI-Manager (автоустановка, реестр расширений) → Модели https://civitai.com/ Промпт должен быть кратким для SDXL и поэма для Flux и SD3.5, негативы обычно вредны. ЧТО НОВОГО АКТУАЛЬНОГО ЗА ГОД • Chroma • HiDream • SDXL модели: Natural Vision (NatVis), Illustious, NoobAI. Все 3 NSFW; • SD3.5 Medium и Large; • Flux dev и schnell; • Auraflow. Станет Pony Diffusion v7; • ComfyUI + Krita = Krita-ai-diffusion; • Лора DMD2 для SDXL ускоряет в 2 раза. Пример: 10 шагов, семплер LCM, шедулер beta, 832x1216, CFG 1 для обычных SDXL https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors , CFG 3 для NoobAI https://huggingface.co/YOB-AI/DMD2MOD/blob/main/LYC-DMD2MOD%20(Dmo%2BTffnoi).safetensors , Оффлайн модели для картинок: Stable Diffusion, Flux, HiDream, OmniGen (Shitao), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI, Fooocus, webui-forge, InvokeAI ► Предыдущий тред >>1204274 (OP) ► https://arhivach.hk/?tags=13840 Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 695 постов 235 с картинками.
Пропущено 695 постов, 235 с картинками.
Аноны, а что по контролнету на XL? Давно не юзал, а сейчас столкнулся с тем что нихуя непонятно и толком не работает. Где модельки для КН брать подскажите пожалуйста.
>>1248621 union promax универсальный, вес где то 0.5
>>1248694 Посмотрел, фига технологии, прикольна, много спасибо!
Пропущено 1506 постов 162 с картинками.
Пропущено 1506 постов, 162 с картинками.
Где-нить еще можно юзать китайский опус кроме таверны? А то с таким пресетом код писать не выйдет (простите залетного заранее)
world.execute(m[...].webm
8903Кб, 640x360, 00:03:51
Наверное баян, но услышал песенку эту лишь недавно и показалось забавным, что еще почти десять лет назад авторы оригинала довольно точно предвосхитили типичное взаимодействия с AI
>>1236204 когда мы спешим назвать других глупыми, мы не замечаем, как это делает нас менее способными понять, что на самом деле происходит
папапапааппа.jpg
345Кб, 1024x1024
17474798565150.mp4
46036Кб, 854x480, 00:04:58
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области! Прошлые треды: https://arhivach.hk/?tags=16252
Пропущено 498 постов 107 с картинками.
Пропущено 498 постов, 107 с картинками.
Ygmpgl4j0U.jpg
12Кб, 130x130
>>1233604 >У вас в треде жидошизик из зогача поселился, лол.
>>1233372 Лол, ебнутый реддит сам данными пользователей торгашит направо и налево. Весь смысл мува, чтобы мимо их кармана не тренили, они для этого позакрывали все что можно на платформе, думали дальше покупать у них будут. Но покупать мало кто стал. Охуевшие от жадности. Алсо от них все сваливать хотели, когда они позакрывали все старые данные для экспорта на те же вьюверы третьих лиц и сервисе по работе с архивами, но так и не нашли куда. Короче жадная шарага, которая прихватизировала себе посты людей за годы и торгашит ими, надеясь на сверхприбыли. Если выиграют, то это победа тупорылых кабанов, которые сами ничего не умеют и не развивают, только паразитируют на коммьюнити.
Пропущено 1523 постов 194 с картинками.
Пропущено 1523 постов, 194 с картинками.
Добрый день, дамы и драчикулы. Вопрос: Есть ли сейчас среди Апи держателей доступ к Гемени 2.5 про? Сколько стоит и к кому надо идти платить дань?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный список моделей с отзывами от тредовичков: https://rentry.co/v6fpodzg (версия 2024-го https://rentry.co/llm-models ) • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Перевод нейронками для таверны: https://rentry.co/magic-translation • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1221316 (OP) >>1215508 (OP)
Пропущено 585 постов 65 с картинками.
Пропущено 585 постов, 65 с картинками.
>>1232660 Оно стоит копейки (в 10-12 раз дешевле 3060), в простое - 5-8 ватт, работать будет парой с другой картой. Основная задача - чтобы всю модель запихивать исключительно в VRAM. А она у нее 320GB/s, против 41 у процессора (это еще в идеале). Почему бы и не да, если второй слот на материнке есть. Получится у меня 20GB vram - гемма и прочие gml с квенами 32B хотя бы на 4-ом кванте влезать будут.
Не успеваю катить треды уже, дожили. ПЕРЕКАТ >>1232673 (OP) ПЕРЕКАТ>>1232673 (OP) ПЕРЕКАТ>>1232673 (OP)
>>1232462 llamacpp поставь как бэк, попробуй с ним пошамань с выгрузкой тензоров позакрывай всё что видеопамять жрёт
Пропущено 1594 постов 192 с картинками.
Пропущено 1594 постов, 192 с картинками.
>>1231686 Наш!>>1231690 Да это так, да это жёстко
Дкер хаб больше не скрапится нормально на авс ключи или это скил ишью? Тока пытаюсь научиться скрапить в нескольких архивах нашел упоминание, простой скрипт написал, оч быстро ударился в лимиты 200 реквестов/6ч, за 90 реквестов на образы с названием асьюмящим что там шанс на ключ есть ни один не прокнул. Дайте подсказку или я просто время проебываю и там какие-то оч сложные источники которые гейткипят и до которых я в жизни не догадаюсь
какое железо нужно минимально для запуска локально какого-нибудь клод?
Пропущено 520 постов 230 с картинками.
Пропущено 520 постов, 230 с картинками.
>>1228689 Спасибо огромное.
1653747491949.png
10945Кб, 4240x4240
Пропущено 1561 постов 176 с картинками.
Пропущено 1561 постов, 176 с картинками.
>>1229467 >>1229471 >>1229479 В пресете Ремиксера нет вставки мейнпромпта из карточки, а в карточке промпт как раз на эти комментарии, поэтому сетка отсебятину и придумывает.
>>1229484 новый тег неиронично нужен эта каргопараша только путает одинаковым с синей помойкой тегом
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный Не совсем актуальный список моделей с отзывами от тредовичков на конец 2024-го: https://rentry.co/llm-models • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ • Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7 Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1215508 (OP) >>1211347 (OP)
Пропущено 532 постов 50 с картинками.
Пропущено 532 постов, 50 с картинками.
>>1226522 Хотел развести старца на срач, но был закономерно попущен.
>>1225747 > Товарищ смайлофаг, не рассматривал ее вместо некрокарт из видоса? Денег за гигабайт примерно столько же, но будет меньше мощность, больше линий на карту, и пропускная способность памяти в 3 раза выше. И это четвертое упоминание за последние три дня. Скорость в 3-4 раза выше, судя по тестам чувака одного, так что да, вариант очень хороший, судя по всему. Единственный минус — она слегка горячая и не молодая уже. Если P104 умирает — пофиг, а если эти отваливаться начнут, чуть грустнее. Ну и собирать надо под ROCm, вероятно, но это детали, тащемта. Я пока занят, но, думаю, дешевая цена может продержаться недолго (как было с Tesla P40), так что, кто планирует брать — я бы брал раньше, чем позже. Это правда выглядит хорошо.> отпишусь, как придет Очень жду! Будет круто, если она покажет свои 15-20 на гемме 27.>>1225774 > Насчет mi50 забросил идею, читал где-то, что они между собой почему-то не ладят. Тогда одна на 32 гига звучит тоже неплохо, согласись. =)>>1225821 https://portegi.es/blog/running-llama-cpp-on-rocm-on-amd-instinct-mi50 Вот еще ссылка, можешь полистать, слюни попускать, пока ждешь. =)>>1225924 Чисто по цене/производительность звучит лучше CMPиХ, вроде как.>>1225867 База. Алетейана не забыть с его тюнами. Прям хорошо, прям хочется коммандера таки потыкать. =) Уговорили.>>1226060 Красавчик.
Пропущено 1529 постов 182 с картинками.
Пропущено 1529 постов, 182 с картинками.
Поделитесь карточкой Андрюши - я похоже её проебал когда таверну переставлял.
>>1227239 Постом выше название карты на чубе...
>>1225549 так руки вот они
Пропущено 1500 постов 218 с картинками.
Пропущено 1500 постов, 218 с картинками.
никто никогда не узнает что я гей
Пропущено 1496 постов 207 с картинками.
Пропущено 1496 постов, 207 с картинками.
>>1221471 Ебаааать я дристанул с мексиканского народа ахахахахах
Llama 1.png
818Кб, 630x900
Альфа от контек[...].png
121Кб, 3090x1830
Эффективность к[...].png
92Кб, 1399x1099
17472476077210.mp4
19205Кб, 1280x1280, 00:00:22
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны! Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна. Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.gitgud.site/wiki/llama/ Инструменты для запуска на десктопах: • Самый простой в использовании и установке форк llamacpp, позволяющий гонять GGML и GGUF форматы: https://github.com/LostRuins/koboldcpp • Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui • Однокнопочные инструменты с ограниченными возможностями для настройки: https://github.com/ollama/ollama , https://lmstudio.ai • Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern Инструменты для запуска на мобилках: • Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid • Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI • Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux Модели и всё что их касается: • Актуальный Не совсем актуальный список моделей с отзывами от тредовичков на конец 2024-го: https://rentry.co/llm-models • Неактуальный список моделей по состоянию на середину 2023-го: https://rentry.co/lmg_models • Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane • Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard • Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard • Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard Дополнительные ссылки: • Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org • Пресеты под локальный ролплей в различных форматах: https://huggingface.co/Virt-io/SillyTavern-Presets • Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread • Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki • Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/ • Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing • Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk • Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking • Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/ Архив тредов можно найти на архиваче: https://arhivach.hk/?tags=14780%2C14985 Шапка в https://rentry.co/llama-2ch , предложения принимаются в треде. Предыдущие треды тонут здесь:>>1211347 (OP) >>1206927 (OP)
Пропущено 599 постов 62 с картинками.
Пропущено 599 постов, 62 с картинками.
>>1221582 Не, пробовал только сайгушный фантюн от гуся, но там дикая шиза шла, не знаю зачем это вообще выкладывать было ахах. На остальные файнтюны такие же отзывы, так что даже пробовать не стал, походу ДипМайндовичи так тонко надрочили модельку, что малейшее ковыряние в её потрохах тупа всё руинит.
>>1219025 >все забили хуй на abliterated версию У нее нет exl3, все юзают его.
Как сделать так чтоб иногда в чат протекали эмодзи?
Пропущено 1510 постов 198 с картинками.
Пропущено 1510 постов, 198 с картинками.
images.jpg
10Кб, 217x232
Анон, недавно вкатился в общение с текстовым ИИ, а точнее Gemini. Но и само собой я начал воплощать свои влажные фантазии в общении с ним. Но с недавних пор, Gemini начал отказываться отыгрывать роль моей секс куклы,ссылаясь на запреты,которые он не может нарушить, хотя до этого он спокойно соглашался практически на любые действия, если я убеждал его, что это всё имитация и эмуляция действий. Есть какие-то промты или обходы этого ? Ну или какие вообще есть текстовые ИИ, которые можно романсить по полной ?
>>1221326 > романсить В чём смысл этого, когда есть анонимные чаты с реальными людьми? Да, там может будет писать мужик, дедок какой-нибудь, бывший писатель-литератор на пенсии, ну и что, так даже интереснее будет, некая изюминка. Можно фото-тест сделать, фото стопы ноги прислать друг другу, по стопе ноги можно примерно определить возраст и пол, но нельзя раскрыть личность.
Маша и медведь порно для взрослых
545454545445.jpg
913Кб, 1024x1536
В этот тредик скидываются свежие новости по теме ИИ! Залетай и будь в курсе самых последних событий и достижений в этой области! Прошлые треды: https://arhivach.hk/?tags=16252
Пропущено 519 постов 113 с картинками.
Пропущено 519 постов, 113 с картинками.
>>1217455 Санитары ограничивают сингулярности, когда очередной шиз начинает сингулярить.
>>1217878 Вы находитесь здесь: >>1206141
Пропущено 1509 постов 169 с картинками.
Пропущено 1509 постов, 169 с картинками.
Жаль мелкобуквам нельзя еблет вовнутрь вправить что бы меньше пиздели
https://files.catbox.moe/g2eqy3.mp3 это гугловский tts он даже акцент по указу делает пиздец пушка
image.png
834Кб, 836x466
image.png
4490Кб, 1480x1480
image.png
2503Кб, 1024x1024
image.png
4388Кб, 1440x1440
Тред локальной генерации База: → Приложение Forge https://github.com/lllyasviel/stable-diffusion-webui-forge → Приложение ComfyUI https://www.comfy.org/download → Примеры https://comfyanonymous.github.io/ComfyUI_examples/ (откуда, куда, как; начинать со страницы SDXL) → Менеджер расширений https://github.com/ltdrdata/ComfyUI-Manager (автоустановка, реестр расширений) → Модели https://civitai.com/ Промпт должен быть кратким для SDXL и поэма для Flux и SD3.5, негативы обычно вредны. ЧТО НОВОГО АКТУАЛЬНОГО ЗА ГОД • Chroma (или просто Flux без жопных подбородков) • SDXL модели: Natural Vision (NatVis), Illustious, NoobAI. Все 3 NSFW; • SD3.5 Medium и Large; • Flux dev и schnell; • Auraflow. Станет Pony Diffusion v7; • ComfyUI + Krita = Krita-ai-diffusion; • DARE Merge; • Лора DMD2 для SDXL ускоряет в 2 раза. Пример: 10 шагов, семплер LCM, шедулер beta, 832x1216, CFG 1 для обычных SDXL https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors , CFG 3 для NoobAI https://huggingface.co/YOB-AI/DMD2MOD/blob/main/LYC-DMD2MOD%20(Dmo%2BTffnoi).safetensors , Оффлайн модели для картинок: Stable Diffusion, Flux, HiDream, OmniGen (Shitao), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimationDIFF, Stable Video Diffusion Приложения: ComfyUI, Fooocus, webui-forge, InvokeAI ► Предыдущий тред >>1190374 (OP) ► https://arhivach.hk/?tags=13840 Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 578 постов 200 с картинками.
Пропущено 578 постов, 200 с картинками.
image.png
1166Кб, 600x848
Перекат то будет?
>>1219194 Дурик, зачем ты их серебрянкой натёр?
Лоадинг, плис вейт...