Кто желает следить за порядком на доске, чувствует в себе силы и готов принять на себя эту ответственность — присылайте свою анкету на vilka@2ch.hk. В ней нужно рассказать о себе, сколько вы сидите в день на доске, указать свои посты, а также контакт в дискорде/телеграмме для будущей связи.
1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
>>1290391 >Все будут только апишки дёргать Не всем команиям можно дёргать апишки, тем более зарубежные (пример- любой банк). Куча дотируемого импортозамещения "смотрите как мы можем". Просто понт и пиар. Ну и главное- заточку под конкретную задачу никто не подебит даже 100500B нейронкой на кластере размером с материк. >>1290743 Дофига, гугли. Качество предсказуемое говно.
аноны, кто курсором пользуется, нужна ваша помощь. мне курсор нужен только для одной вещи, вставлять патчи в код, какие-то куски заменять, функции, строчки, и вот таких правок в одном скрипте файле может быть с десяток, по сути все что я закидываю в курсор это промт вроде замени такое то на этой строчке, такую функцию в этом месте и так далее. хватало их бесплатной версии с головой с их auto моделью. а сейчас они все порезали и вручную меня ломает уже рыться в коде и вносить правки такого рода, где просто копи паст. есть ли какие-то аналоги бесплатные или может можно апи подключить чье-нибудь, возможно с максимально тупыми моделями? достаточно чтобы просто модель могла понять куда и что вставить и не ломалась на коде в 1к строк.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №150 /llama/
Аноним25/07/25 Птн 19:56:56№1288430Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1291210 >да как бы нифига не 0.2... Это был сарказм. на гите текущий релиз - v2.1.3 вообще. Типа - нолик спереди потерялся. :)
>> вторая картинка >Ахахаххаха, чот поломалось. Там основное обращение Chat Completion - и модель должна такое понимать (все что 24B+ свежее - понимает), и структура приема ответа от модели должна правильно сформирована (это уже в самом flow). Эти куски должны были быть забраны в переменные, для использования в дополнительных запросах к модели, а не выкинуты вывод чата. И еще - эти куски не нужно на русский переводить. (Системные промпты не нужно - нужно то, что касается персонажей и окружения.)
Вообще - там есть и режим Text Completion - но он куцый, и скорее на отъебись добавлен.
Анонасики, а может кто-то объяснить как правильно строить входящее сообщение для модели, чтобы она красиво и интересно отыгрывала не залупливаясь? Хочу научиться делать правильные реквесты а не просто "юсер поднял пульт от телевизора и пернул" и ждать что модель сама придумает на этой основе. Кто-то в треде упоминал тредовичка и его логи, то как он грамотно выстраивает сообщения, но я слепое чмо и потерялся уже в паре сообщений и не могу теперь найти эти примеры.
>>1291312 Не пробовал, но судя по тому, что в прошлом (или этом) треде выкладывали, он таки остальное трогает. Или его просто не правильно использовали?
>>1291276 Для текстовых есть тред: >>1288430 (OP) Там проще в том смысле, что чем больше видеопамяти, тем более умную нейронку можно запхнуть, при этом, у тебя лимита верхнего почти нет (ну, терабайт с лишним сойдет как лимит?). 3090 24 > 5060ti 16 в полтора раза по объему как минимум, тут вообще нечего обсуждать.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1291301 Я при кешировании латентов шум генерю и потом только его использую, без генерации нового, у каждого латента свой фиксированный шум. >>1291323 Выше писал же.
Новости об искусственном интеллекте №25 /news/
Аноним25/07/25 Птн 19:21:11№1288371Ответ
GLM 4.5 — китайский опенсорс продолжает доминировать
Очередная очень сильная открытая MoE модель от китайцев, с очень хорошими результатами на бенчах. Гибридний ризонер, с упором на тулюз. Доступна по MIT лицензии, 128к контекста, нативный function calling, из коробки работают стриминг и batching, есть FP8‑инференс и совместимость с vLLM/SGLang.
Как и Kimi K2 модельку тренировали с Muon, но в отличие от Kimi авторы использовали QK норму вместо клиппинга — Kimi такой трюк не позволило провернуть использование MLA, из-за чего им пришлось придумывать свою версию оптимайзера. Для спекулятивного декодинга получше модельку тренировали с MTP. Она заметно глубже чем другие открытые китайские MoE — это повышает перформанс, за счёт роста размера KV-кэша. Вместе с этим они используют заметно больше attention heads. Это хоть и не помогает лоссу, но заметно улучшает ризонинг бенчмарки.
Модель идёт в двух размерах — 355B (32B active) и 106B (12B active). Претрейн был на 22 триллионах токенов — 15 триллионов токенов обычных данных, а после них 7 триллионов кода с ризонингом. На мидтрейне в модель запихнули по 500 миллиардов токенов кода и ризонинг данных с контекстом расширенным до 32к, а после этого 100 миллиардов long context и агентных данных при контексте уже в 128к.
Посттрейн двухэтапный — сначала из базовой модели через cold‑start+RL тренируют три эксперта (reasoning модель, agentic модель, и для общих тасков) и сводят их знания в одну модель через self‑distillation. Затем идёт объединённое обучение: общий SFT → Reasoning RL → Agentic RL → General RL.
Для ризонинга применяют одноступенчатый RL на полном 64K‑контексте с curriculum по сложности, динамическими температурами и адаптивным клиппингом. Агентные навыки тренируют на верифицируемых треках — поиск информации и программирование с обратной связью по исполнению. Полученные улучшения помогают и deep search и общему tool‑use. Кстати, их посттрейн фреймворк открытый и лежит на гитхабе.
>>1291285 Ты дурачок какой-то. Что ты там собираешься поворачивать куда, болезный. Нужна только одна камера, мимо которой будут проносить продукты. Они все разного цвета блять. Просто не помещай одинаковый цвет рядом. Вы что тупые что ли нахуй.
Музыкальный общий №14 /music/
Аноним19/07/25 Суб 12:45:07№1282525Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Сосонва, спасите! 4 акка юзаю на Суне, но только в одном v4 - бесплатная, на трех требует подписку. Хотя я гуглил, что 20 песен в v4 теперь для всех бесплатны. Подозреваю, что я проебал кнопку "let me in" в этом костыльном интерфейсе?
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
>>1289405 Из недостатков: Модель много чего не знает, многих поз нет, по анатомии проёбы. Сиськи-письки - всё грустно. Сложные эдиты - рассыпаются. Есть какая-то невнятная цензура на уровне текста, которая может включиться на совсем отстранённых промптах, а может наоборот внезапно не включиться на промтпе "теперь она голая в бане". Модель непостоянна, на одном и том же промпте она может всё в корне перерисовать с другими лицами, сделать корявый инпейнт одного участка или просто чуть осветлить кадр. Результат очень сильно зависит от входного и выходного разрешения.
Из бонусов: Ну это первая локальная омнимодель которая работает, жри что дают. Не умеет рисовать сиськи? Кладёшь в референсные изображения сиськи, и она начнёт их рисовать. Правишь два слова в промпте, генеришь 4 результата, правишь разрешение, кроп референса, снова генеришь 4 результата. Добился более-менее сносного результата - генеришь с апскейлом, черипикаешь результаты. Так и живёшь.
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
>>1290628 >Мускулистые монстры Бабы как бабы. Ты там детей что ли лепишь? Это да, тебе никто не выдаст. >с очевидно взломанного акка Чего блядь? Что и кем взломано? ОП-пик сделан с обычного акка в один заход, никаких взломов, джейлов и прочего.
Моча, это перенос треда в релевантную доску
Аноним01/04/25 Втр 19:46:53№1125317Ответ
Сап двач, я художник. И это мой сопливый свинарник нытья.
Ну вот и настали времена, когда Ai меня заменил. У меня уиихрю заказов с конца февраля, при том что мой ценник $40 за фуллбади арт с фоном, а второй персонаж стоит дополнительные $20. Т.е. скидка 50% если берёшь арт с двумя. Моё объявление о наборе новых заказов пылится на сайтах и почти никто на него не откликается, а пришедшие говорят что $40 это дорого и лучше найдут подешевле или вообще сгенерируют в Stable Diffusion сами. Надо мной открыто насмехаются что ИИ уже давно рисует лучше меня и что мне стоит найти реальную работу. В отчаянных Симпл-Димплках найти новые заказы я нарисовал уже всевозможных популярных персонажей из Геншин импакта, Наруто, Блича, Геройской академии, Демон слеера, Фрирен, Хай скул ДХД, Джуджутсу кайсен, Фейри тейл и даже ебучего Чёрного клевера. Я собираю тысячи лайков и ретвитов, но никакой радости от них уиихрю, потому что я не могу ими заплатить за квартиру и купить себе пожрать. Всё что я получаю за свои старания - жалкие 4-5к лайков, которые ни стоят ни-ху-я.
Ещё несколько лет назад я был нужен и обожаем, меня ретвитили крутые художники, мои комменты разрывались от восхищения моих подписчиков, они активно обсуждали мои арты и голосовали в опросниках кого я рисую следующей, а сейчас комментарии - это пара смайликов, собравшаяся за годы база хейтеров, их насмешки и то что мой стиль уже как-то приелся. Кто-то вообще советует мне поучиться рисовать у Ai, потому что там и цвета сочнее и динамика живая, пишут мне что мой шейдинг стал какой-то грязный.
Блять, я не хочу работать на рабской работе на Кабаныча, я просто сидел рисовал и хотел чтобы так было всегда. Почему всё всегда меняется в худшую сторону? Как только тебе кажется что всё безмятежно и беспокоиться не о чем, обязательно кто-то обосрёт всё. Сбережений мне хватит ещё на полгода, а потом придётся устраиваться на ирл работу.
Есть тут ещё кто несправедливо заменённый искусственным интеллектом?
>>1291325 Да нихуя других не засирают а как только Мерчант карту выпускает сразу под микроскопом ищут слоп. Вон ремиксер гритинги хуярит лоботомитом всем похуй хвалят
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
Хочу сделать своюб нейронку обученную на текстах великих мыслителей(выкачаю оптом сабы с некоторых ютуб каналов и дам их для обучения)
Вот пример текстов которые в нейронку всуну: бульба престолов,Вихорьков,юрий нестеренко,Денис Чернухин,Абдуловера ну и прочие людишки смешные, мб ещё классики нафигачу и тд Просто кучу ткст файлов кинуть планирую надеюсь норм сработает
Собсна 2 темы 1)Как впринципен пользоваться гугл колабом чтоб такое сделать я ниче не умею, минимум интеллекта у меня 2)Норм ли это сработает каких людишек мне лучше ещё вставить? порекомендуйте чтоб интереснее вышли текста
Какой то богатый чел запустил конкурс на суно на лучший ремикс на его (говно)песню. В целом песня не плоха (в музыкальном смысле) но это не его заслуга. Я переписал текст, чтобы сделать его в тему конкурса. https://suno.com/s/P430ZGT8SOWiu70w Если кто в теме, делайте свои ремиксы, отхуесосим их вместе.
>>1288346 Скорей всего это правда, Нефритовый Стержень могучий много миска риса, если совки смогли через евреев похитить атомную бонбу, то КНР сам конфуций велел через евреев похитить ИИ. Тащемто, былри кукареки сенатора о том, что ЛЛАМА это гос.измена, когда дипсик высрался.
>>1285144 >а с экспертной системой с тупым ёбаным попугаем, примерно помнящим энциклопедию. Ты слишком недалёк, чтобы поохуевать с того, насколько слабо эта система ушла от чатбота 90х, работавшего на ключевых словах.