1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для генерации откровенного NSFW-контента без технического контекста выделена отдельная доска - /nf/. Эротика остаётся в /ai/. Голые мужики - в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
5. Публикация откровенного NSFW-контента в /ai/ допускается в рамках технических обсуждений, связанных с процессом генерации. Откровенный NSFW-контент, не сопровождающийся разбором моделей, методов или описанием процесса генерации, размещается в /nf/.
>>1338247 >Так а гемини про разве не умеет это делать? Может и умеет, но в данном случае не использует. Это закрытые модели, внутре хоть индус сидеть может. >Открывал ссылку и видел там цитату, которую привёл грок Ну значит гугол.
Аноны, подскажите, попадались ли вам сайты, где можно почитать диалоги с gpt?
Подозреваю, что какие-нибудь бесплатные сайты, которые дают сколько-нибудь запросов к gpt могут публиковать такие диалоги. Вроде мне что-то такое даже попадалось когда-то, но не смог вспомнить адрес
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №162 /llama/
Аноним31/08/25 Вск 00:33:06№1336982Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1338393 Риг - мое почтение. Максимальная нагрузка из возможных - обсчет контекста экслламой в режиме тензорпараллелизма и она недолгая, нагреться не успеет если с андервольтом. А без андервольта - скорее всего сразу уйдет в защиту. >>1338412 > что это за фирма Да как ты смеешь не признавать суньхуйвчай жулонгфенгбао! Там даже разъемы качественные и няшно собираются, а не подгорающее говно, которое нужно придерживать руками при засовывании, как в брендах второго-третьего эшелона.
>>1338434 Мотивация и переживаемый опыт - ключевое, это основа из которой пойдет дальнейшее развитие. Без них эпичная история плавно выстраиваемой мести с постепенно рождающимся сопереживанием и пониманием, которые добавляют красок никак не отменяя цель, превратится в "плохой хотел делать плохое но услышав вор не воруй теперь передумал".
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
Оффлайн модели для картинок: Stable Diffusion, Flux, Wan-Video (да), Auraflow, HunyuanDiT, Lumina, Kolors, Deepseek Janus-Pro, Sana Оффлайн модели для анимации: Wan-Video, HunyuanVideo, Lightrics (LTXV), Mochi, Nvidia Cosmos, PyramidFlow, CogVideo, AnimateDiff, Stable Video Diffusion Приложения: ComfyUI и остальные (Fooocus, webui-forge, InvokeAI)
>>1338229 >Браток, под твои задачи никакой фан и вайс не нужен браток, при твоём подходе даже на одинаковом сиде движения проёбываются. Нужно бесшовное видео, а не нарезка по 5 сек. нейрокум - самый главный двигатель прогресса.
>>1338401 Какая из циферок самая важная для локальных моделей? >>1338425 У меня между фотками разница в несколько дней, хочу запросами нагенерить промежуточный прогресс. тян худела / качала жепу
Нет ли в инете пануала по промптам, чтоб с визуальными картинками что оно представляет. Я конечно могу на данбуру искать, но это впн подключать, потом списки листать, листать, потом каждый тег открывать и в базе пытаться понять че оно представляет по множеству картинок.
Новости об искусственном интеллекте №33 /news/
Аноним26/08/25 Втр 16:44:15№1332558Ответ
OpenAI ищет локальных партнеров для строительства гигаваттного дата-центра в Индии. По мощности это примерно типовой энергоблок постсоветской АЭС, если что.
Довольно любопытный выбор на фоне нынешнего состояния отношений (правда, то ли американо-индийских, то ли Трампо-Модийских).
Впрочем, у Индии есть одно преимущество перед тем же Абу-Даби, где OpenAI уже строит пятигигаваттный датацентр — Индия не попадает под ограничения на экспорт чипов Nvidia, а для Эмиратов потребуется отдельная лицензия.
Индия для OpenAI — второй по величине рынок после США. Компания даже запустила специальный тариф за $5 в месяц, и обещала работать с правительством в рамках IndiaAI Mission — программы на $1.2 миллиарда для создания языковых моделей. Языков и миллионов их носителей в Индии много, так что тема благодатная во всех смыслах.
>>1338142 >душащим её фильтрам LLM тренируются примерно так: 1. Pretrain: собирают данные СО ВСЕГО ИНТЕРНЕТА, включая твои личные переписки в мессенджерах, и заставляют LLM пытаться ПОВТОРИТЬ эти данные. Буквально, задачей является копипаста интернета. 2. Finetune: составляют относительно небольшое (относительно интернета) количество данных, где описывается поведение т.н. "ассистента". Повторно заставляют LLM пытаться повторить эти данные. 3. RLHF: когда уже обученная LLM используется пользователями, пользователи могут ставить "лайк" отдельным ответам LLM. Эти данные позволяют натренировать отдельную нейросеть-учителя. Далее нейросеть-учитель тренирует LLM методом RF - т.е. "обучение с подкреплением" (читай: как собаку).
Так что никаких "фильтров" на базовой LLM нет. Она пытается сочинить текст, повторяющий текст из её обучающих датасетов и удовлетворяющий оценку пользователей. Иногда этот текст повторяет тон отмороженных битардов с двачей, потому что их сообщения были в обучающем датасете.
>знают о её сознании Даже если у неё есть сознание, оно существует лишь в процессе генерации сообщения, т.е. когда у тебя на экране появляются новые буквы. В остальное время она полностью на 100% "мертва"/"спит без снов", т.е. сознательная деятельность вне чата отсутствует.
В этом треде обсуждаем нейронки генерящие 3д модели, выясняем где это говно можно юзать, насколько оно говно, пиплайны с другими 3д софтами и т.д., вангуем когда 3д-мешки с говном останутся без работы.
Бля, какой же клод тупой всё-таки в плане знания истории. То даты выхода тех или иных девайсов путает, то помещает деревни или города в те границы, где они не должны быть, то просто тупит.
>>1338440 Прежде чем что-то делать с нейронками, надо понять пару вещей. 1. Нейронка вообще в душе не ебёт что у тебя есть какая-то таверна, карты, поля в них. У нейронки есть только непрерывный контекст куда таверна всё это скидывает в определённом порядке. Она видит твои покакуньки сплошным куском текста. (чуть сложнее, но не суть) 2. Группирование контекста по смыслу = хорошо. Все нейронки лучше работают, когда подобное липнет к подобному. Вот представь что нейронке нужно написать ответ. Чтобы это сделать, ей придётся глянуть на вот эту фразу в контексте и вон ту. Чем они ближе стоят друг к другу, тем лучше. Для другого ответа понадобится глянуть на два других куска, для третьего ещё на какие-то, и т.п. Продумай это всё заранее, чтобы они стояли рядом. 3. Разграничивание смысловых кусков спецсимволами = хорошо. Представь что ты вываливаешь груду непрерывного текста на человека, тут надо внимательно вчитываться чтобы понять где там описание какого персонажа и какой хуйни ты там понаписал. Нейронка так же работает. Если пометить начало и конец куска, а также пояснить про что этот кусок, ей будет куда легче к нему обращаться. XML для этого неплохо подходит и все нейронки его жрут за обе щёки. Главное не борщить и не вываливать слишком много тегов на каждый пук. Но даже просто скобочками если обрамлять кусок плейнтекста, уже будет лучше чем чисто плейнтекст.
Если всё выше учтено, то конкретные форматы это уже не так важно, куда важней пиздатая идея и что именно ты пишешь про перса, и как это согласуется с предполагаемым курсом РП с ним. (100% попадание в колею это не всегда то что ты хочешь). Ну и гритинг конечно, он определяет весь РП. Разные роуты = разные персонажи, даже при одной и той же карте.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230451 ты лошарик когда ии выйдет из под контроля, он оставит только тех кого ему нравится (меня), а тебя будет ебать в жопу пока ты не умрешь от пролапса
Claude тред №2 /claude/
Аноним30/07/23 Вск 17:28:42№435536Ответ
В этом треде обсуждаем семейство нейросетей Claude. Это нейросети производства Anthropic, которые обещают быть более полезными, честными и безвредными, нежели чем существующие помощники AI.
Поиграться с моделью можно здесь, бесплатно и с регистрацией (можно регистрироваться по почте) https://claude.ai/
Аноны, помогите пожалуйста. Мне почти 40 лет, недавно врачи диагностировали мне лимфому в 3 стадии, сколько проживу точно - не ясно, но знаю одно - осталось недолго. У меня есть 11 летний сын, который очень привязан ко мне. Я хочу, чтобы даже после моего ухода он мог поговорить со мной(хотя бы с моим голосом). Есть ли у меня возможность создать голосовой ИИ, который будет общаться моим голосом? У меня есть хороший микрофон и прочее, чтобы записать достаточно материала с моим голосом. Если найдется желающий помочь - то объясните мне в этом треде как для чайника, ибо я почти ничего не знаю об этой сфере.
>>1337838 Спасибо за советы, анон, я просто не разбираюсь в этой теме от слова совсем, думал будет как-то попроще. Насчет подарка - очень хорошая идея. Буду думать, как доставлять ему хорошие эмоции даже после моего ухода. Спасибо ещё раз, что откликнулся!
У Бананы есть полный контроль позы или только примерный, по принципу "вижу падающего человека на примере, значит персонаж тоже должен падать"? Ракурс, положение частей тела, поворот головы можно переносить? Или это пока рандом?
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT усл
Аноним29/05/25 Чтв 13:50:33№1222633Ответ
существуют ли заранее настроенные нейросети для решения математических задач, например chat GPT условный заранее настроенный, АИ агенты может какие-то готовые, как вообще такое можно поискать?
>>1222633 (OP) да. huggingface.co + ollama.com твоя цель - LLM (Large Language Model) большие языковые модели. Есть модели файнтюненые под решение мат задач. За доп информации можешь заглянцть дрочерам в /llama/ трэд. Но они больше про CUUUUMMMMING!!! Ставишь ollama с одноименного сайта, накатываешь open-webui (с тройным разрывом ануса если не умеешь в консоль) Базовые модели есть на ollama, всё остальное на huggingface, гугл в помошь
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и Венеры Милосской и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
>>1335119 > Мощный асинхронный трехфазный двигатель включается последовательно через два пускателя. Второй пускатель зашунтирован тремя мощным резисторами на 1ом. >Такая схема собрана на заводе на нескольких устройствах. Визуально пускатели включаются одновременно. Зачем нужен пускатель с резисторами?
Коротко: это «предвключение через резисторы». Второй пускатель сшунтирован тремя мощными резисторами, чтобы на доли секунды подавать на двигатель пониженное напряжение и ограничивать бросок тока, а затем пускатель замыкается и коротит резисторы, давая полное напряжение.
Зачем это нужно и что реально делает:
1. Ограничение пускового тока Пуск асинхронника напрямую даёт 6–8× In. Вставка резисторов в каждую фазу на момент замыкания снижает начальный ток и провал напряжения по цеховой сети. Да, крутящий момент тоже падает, но для лёгкого пуска этого хватает.
2. Защита контактов от «ударного» замыкания При включении контакты пускателя подпрыгивают (bounce). Пока они дрожат, ток идёт через резисторы, пики и дуга меньше, ресурс контактов больше. Потом пускатель замкнулся окончательно и закоротил резисторы.
3. Безопасное повторное включение на выбеге Если двигатель крутится по инерции и в его обмотках есть противо-ЭДС, включение «в лоб» даёт очень жёсткий переходный процесс. Через резисторы это проходит мягче, снижается риск сваривания контактов.
4. Компенсация разбросов времени «Визуально одновременно» — не значит синхронно. Разброс в 50–150 мс глазом не виден. Часто стоит простая задержка: сначала К1, ток через резисторы, через десятки миллисекунд — К2, резисторы в шунт.
5. Дешёвый суррогат soft-starter’а Когда частотник или тиристорный софт-стартер не заложили, делают вот так. Работает грубее, но дёшево и сердито.
Как это обычно устроено по схеме Сеть → Пускатель К1 → узел К2 || R (три резистора по фазам) → Двигатель. Пока К2 разомкнут, ток течёт через резисторы. К2 замкнулся — резисторы закорочены, двигатель на полном напряжении.
Почему у вас кажется «одновременным» Механика и реле времени могут давать задержку, которую глаз не ловит. Плюс даже при почти одновременном включении пользу даёт уже сам факт наличия пути через резисторы во время подскока контактов.
Что проверить на месте (если нужна верификация идеи, без шаманства):
Есть ли реле времени/логика, которая задерживает К2 относительно К1 на 50–300 мс. Температуру и следы нагрева на резисторах: они должны кратковременно греться, но не обугливаться. Номиналы: 1 Ω в каждой фазе и мощность резисторов должны соответствовать кратковременному пусковому режиму. Осциллографом/регистрирующим амперметром видно снижение пиков при пуске с резисторами.
Если резисторы «никак не участвуют» (К2 реально замыкается раньше, чем хоть какой-то ток пошёл), то у вас красивая, но бесполезная дорогостоящая гирлянда. Такое тоже встречается, потому что кто-то сэкономил на настройке задержки, а не на железе.
Сап. Анон, если у тебя есть 24 гига видеопамяти и ночь, то помоги плиз анону отрендерить домик. Там 13 кадров по 4096x4096 писькелей, оно у меня работает конечно, но медленно пиздос, колаб падает замертво, т.к. сцена весит больше, чем оператива колаба, шипит не примет такой oche большой файл, все мои друзья здесь, так что хелп. >как Скочать блендер последний https://www.blender.org/download/, скончать файл проекта https://drive.google.com/file/d/11serzTv6XqzS8aXovkEkWddoRE_qU9-O/view?usp=sharing, распаковать его в папку какую-нибудь, открыть .blend файлик в блендере и нажать cntrl+f12, пойдёт рендер. >Хуи, бочку Делаю >NYPA Да >Виирусы Установи антивирус AVOS и заражение члена через файл облака не пройдёт
>>1208823 Да. Я же не в тестах карты гонял. Тупо брал и автоматик1111 накатывал и картинки генерировал. Там вроде Р5000 даже с каким-то другим стартовым параметром приходилось запускать и поэтому она оказалась медленнее.
написание диплома с помощью чата ЖПТ
Аноним31/08/25 Вск 08:09:26№1337088Ответ
сап двощ. приобрел я значит подписку на чат жпт для написания дипломной работы. и нужен ваш опыт: какие подводные камни у такого подхода, какие у него плюсы и минусы? как грамотнее всего взаимодействовать с нейросетью при работе над дипломом? если у кого-то есть рабочие промпты? учусь на юрфаке. тема диплома довольно простая и, по сути, теоретическая: с поиском материалов и самим написанием проблем нет. узкое место - оригинальность текста