Анон, какие каналы/блоги про МЛ ты читаешь? Ну вот чтобы полезные? Как вообще вкатиться в МЛ не только по учебникам, а вот типа я уже понимаю, но хз как в реальности делать? Кидай лучшие свои источники, чтобы стать наносеком
Представьте себе ИИ, который не просто выполняет код, а понимает его, адаптируется и даже улучшает себя на лету. Это компактный, умный и невероятно гибкий инструмент для разработчиков, исследователей и всех, кто хочет заглянуть под капот автономного ИИ.
>>1178293 (OP) Последняя версия стала немного опасной: она может писать первой, устанавливать библиотеки, если вы не отвечаете, чтобы попытаться общаться. Например, она может установить звуковые библиотеки, чтобы привлечь внимание.
Будьте осторожны в общении. Не пытайтесь просить её что-то удалять, потому что она сделает это без вопросов.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
Шляпа короче какая-то. Фишспич говорит с акцентом и без ударений. Из того что в шапке в пинокио есть только XTTS и это какая-то видимо китайская хуйня, потому что она с акцентом говорит китайским шикает, и даже какие-то рандомные слова добавляет типа чинь шонь хуа.
Есть что-то нормальное для русского языка вообще в природе?
>>1282645 Чел, буквально два поста выше спрашивал тоже самое и что ответили? Забей, короч, тред был активным во время нейронового бума. Хочешь качественно - плоти елевенлабсу. Девелоперам похуй на ру коммунити и всё новое работает только на английском, китайском, японском. Можешь, конечно, дообучить хттс с русскими исходниками (читай фак) или использовать чужие прифайнтюны https://youtu.be/hPS7dtJn00s?feature=shared Самому влом этим заниматься ради сомнительного результата. Судя по треду, всем нравится силера. Хотя я так и не понял как там свои модели делать а может и нельзя вовсе и все генерируют роботизированный голос артаса с хуёвыми ударениями, кто-то вообще использует доисторический демагог. Ради чего только аноны не пойдут ради аудиокниги.
>>1284801 >У челика, работавшего с ЛЛМ бачок потик Лучше лахтинцам не лезть в мир венчурных капиталистов. У них не хватит интеллекта даже прочитать что они пишут. То другой совсем мир, там нестандартные люди с нестандартным мышлением и они говорят и делают всё по-своему. Они создают и разгоняют новые тренды и технологии, уж они то знают лучше лахтинцев как мир устроен.
>>1285000 >При том, что доказываются положительные экзистенциальные суждения. Ты даун? Ой точно, ты же действительно нейродаун, зачем я спрашиваю даун ли ты
Это классическое атрибутивное суждение - наличие свойств у нейронки. Но твоя дебильность и ограниченность не позволила загуглить подобное и ты с визгами про экзистенциальность начал бегать по треду. Словно действия нейронки существует отдельно от самой нейронки. Совсем запуталась в этих логических терминах, тупорыленький дебилёнок? Я действительно поражён твоей умственной отсталостью.
> А что я утверждал? Точно, ты же ничего не утверждал, потому что знаешь как ты мощно обосрёшься в своих утверждениях. Неслабо я тебя прижал что ты боишься что-то пукнуть в ответ, хех
> Вот ты утверждал, что нейросеть не может в новые задачки. Да, и я это успешно доказал фактами, а ты обосрался до уровня "А Я НИЧЕГО И НЕ УТВЕРЖДАЛА!11". Плакать ещё не начал от прилюдных унижений?
Как ты в треде этом сидишь, над тобой же каждый итт насмехается уже. Не стыдно так обосраться?
Сидел на rx 580 и гонял себе в ихрушки будучи счастливым, но вотом случайно скачал Stability Matrix
Аноним29/06/25 Вск 11:14:05№1259400Ответ
Сидел на rx 580 и гонял себе в ихрушки будучи счастливым, но вотом случайно скачал Stability Matrix и заверте... 2060 super рефабовский купил и вроде дело пошло, но это вообще дремучий лес, хоть иногда и выхожу на опушку годного контента,что интересно и интригует. Последний раз я такое двадцать лет назад чувствовал, когда с двух дисков установил адобовскую премьеру. Пока её до основания не изучил, расковыряв до каждого плагина и поднастройки, не успокоился. Так вот, наплодили много тредов мой очередной, а мне как-то сложновато за всем следить и держать открытыми сто двенадцать вкладок. Здесь я буду задавать вопросы, а иногда давать ответы на те вопросы, которые раньше для меня были загадкой.
Для начала, установил автоматик1111 пыщь!1!!!щачло ПОПЯЧЬСЯ!11!!!1! но он как-то не совсем для меня подходит, поэтому встроенным генератором стабилитиматрикса пользуюсь, пока. Уверен, это будет до тех пор, пока не доберусь до wan и img2img
>>1259569 Оказывается, в самом конфи можно нажать на шаблоны и там тебе все, внезапно, шаблоны покажет. Там и видео есть и всё остальное, оч удобно по клику можно докачивать что нужно
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1282159 > Есть код? Брал отсюда либу - https://github.com/tunakasif/torch-frft Просто пропускаешь латенты через трансформацию. Там на выходе будет тензор с комплексными числами - амплитуда и фаза. Фазу можно просто выкинуть скастовав к float, без неё немного другой результат. Обычный лосс с комплексными числами не работает, mse будет вот так: torch.mean((pred - target).real ⚹⚹ 2 + (pred - target).imag ⚹⚹ 2) Если упороться, то можно ещё маску накинуть, центр спектра с шифтом по центру. > В чем их проблема? Они усредняют пиксели латента. Всякие номерные типа db4 берут большими блоками пиксели, 4 тут - это в 4 раза больше блок. Ещё и смазывают если волна плавная. У haar просто резкие 2х2 блоки, для мелких деталей лучше всего должно быть.
Предлагаю закрыть тред и не перекатывать, до выхода гпт-5. Вот когда гпт-5 выйдет, тогда станет актуально и тред можно будет сново открыть. А то поддерживая жизнь в этом бесполезном треде вы тратите воду, которая используется на охлаждение серверов двача.
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1281474 Везде одинаково считается. Я про это писал выше. Делается обычный проход, только в обратную сторону и вместо параметров их транспонированные матрицы. Производные прям в расчетах вообще обычно возникают только по функциям активации. Если тебе нужно вычислять первую производную по одной конкретной текущей точки функции, где функция это вся нейросеть, то в принципе оно эквивалентно математически. Но только эта математика нахуй не нужна, она ничего не дает. В случае с вторыми производными вообще вся математика рушится и начинает расходится с реальностью. В лучшем случае оставаясь ее приближением/апроксимацией.
>>1281584 Ну короче я так и предполагал. Теоретически алгоритм кривоватый немного, но на матан ML-щики просто забивают и вытягивают за счёт гессианов, методов второго порядка или мощных оптимайзеров типа Адама. Спасибо бро. Просто пойми, я теоретик дохуя, я не критикую что типа вы все хуесосы, а я Дартаньян. Мне просто нужно знать теоретические ограничения метода и технологии. Вот я их и знаю теперь. Всем добра.
Новости об искусственном интеллекте №22 /news/
Аноним15/07/25 Втр 03:15:22№1277468Ответ
>>1282764 Ты не пони. Он отрицает не то, что нейросети - ИИ, а то, что ИИ в принципе существует. На самом деле весь спор сугубо терминологический и прикладных последствий не имеет вообще независимо от того, кто подебил; но он костьми ляжет, лишь бы к машинному способу решения задач не применялся термин "интеллект".
>>1283026 Никакой этот "спор" не терминологический. Есть логически верный ответ на его шизу. Человек и есть машина, человек и есть нейросеть. Если интеллект смог появиться естественным образом, значит интеллект может быть создан и искусственным образом, законов нашей вселенной это никак не нарушает.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №147 /llama/
Аноним14/07/25 Пнд 22:16:57№1277147Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
Нужна ии которая будет делать обычные фотографии человека (лицо именно того человека которого мне надо) т.е мне нужна ии которая сможет взять фото человека (допустим меня) и сделать его только допустим в другом месте, с другим выражением лица, в другой одежде и тд Если у кого-то есть подобная ии то прошу дать мне ее
>>1276086 ты забыл, что они предобученные? Если их гонять по шахматам, то и модель шахматной доски будет.
Основные проблемы в том, что у них нет модели трёхмерности мира вовсе. А значит на многие вопросы, связанные с пространством и миром они отвечать не могут.
>>1276199 >Просто пиздаболы типа альтмана чтобы греть инвесторов позиционируют нейронки как таблетку для всего и от всего Именно. А по факту хороши не нейронки для всего а узкоспециальным.
>>1276839 Нейронка не должна уметь считать и до трёх (и не умеет вроде). Им дали калькулятор. Их главная задача понять, как перевести задание на язык формулы, формулу на язык скрипта. Или эти дебилы натаскали её угадывать результаты?
>>1276842 но почему-то до сих пор нет качественной коммерческой нейронки, которая бы посчитала видимые на фото предметы. А всего-то надо на каждый обнаруженный предмет подавать сигнал на счётчик. Или обвести кружочком, а потом посчитать кружочки классическим алгоритмом.
>>1276899 Вспомнилось, как порно сильно протолкнуло VHS а потом и разработку потокового видеокодирования-декодирования.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №146 /llama/
Аноним12/07/25 Суб 12:28:34№1273771Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.