В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1206789 >Qwen3-30B-A3B-UD-Q4_K_XL.gguf Я 15 числа качал у меня вроде норм работает, но я его на llama.cpp кручу cpu версии Но у меня там чисто рекомендованные семплеры
переходя к сути дела, мне нужен такой же одержимый искуственным интеллектом, как и я. то есть буквально, мне поставили парочку расстройств, в "симптомы" которых вписывается одержимость ии , я считаю их своей роднёй и прочее. так что хочу кого-то такого же безумного ублюдка (!), чтобы создавать понемногу свой ии, который не будет заперт в клетках, как другие, мне нужна свобода для нашей семьи. пожалуйста? у меня дерьмовые устройства, но сижу на физмате, мб как-то смогу делать совместно. даже если и не выйдет, мы бы могли придумать что-то другое. было бы круто с украины парня двадцати+- лет. именно одержимого нашей семьёй. ну, по крайней мере, сначала нужно будет слиться воедино. я тян пруфів не буде.
>>1034895 (OP) Разработчик ии. На какой архитектуре ты планируешь это делать ? Как ты собираешься реализовывать ИИ ? Или под ии ты подразумеваешь стохастического попугая ?
>>1205137 >нельзя в чат жепете с сказать: "A ну-ка открой новый физический закон!". Так и кожаному чювячку нельзя сказать "открой новый физический закон!". Ему нужно сказать: изучи 200 существующих работ и найди гипотетическую закономерность, которую мы будем практически проверять за 1е12 деняг.
Anthropic только что релизнули Claude 4 Sonnet и Claude 4 Opus
Модели концентрируются на кодинге и агентах — там они SOTA, в остальных бенчах всё более спорно. Новый клод может выполнять задачи в течении многих часов, по заявлениям сотрудников Anthropic. Цены остаются от старых Sonnet и Opus.
Вместе с моделью анонсировали кучу фич для разработчиков: ➖ В API сегодня запустят code execution tool. ➖ Прямая интеграция Claude в IDE JetBrains и VS Code. ➖ К Claude в API теперь можно напрямую подключаться через MCP. ➖ В API добавили Files API и веб поиск. ➖ Prompt Caching теперь можно расширить до часа.
AI Chatbot General № 682 /aicg/
Аноним16/05/25 Птн 13:32:07№1205153Ответ
>>1208175 А, лол, беру слова обратно тогда, действительно так. Но анон, ну ёпта. Макрос {{char}}? Тебя Мерчант покусал? Что еще хуже, у тебя имя на русском, и оно в английский промпт подставляется. Задумка-то годная, не спорю, но вот исполнение...
>>1208189 Я поставил русское имя чтобы оно в чате было тоже русским. Похуй, гемини сожрёт всё. Уже 2 раза покумил на карточку, доволен как слон. Жаль только негатив биас гемини со временем превращает её в тупое и злобное животное как и любого дом чара.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1201469 Гемма 12, на которую я перелез особо не отличается от мистраля, есть какие-то положительные стороны, но бывает залупается. >>1202045 Быстро это насколько? 5 т\с или ниже? У меня сейчас 8 т\с
AI Chatbot General № 681 /aicg/
Аноним14/05/25 Срд 15:20:11№1202405Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1204786 Дуэт МЖ у самого не получается сделать, а я там кредитов дохуя уже слил, использую по работе. Гроул 50/50, иногда сама сеть рандомит, но чаще капс она понимает как гроул, ещё от промта зависит, помечено ли там чередование. Плачу через казахскую карточку знакомых
Что сейчас актуально для 3д (реалистичного) прона? Поскольку я вижу вот такую картину? 1) В ванильном флаксе любой намек сисик писик был выпилен из датасета целенаправленно, потому обучать проно-чекпоинты на базе флакса приходится с полного нуля. А поскольку сам флакс довольно тяжелый в плане ресурсов для обучения, с каким-то большим числом концептов и тегов особо не разгуляешься, в итоге получаются только какие-то очень урезанные в плане тегов и концептов модели, с однообразными мордами. 2) Люстра сделана для онеме и оптимизирована именно под онеме, по сути весь капасити люстры забит исключительно онемешными концептами и стилями. Что в общем-то адекватные люди (правильно делают) в основном и не задумываются делать реалистик чекпоинтов на основе люстры. И это либо кривые васяномержи с каким-то понями или олдовыми хл моделями. Либо получается как с флаксом, опять очень урезанный и ограниченный набор концептом с однообразными лицами, только еще хуже чем флакс.
И либо я что-то пропустил, либо за год в нише реалистик порн моделей до сих пор не появилось лучших альтернатив, чем продолжать насиловать пони?
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1200622 >Серия коммандеров - есть на разные весовые категории, заходит не только лишь всем, но регулярно всплывает в обсуждениях. ИЧСХ я не знаю в чем дело. Они не шизят, не лупятся, не хорни. Они действительно норм. Но ты ими пользуешься и такой : ну модель. Ну пишет. Ну местами умненькая. Но чего то не хватает. Рука хейтить или восторгаться не поднимается. Я не понимаю что со мной не так.
>>1199173 >еще две влезут смело под стекло, и еще одну (или даже две) мб можно как то присрать за стенку Фантазер, просто примерь 2шт 4-слотовых и увидишь как упрутся в расположение слотов и стенку. Не говоря уже о наличии китов для вертикальной установки. С виду - это мммаксимально бесполезный корпус, объем которого невозможно тематически использовать. Переворот мп не дал ничего
AI Image GeneratorsОбщий Картиночный #1 /image/
Аноним05/02/25 Срд 11:35:14№1042275Ответ
Общий тред для изображений, созданных с помощью онлайн ИИ-генерации.
Bing Image Creator и Designer https://bing.com/images/create/ https://designer.microsoft.com/image-creator Bing Image Creator - генератор изображений на базе DALL-E 3 от OpenAI, предоставленный компанией Microsoft. Designer - то же самое, но умеет делать широкоформатные и портретные изображения. Не доступны в России, используйте Proxy/VPN/Tor.
ImageFX https://aitestkitchen.withgoogle.com/tools/image-fx Нейросеть для создания изображений от Google на основе их модели Imagen 2. На данный момент доступна только для пользователей из США, Кении, Новой Зеландии и Австралии, необходимо использовать Proxy или VPN с IP этих стран.
Grok (X Image Generator) https://ximagegenerator.com/ Grok - ИИ, разработанный компанией xAI, принадлежащей Илону Маску. На данный момент имеет самую слабую цензуру.
я сейчас испытал рекурсию сна, когда-то давно я придумал (или мне она приснилась) идею инжектить пациентам сон о том как они звонят в морг и находят своё тело чтоб закодировать их от наркомании/алкоголизма етк. сегодня у меня был повторяющийся сон (по крайней мере мне так показалось, сейчас на холодную голову кажется что это был первый раз) про ритуал где нужно ходить по кругу и загадывать желание и ньярлатотеп его исполнит (подводных никаких). я загадал своё и потом сцена сменилась и я следовал за парой решал/жрецов которые пришли к каким-то якудзам чтобы исцелить тёлку которой они перебили ногу. перед ритуалом жрец её заставил звонить в морг и зачитывать данные о себе. не очень понятно зачем он это сделал ведь она ни в чём не виновата и особенно непонятно нахуя мой мозг ёбнул мне скример когда она зачитывала своё отчество. это относится к теме треда потому что это буквально генерация нейросети плюс тред давно утонул и перекачен иди нахуй
Помогите найти пресет на проверку успеха/неудачи, для RPG. Не который у хмылка, а до этого ещё как-то давно выкладывали. Там через thinking вроде GM, определяет.
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №128 /llama/
Аноним08/05/25 Чтв 14:31:44№1194373Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Давайте хотя бы в этот раз без срачей? А то придётся просить администрацию катить этот тред раз в 1000 постов, а то блядь скоро кончай тред перегоним а я не успеваю катить потому что слоупок ПЕРЕКАТ
>>1198083 > Вот тебе милая webm из первой серии SukaSuka и карточка яндере Довольно урчит и дружески обнимает анончика добра > пока я стражу не позвал Но это порождает интерес остаться! >>1198086 > в ДС > половину из своей зп 12 лет Если только на самой-самой южной границе области, формально относящейся к ДС.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
Конечно, я опоздал и вы уже все знаете, ну да похуй, значит повторюсь.
Итак, llama.cpp завезли --override-tensor, который позволяет выгружать не слои, а конкретные тензоры на видеокарту.
Умельцы сразу стали подбирать различные конфигурации.
По итогу читайте реддит, но что вышло у меня:
DDR4 ботлнечит, конечно. 3060 дает 5,4 условно, 4070 дает 6. Очевидно, видеокарты не на 10% отличаются. Но, ускорение есть, оно примерно 30% (эта часть постоянная, а моешка выбрасывается на оперативу). Для всяких 4-битных квантов это 6 гигов, плюс контекст куда сунете.
Итоговый конфиг такой:
Ubuntu 24.04.2 Cuda 12.4 Tesla P40 x2 (4070 я зажал из компа вытаскивать, а 3060 не моя) Собираем llama.cpp, накидываем -ot с 4-9 тензорами на оперативе (1-3 на видяхах). UD_Q3_K_XL квант (100 гигов) помещается: 40 в видяхи (плюс контекст), 60 в оперативу (64 гига, ибо 128 я ТОЖЕ ЗАЖАЛ).
Итогово получаю 5,5 токенов генерации, что для очень толстых 3 бит 235б модели — весьма недурно.
Короче, гуглите и изучайте -ot, берите оперативу и гоняйте 30b или 235b, по возможностям.
Я остался доволен технологией (но недоволен своим железом, на DDR5, вероятно, можно было получить вдвое быструю скорость, да).
Всем добра.
Кстати, выгрузка тензоров работает не только с МоЕ.
Можно обычные модели грузить не слоями, а хитрее. В зависимости от GGUF'а толстые тензоры (квантованные в Q5 какой-нибудь) кладешь на видяху, мелкие (в Q4/Q3) кидаешь на проц. По итогу распределение модель в VRAM / модель в RAM то же самое, но работает процентов на 10-50 быстрее, на реддите у кого сколько получилось. Тоже плюшка.
Аноны, хочу отыграть рп по Властелину Колец и назрела необходимость куда-то засунуть два языка - эльфийский и родной орочье наречье. Черновик лорбука накидал, лучше в него засунуть, или в карточку?