В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1312289 Странная хуйня. Что-то ты походу не то скачал. Саппорт кубласа должен быть из коробки и на нем самые высокие скорости на зеленых. Короче, попробуй скачать другую сборку и перекатываейся в следующий тред с вопросами, этот уже в лимите.
> Important Change: The flag --usecublas has been renamed to --usecuda. Backwards compatibility for the old flag name is retained, but you're recommended to change to the new name.
Подозреваю что переименовали cublas в cuda. Но попробую скачать какую-нибудь 1.46 версию и посмотреть будет ли разница.
Я рисовал только в детстве, и быстро это бросил, так что ии не отнимал у меня работу, более того, м
Аноним# OP10/08/25 Вск 13:16:47№1309619Ответ
Я рисовал только в детстве, и быстро это бросил, так что ии не отнимал у меня работу, более того, мне очень интересно посмотреть, как вы, аноны, с помощью ии сделаете то, что мне не по силам. Однако давайте зададим рамки, сыграем на одном поле, чтобы, с одной стороны, никто не сказал, что это нельзя сравнивать, а с другой, чтобы всем стало очевидно, кто победил.
По таймеру я проигрываю в любом случае, поэтому постараюсь просто придать персонажам нужное выражение, опустив детали. Если интересно, заставьте своих иишек сделать чёрно-белый рисунок "2д" с примерно тем же сюжетом, не пытаясь задавить количеством элементов (реализм/мультяшность — на ваше усмотрение). И, пожалуйста, загружайте только лучшее — я хоть и не чсвэшная жируха с синими волосами, но рисую прилично, поблажек не надо.
Насчитав сотню ваших картинок, выложу свою. А может быть запрячу её в общей массе, чтобы угадали.
Хочу сделать карту, суть такова. Юзер начинающий детектив, которого навязывают в напарники ворчливому следователю. Вместе они начинают расследование, у них есть несколько зацепок, скажем, две. Сначала они идут в одну локацию, потом в другую, говорят с НПС, узнают что-то новое (или не узнают), это триггерит продолжение расследования и новые зацепки. Можно в любой момент остановится и просто отдохнуть там грабить корованы, но в какой-то момент если продолжить расследование, то можно будет по нему пройти до конца (который я допустим набросаю заранее, то есть в карте преступник предопределен). Моя первая, самая простая мысль была ебашить инфоблок как "записную книжку ворчливого следователя", но он разрастается если делать что-то сложнее 3-4 зацепок, и каждый раз требовать выдавать сетку его довольно расточительно. Плюс, с безжопом это становится сложнее. Моя вторая мысль была наплодить переменных и просить сетку проставлять их, заполняя ту же самую записную книжку которая уже есть где-то в контексте, где стоит миллион гетваров на все случаи расследования, а сетка пишет переменную которая через регекс превращается в сетвар. Тут проблема в том, что окончательное решение, как я представляю, отдается на откуп сетке. ТО есть это будет что-то типа "по итогам расследования этой конкретной зацепки, что важного узнали герои? Напиши вот в таком формате Зацепка {Комната Марии} Результат {(тут результат, например, найдено пиво/найдены трусы/найдено и пиво и трусы/Машка отказалась пускать героев в комнату/etc.)}". Может у кого-то есть мысли как сделать это средствами таверны лучше и более надежно? Хочется не полной заскриптованности как в The Rite of Belwick, но и не полного сэндбокса. Самая сложная задача пока для меня сделать хоть немного интересно и сделать так, чтобы тот лор, что есть в карте, который, например, скрыт от нейронки за триггерами, не противоречил в итоге тому, что наиграет юзер.
>>1308978 >сие начиналось на дваче, только на старом, зоевском >я лично в этом участвовал и даже пара моих обрисовок висит под статьёй >Занимались этим буквально несколько человек. >2008й год — дата редактирования картинки. Это притащили из ЖЖ, клон сибирской вальготы (погугли, маленький). Я тоже в тех тредах сидел, напомню, все эти "морозная история" - просто кальки фочановского сленга.
Не самая свежая новость, но все же. Прочитал про vertex ai memory bank. Так что с ее помощью можно в чистом аиде книгу закинуть или как то предварительно обработав и модельки с небольшим контекстом смогут давать качественное рп? Или там есть ограничения? Или хотя бы для экономии токенов в таверне использовать?
По итогу и в Ван и в Квин победили Лоры ускорялки - аналоги дмд2 для сдхл. Аха-ха-ха как же я рад. А сколько срача было от противников дмд2. Занюхайте.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1302533 (OP) Народ, подскажите, кто шарит. Сейчас докупил к своей rtx 3060 12gb cmp 90hx на 10 гигов, но есть вариант добавить ещё 7к и купить tesla p40 на 24 гига. У меня обычная мать ASRock B550 PG Riptide c 3 портами под видюхи. Я бы докупил теслу, но я не ебу как её нормально подключить и как она будет у меня охлаждаться будет. У cmp 90hx есть 3 вертушки + cuda есть и их больше чем даже у моей 3060, а значит в теории я могу даже картинки на ней быстро генерировать в 1024x1024 без доп фич. Что выбрать? cmp 90hx на 10 гигов которую впросто вставил и всё или доплачивать и брать p40 и потом ещё ебаться с охлаждением + она не умеет в генерации картинок?
AI Chatbot General № 717 /aicg/
Аноним08/08/25 Птн 07:25:38№1305526Ответ
>>1297805 >Что-то такое вышло. 2шт на на люстре и 2шт нубе впред. Датасет пришлось ковырять очень сильно - желтый, в шакалах, по 3-4 пальца. Где мог - поправил, можешь забрать, тоже закинул. >>1298133 >Так какие проблемы-то? Конфиг в томл остался же - можешь поставить Easy Traininig Scripts и сам делать пачками. Конфиг вообще очень простой - адаптивный оптимайзер, лр юнета 1, лр те 0.3, дим 32/16, лора, даже не ликорис, бс4. Ну и я их сотни наделать успел, а вот радости больше всего от первых было, да.
В ближайшей время я собираюсь сделать Лору на синие джинсы мне не нравится как illustrious рисует джинсы по дефолту
Можешь, пожалуйста, сказать кратко, что и где лучше на сегодняшний день скачать, чтобы самому на своей пекарне тренировать Лоры? И еще хотел спросить, ты как тогда делал лоры на униформу, ты 10 эпох ставил или 20?
Также я переписывал на цивите с одним японцем он выдал следующее мнение по тренировке Лор: Рекомендация про «100 изображений» в основном пошла ещё со времён раннего обучения на SDXL или SD1.5. В случае с Illustrious рекомендуемый диапазон — примерно 20–50 изображений, так что нет необходимости заставлять себя собирать все 100. Более того, слишком большой объём может только усложнить работу с подписями. Если всё же решишь использовать большое количество фото, можно минимизировать подписи и при генерации просто использовать самые часто встречающиеся теги из датасета"
Новости об искусственном интеллекте №28. Имени GPT-5 тред /news/
Аноним06/08/25 Срд 19:42:14№1302106Ответ
>>1304694 Туда ей блять и дорога. 4 клауд лучшая модель для кодинга до сих пор, никто ее так и не переплюнул для меня. Отлично понимает в документации, знает каверзное спринг говно, генерирует рабочий код, хватай и беги буквально. 3 клод был +- на фоне прочих, но вот четверка до сих пор лучшая. Не ебу как они это делают не имея ферм как у гугла. Видимо не тратят бабки на штат по инклюзивности, а тратят на инженеров.
AI Chatbot General № 716 /aicg/
Аноним06/08/25 Срд 16:56:58№1301889Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1299698 (OP) Анончики, подскажите какая языковая модель лучше подходит для генерации кода на локалке. Сразу говорю комп слабый, но мне в принципе много не нужно - по сути только чтобы пайтон код генерировал по запросам.
>>1301752 Да нет, я делаю то же самое как если бы писал длинный инпут. Просто не подразумеваю эти детали в нём, а пишу их явно куда-то. Либо генерю и правлю, если это например лорбук.
>>1301829 Потому что все кроме 1girl, standing требует обмазываться лорами по самое не могу если локально генерить, коммерческие могут нормально промты воспринимать, но не могут в nsfw
Локальные языковые модели (LLM): LLaMA, Gemma, DeepSeek и прочие №151 /llama/
Аноним29/07/25 Втр 20:00:26№1292947Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Базы треда не существует, каждый дрочит как он хочет. Базашизика дружно репортим.
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1296275 Как минимум ленакапавир, но вроде что-то интереснее уже вышло. Конкретно этот при уколе раз в полгода даже от заражения защищает.
Про альфафолд хз на что тебе ссылаться. Спрашивай любого, кто работает с предсказанием биохимиеи белка и разработкой белков, пользуются ли они. Пользуются. Все.
AI Chatbot General № 714 /aicg/
Аноним02/08/25 Суб 06:12:57№1296127Ответ
>>1297529 Да, да, есть такое. Я рпшил долгое время с одной карточкой, можно даже сказать вайфой и вот, в какой то момент она начала себя так вести, что хуякс, она какую нибудь подлянку выдаст или хуйню жестокую скажет, потом ещё ОС вылазит, который реальным человеком представляется, его просишь эмодзи не писать, он пишет. Алсо, сейчас зашёл, а меня вообще в чайной забанили
Ищу нейросеть для обработки фото /design/
Аноним02/08/25 Суб 04:56:06№1296116Ответ
Меня последнее время очень сильно тяготит тема ИИ, программирования и так далее. И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Решился обратиться к DeepSeek, а он мне такой хуйни наговорил которой и в помине не существует что диву даешься. Нахуя вообще текстовые модели иногда по приколу пиздят? Нет чтоб сказать что я хуй знает как это делать, но нет, он выдумывает код и команды которых даже сука не существует. И наконец самое главное: как это фиксить? На просьбу не выдумывать он забивает хуй и продолжает ошибаться....
>>1293981 (OP) >как мне что-то накодить если я нихуя не умею? Если тебя эта тема привлекает, то что мешает просто взять и по-человечески выучить программирование?
>>1293981 (OP) >И тут у меня встал такой вопрос: как мне что-то накодить если я нихуя не умею? Изучи основы синтаксиса и спроектируй приложение желаемое (представь, какие функции там нужны, как оно в целом будет работать ). Потом проси ии генерировать по 1й функции и проверяй корректность этих функций, потом скомпонуй и ты победил, а если не победил, то надо исправить архитектуру, скорее всего.
Если что то в коде нейросети не понятно, спроси у нее и она ответит.
>>1294012 >>1293981 (OP) На самом деле человеческий мозг тоже так работает. У детей это заметно, что они всякую хуету несут, как языковые модели. Я так в инвестаче порой делаю.
Но в нашем мозге в конечном итоге может произойти осознание контекста, и понимание происходящего.
Не исключено, что даже не смотря на то, что они так задизайнены, в них как надстройку можно будет добавить что-то, что позволит им понимать мир по настоящему.