1. Доска предназначена для любых обсуждений нейросетей, их перспектив и результатов.
2. AICG тред перекатывается после достижения предела в 1500 постов.
3. Срачи рукотворное vs. ИИ не приветствуются. Особо впечатлительные художники и им сочувствующие катятся в собственный раздел => /pa/. Генераций и срачей в контексте всем известных политических событий это тоже касается, для них есть соответствующие разделы.
4. Это раздел преимущественно технического направления. Для откровенного NSFW-контента выделена отдельная доска - /nf/, эротика остаётся в /ai/. Так, порнография и голые мужики теперь отправляются в /nf/. Фурри - в /fur/. Гуро и копро - в /ho/.
Где самый качественный реал-тайм переводчик, чтобы я ему на русском а он сразу на англ говорил ответ и когда слышит англ то сразу на русский ответ. Какие то варианты кроме чатгптплюс есть? И удобно ли там вообще это реализовано? Не тупит не лагает эта хуйня? Надо общаться с иностранцем на постоянной основе, хз как сделать это максимально удобно и бесшовно
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1209753 > GLM-4 оказался очень интересной моделью! Отлично что его еще кто-то распробовал. Модель ведь реально классная, пусть и не супер детально в куме, но умненько. Цензура есть на всякую жесть и вроде как нигеров, на кум/канничку ему норм. >>1209771 https://huggingface.co/THUDM/GLM-4-32B-0414
>>1209753 >И, возможно, в модели нет цензуры из коробки >>1209810 >на кум/канничку ему норм Ну ну. >линк Да я нашёл, просто посчитал забавным газонокосилку.
>>1209758 Это вряд ли, если какой-нибудь Epyc мультиканальный купить, который 250 вт потребляет и к нему одну мощную видюху, то по электричеству норм. Окупится же за 2 года уже, если как гуголу плотить по 250 баксов. Хотя щас самый выгодный варик это покупать дипсик у дешевых хостеров, там вообще гроши. И ждать удешевления железа.
>>1208850 Есть промпт пикч? Я уже заебался в попытках облокотить женщину на что-то, то всеми своими культями ебучими лезет на объект, то лезет под объект
Общаемся с самым продвинутым ИИ самой продвинутой текстовой моделью из доступных. Горим с ограничений, лимитов и банов, генерим пикчи в стиле Studio Ghibli и обоссываем пользователей других нейросетей по мере возможности.
Общение доступно на https://chatgpt.com/ , бесплатно без СМС и регистрации. Регистрация открывает функции создания изображений (может ограничиваться при высокой нагрузке), а подписка за $20 даёт доступ к новейшим моделям и продвинутым функциям. Бояре могут заплатить 200 баксов и получить персонального учёного (почти).
Гайд по регистрации из России (устарел, нуждается в перепроверке): 1. Установи VPN, например расширение FreeVPN под свой любимый браузер и включи его. 2. Возьми нормальную почту. Адреса со многих сервисов временной почты блокируются. Отбитые могут использовать почту в RU зоне, она прекрасно работает. 3. Зайди на https://chatgpt.com/ и начни регистрацию. Ссылку активации с почты запускай только со включенным VPN. 4. Если попросят указать номер мобильного, пиздуй на sms-activate.org или 5sim.biz (дешевле) и в строку выбора услуг вбей openai. Для разового получения смс для регистрации тебе хватит индийского или польского номера за 7 - 10 рублей. Пользоваться Индонезией и странами под санкциями не рекомендуется. 5. Начинай пользоваться ChatGPT. 6. ??? 7. PROFIT!
VPN не отключаем, все заходы осуществляем с ним. Соответствие страны VPN, почты и номера не обязательно, но желательно для тех, кому доступ критически нужен, например для работы.
Для ленивых есть боты в телеге, 3 сорта: 0. Боты без истории сообщений. Каждое сообщение отправляется изолировано, диалог с ИИ невозможен, проёбывается 95% возможностей ИИ 1. Общая история на всех пользователей, говно даже хуже, чем выше 2. Приватная история на каждого пользователя, может реагировать на команды по изменению поведения и прочее. Говно, ибо платно, а бесплатный лимит или маленький, или его нет совсем.
Чат помнит историю в пределах контекста, размер которого зависит от модели. Посчитать свои токены можно здесь: https://platform.openai.com/tokenizer
Что может нейросеть: - писать тексты, выглядящие правдоподобно - решать некоторые простые задачки - писать код, который уже был написан
Что не может нейросеть: - писать тексты, содержащие только истину - решать сложные задачи - писать сложный код - захватывать мир - заходить на вебсайты (неактуально для 4 с плагинами, платим деньги и радуемся)
С последними обновлениями начинает всё чаще сопротивляться написанию NSFW историй и прочего запрещённого контента. Кумеры со всего мира в печали.
Я ненавижу эту сучару. Поставил простую задачу написать компонент для отрисовки прямоугольника со круглёнными углами. 4.5, o3 и прочие модели обосрались. Их код отрисовывал какую-то дичь. А бесплатный дипсик с первого раза написал рабочий код. Альтман сын проститутки, что он сделал с чатгпт, что он так отупел в кодинге.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
>>1203138 >Посмотри тогда еще Lion, это развитие SignSGD Не, лион с бетами точно не мое. Зато я перетрогал несколько типов сгдшек, и как грица "искал медь а нашел золото" - SGDSaI. Мне в целом понравился как работает SignSGD, как я уже писал, но у него есть недочет в виде того что он не учитывает важность/размер градиента вообще. С одной стороны это хорошо, он просто пиздит все подряд и адаптируется к датасету наплевав на всё. С другой стороны получается что он работает типа как ебучий ледокол в арктических водах. Погуглив еще дополнительные оптимы я нашел что есть SGDSaI, который учитывает размер и зашумленность градиента через gsnr. Как итог сгд начинает работать очень мягко и больше с тонкими структурами признаков, нежели с большими массивами всего говна и не реагирует на изменение дисперсии градиента во времени, такая реализация снижает влияние лр и поэтому там по дефолту стоит скорость 0.01, делая оптим частично адаптивным. Ну и схождение очень быстрое получается. Проверял на l1 и huber-snr, в случае со вторым структурно получается очень тонкая настройка модели (ну как бы у оптима есть данные по снр + тут лосс регулируется через снр полезный), l1 делает более точный результ к общим признакам датасета, но теряет в гибкости, уменьшая именно адаптацию (оттого меньше артефактов). Из минусов SaI в том что он снр считает единожды перед шагом, но я поменял код чтобы он вообще всегда обновлялся и различий между этими двумя методами ну так скажем никакие, то есть обновлять гснр получается и не нужно, поэтому это даже и не минус получается. В общем просто поделился информацией, работает хорошо, мне нравится.
>>1208814 Если че тренирую всегда BOFT + rescale, наиболее адаптивная структура выходит которая сама решает что где докрутить и не требует снижать влияние модели при инференсе (это можно конечно, и увеличивать можно, но там нелинейная зависимость у рескейл слоев, поэтому при условном 0.5 весе бофт рескейл лоры ее влияние трагически уничтожается, даже при 0.75 уничтожается, а при даже небольшом изменении веса с 1 до 0.99 получается уже другой результат). Если ты тоже гоняешь бофты, но нужна реализация классическая как у лор где указываешь дименшен и альфа коэф влияния, то отключай рескейл, но я бы не советовал особо такой ебанистикой заниматься, лучше просто констрейнт в 0.1 понижать вместо кручения говноальф.
Суп, аноны. Думаю что надо отдельный тред создать для инструментов с помощью которых можно конструировать тексты со сложной структурой (для книг, например) и редактировать его отдельные части. Короче про Sudowrite и NovelCrafter речь, не языковые модели а именно инструменты разработки текста которые используют модели.
Мой первый вопрос. А хули так дорого? Купил подписку Sudowrite за 20 баксов на месяц, 250к кредитов. Написал пару глав книги на 1100 слов и 50к кредитов как ни бывало. Использовал я Клод Соннет 3.7 на русском языке, если что.
>>1207087 Через Жалкую Таверну или через Гугол Студио? Как у нее с джеилбрейками, нормально переносит темы насилия и легкую эротику?
Пойми, анон, я в Судо не из-за поиска идеального решения вляпался. Только из-за проблем с цензурой. Если бы писал фемили-френдли тексты, наверняка бы выбрал другой сервис. А сейчас Судо еще и свою собственную модель Muse выкатили, полностью нсфв. Так что не знаю как и быть.
>>1208281 Я обычно комплексный промпт пишу на жанр, стиль, персонажей, сеттинг, ключевые элементы лора. Ну ладно, предположим что пишу фанфик по Геншину и нейросеть уже знает лор и персонажей. Синопсис будет таким:
Люмин получает в Гильдии Приключений Мондштадта задание от Барбары. Прибыв в церковь Люмин узнает суть дела. Барбара жалуется что некто украл ее трусики из прачечной, и это происходит уже не впервые. При этом трусики грязные, Барбара понятия не имеет кому они понадобились. Люмин не знает как решить эту проблему. Но Паймон предлагает идею - раз трусики грязные, то их можно найти по запаху. Люмин и Паймон находят бродячую собаку на улице Мондштадта. Они заставляют собаку нюхать промежность Барбары чтобы запомнить запах. Собака нюхает, но внезапно начинает лизать Барбару между ног. Барбара очень смущена, но терпит ради поимки вора. Собака берет след и герои отправляются за пределы городских стен. Недалеко от города они находят группу агрессивно настроенных Похитителей Сокровищ.
Nvidia K80 на 24GB
Аноним17/05/25 Суб 15:23:22№1206217Ответ
>>1208823 Да. Я же не в тестах карты гонял. Тупо брал и автоматик1111 накатывал и картинки генерировал. Там вроде Р5000 даже с каким-то другим стартовым параметром приходилось запускать и поэтому она оказалась медленнее.
SimSwap обрел покой, да здравствует roop. Или rope. Или facefusion. /deepfake/
Аноним13/11/23 Пнд 09:31:32№542826Ответ
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить его на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
А вы тоже заметили, что результат лучше, когда исходное изображение не браззерс какой-нибудь с идеальным светом, а любительская фотка на смартфон или скриншот с вебки.
>>1207831 Бля, я знаю, что такое VR порно, дрочил на такое в своем втором квесте. Но тут же обсуждают редактирование VR порнухи через face swap - вот про такое я не знал. Это нужны специальные модели, обученные на VR? Или VR "конвертируется" в обычное плоское видео, далее происходит фейссвап любой доступной моделью, а после этого обратно в VR?
Музыкальный общий №12 /music/
Аноним14/05/25 Срд 21:55:34№1203019Ответ
Вышла версия 1.5 Allegro, по функционалу то же, что и 1.5, только в два раза быстрее. Лимит 400 кредитов в месяц (или 200 генераций по 33 секунды каждая) при условии ежедневного захода на сайт - 100 кредитов даются в месяц, и еще 10 кредитов даются ежедневно. Также можно фармить кредиты, выполняя специальные задания по оцениванию качества рандомных треков, это дает не больше 10 дополнительных кредитов в день. Для большего числа кредитов и более продвинутых фич типа инпэйнтинга или генерации с загруженного аудио нужно платить. Появилась возможность генерировать треки по 2 минуты 11 секунд, не больше 3 длинных треков (по 2 версии на каждый трек) в день на бесплатном тарифе.
Новинка, по качеству звука на уровне Суно или чуть выше. Лучший по качеству генератор текстов на русском. Количество генераций в день не ограничено, но за некоторые функции нужно платить (загрузку аудио, стемов и т.д.)
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промпта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
______________ Напомню мега-сайт для сочинения аутентичных англоязычных текстов для ИИ-музыки в стиле известных групп и артистов от Пинк Флойда до Эминема. Зайти можно только через Дискорд.
>>1209830 Белые мужчины, англосаксы и протестанты. Как Сэм Альтман. Те кто голосовал за Трампа, потому что привыкли сами держать ответ за свою жизнь во всех делах.
>>1207999 (OP) >скачал Delibrate 5 от Xruct, генерирует не всегда точно и в целом багованно работает. полтораха это устаревший кал для стендингвумен в качестве порнухи, говно от хруста в целом говнофайнтюн >Если есть какие-нибудь нормальные порн нейронки? Прям порнофайнтюнов не очень много, но их достаточно чтобы делать че хочешь или тренировать на них свои фетиши.
Сейчас массивные модели только на SDXL существуют, прям целенаправленно нсфвмоделей на DIT и флоу архитектурах (флух там, хайдрим, сд3.5) нет, их может и тренируют но релизов мощных не было еще.
Я вижу ты вообще сорт оф новичок, так что также обрати внимание на лору убыстрялку в виде дистиллята dmd2 https://huggingface.co/tianweiy/DMD2/blob/main/dmd2_sdxl_4step_lora_fp16.safetensors она работает на CFG 1 с LCM семплером на 4+ шагах без каких либо негативов и просто дает быстрые результаты если ты прямо не хочешь дохуя промтить но нужен результат, это просто чтобы долго не думать и не является панацеей от всего, естественно без этой лоры гибкость моделей в десятки раз больше но и траханье с промтом и генерацией тоже больше
https://civitai.com/models/502468?modelVersionId=991916 лидер генерализованных порномоделек, за счет огромного датасета знает огромное количество всего, но управлять промтом трудновато, очень легко морфит концепты в себе поэтому нагенерить и управлять можно практически всем, поддерживает сорт оф хуман ленгвиж промтинг, то есть по дефолту результы с промтом уровня "теги через запятую" будут каловыми, для примера можно юзать авторский генератор https://huggingface.co/spaces/fancyfeast/llama-bigasp-prompt-enhancer ; если использовать как базу для лор прям топчик можно себе модель дотренить, поддерживает скоринг теги, есть большая документация по тренировке и по использованному датасету вместе с теглистами
лустифай https://civitai.com/models/573152?modelVersionId=1569593 модель от местного анана которая выстрелила на цивите, является смесью из бигаспа и пироса, полированная сверху микрофайтюнингом и пачкой лорок автора, промтить суперпросто
Для не реалистиков: https://civitai.com/models/257749/pony-diffusion-v6-xl?modelVersionId=290640 пони в6, база большинства файнтюнов и лор для аниме и 2д/2.5д, дефолтная модель трудная в управлении, поэтому проще качать сразу файнтюны или лоры к пони, огромное количество нсфв концептов Перечислять файнтюны смысла нет, просто фильтруешь по тегу треинед вместе с тегом Pony, лоры там же. Мерджей говна с говном миллион, можно их даже не смотреть.
NoobAI https://civitai.com/models/833294?modelVersionId=1116447 аналог бигаспа на огроменном датасете но для онеме, базируется на Illustrious XL, опять же имеет тонну файнтюнов отдельно и лор на все случаи жизни, поддерживает все калцепты с бур в том числе ултрансфв и всякую крамолу, т.к. датасет не фильтровали и использовали все теги с бур; отдельно есть v-pred версия
>>1207999 (OP) На тенсор арт можно бесплатно 125 картинок генерить в день с дмд2 Жмешь запустить что бы сразу настроечки правильные встали https://tensor.art/models/860117842178143634/Big-Love-XL3 потом модель можешь и на анимешную поменять. Если кожа в аниме краснит есть фикшенный дмд2, сам найдешь
Как убрать детект ГПТ?
Аноним18/05/25 Вск 19:15:01№1207226Ответ
Я вспомнил, как с научруком проверял свой диплом. Без прочтения он был засунут в антиплагиат, повсеместно выделен красным и вручён обратно со словами ИСПРАВЛЯЙ. Так продолжалось не меньше семи раз, пока я не смог перихитрить шайтан-машину масштабной обрезкой текста, что дало заветные 60+ процентов оригинальности
Моего друга развели на 100 баксов. Я в итоге взял его переписку и ему кидали фотки бабы с пруфами, они не гуглились, хотя в конце когда я нашёл ее профиль, я эти фотки видел в инсте. Но они не гуглились. Я нашёл спустя долгий поиск по примаю. Бесплатные картинки Яндекс с примая не находил. Яндекс вообще лица не ищет больше с предупреждением.
В итоге когда он скинул ей ее онлифанс, оно скинуло видео с его именем и тп. То есть якобы это все в прошлом. Чувак тупой и зачем-то перевёл деньги.
Но вопрос: как они так чётко движение губ подогнали под текст? Я сразу увидел склейки, но движения губ реально совпадают. Я думал может просто анимация сгенерена, но тут за основу взято видео.
Что за инструменты сейчас такое делают? Как детектить?
Недавно в бредаче всплыл интересный тред посвященный генератору постов двача на основе ИИ. И генератор совершенно не хуйня и он вполне себе хорошо копирует слог среднего анона и даже превосходит его. "Аноны" метко подшучивают над опом и темой его поста и если развитие проектов такого типа продолжиться то каждый "анон" в сгенереном треде будет иметь свое мнение и личность и можно будет уже самому с ними посраться, появятся шизы. Хочу создать тред исключительно по данной теме, если это продвинется дальше то каждый сможет иметь свой офлайн двач с куклами, пони, бесконечными консолесрачами и постами в стиле того самого без всяких новомодных течений. Можно будет вернуться в любую эпоху и имитировать даже несуществующие эпохи двача типа если бы двач существовал при царе Рюрике, Сталине и тд. Все приведено естественно как пример. Также реквестирую в тред любые материалы по теме генерации борд в режиме реального времени если они у вас имеются.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
>>1201951 Знакомый слушает текстовые книги на ежедневной основе через TTS гугла на гуглафоне. Задача - найти более качественный локальный tts, который сможет читать текст в потоке без интернетов.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1206789 >Qwen3-30B-A3B-UD-Q4_K_XL.gguf Я 15 числа качал у меня вроде норм работает, но я его на llama.cpp кручу cpu версии Но у меня там чисто рекомендованные семплеры
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Задача детекции генерированный текст / не генерированный сейчас возможна? Если просить модель не растекаться мыслью по древу и не плодить списочки по пунктам