Тред #1: https://arhivach.org/thread/147800/Тред #2: https://arhivach.org/thread/170611/Тред #3: https://arhivach.org/thread/179539/Тред #4: https://arhivach.org/thread/185385/Machine Learning 101:1. Introduction to Statistical Learning ( http://www-bcf.usc.edu/~gareth/ISL/ISLR%20Sixth%20Printing.pdf )Читается легко, неплохая разминка перед ESL2. Pattern Recognition and Machine Learning, Bishop.3. Bayesian Methods for Hackers. Введение в байесовские методы, годно.4. http://neuralnetworksanddeeplearning.comВведение в нейронные сеточки для самых маленьких. Написано простым английским. 5. https://yandexdataschool.ru/edu-process/courses - базовые курсы ШАДа.Machine Learning Advanced1. Elements of Statistical Learning (http://statweb.stanford.edu/~tibs/ElemStatLearn/printings/ESLII_print10.pdf )Сложность - 9 из 10. Шутки в сторону, можно читать годами. Если вы сможете полностью проработать эту книгу и прорешать упражнения, обязательно свяжитесь со мной - у меня найдется работа для вас.2. Optimization for Machine Learning. Edited by Suvrit Sra, Sebastian Nowozin and Stephen J. Wright, MIT Press, 2012.Иногда from sklearn.linear_model import LogisticRegression перестает работать и тогда нужно все переписать. Оптимизация квадратичных приближений на больших объемах данных, разреженные модели, суррогатные оптимизации - вот это все тут есть.3. http://www.cs.nyu.edu/~mohri/mlbook/Как ESL, только слегка по-проще. Попробуйте, может зайти.Дальше вас ждет дикий и необузданный мир. Два маяка https://vk.com/deeplearning и http://deeplearning.net/reading-list/ осветят дорогу: это списки литературы и обзоры статей для прощупывания пульса индустрии.яп1. http://julialang.org/2. https://www.microsoft.com/en-us/research/project/infernet/3. https://www.r-project.org/4. питухон и так все знаютMisc1. Telegram: @techsparksПодкаст про всякие гик-штуки.F.A.QПо мотивам предыдущего треда.Эти ваши книжки стоят овер 9000 рублей, как быть?http://libgen.ioКниги хорошо, но с чего начать практический вкат?Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Во-вторых, определитесь с языком. Python и C++ наиболее мейнстримовые инструменты, с ними вы без еды не останетесь. Есть еще R, на котором пацаны живут статистикой и анальными пакетами. Некоторые инструменты являются языко-независимыми (Vowpal Vabbit, XGBoost), но обвязывать их вы все равно будете из какой-либо среды.На Java разработано много production-ready инструментов для бигдаты и если вы угораете по терабайтам данных, то имеет смысл посмотреть в её сторону. Впрочем, лучше это делать уже потом, когда прийдет осознание потребностей.В-третих, выбирайте себе задачу. Что угодно: распознать качпу, обнаружить ботов по логам, найти раковых больных. Список можно посмотреть, например, на kaggle.com. После чего приступаете к решению выбранной задачи.Не прийдется ли мне потом с таким наборищем знаний идти в макдак работать?Несмотря на хайп вокруг ML, далеко не во всех IT компания есть необходимость в ML и понимание круга задач, которые можно решить этими методами. Но поверьте, в 2016 компетентный специалист будет востребован. В России потребителями ваших знаний могут стать: Яндекс, Mail.ru, Вконтакте, Rambler, Касперский, Билайн, Связной, ABBYY, Хуавэй. В биоинформатике есть определенный спрос, можно поскролить http://blastim.ruЗдорово, но я так и не понял чем же вы занимаетесь в IT компаниях?Попытаюсь ответить со своей колокольни и сразу хочу предупредить, что это едва ли консенсуальное мнение.ML-специалист - это такое зонтичное определение для человека, способного увидеть проблему, выгрепать кучу логов и данных, посмотреть на них, придумать решение проблемы и врезать это решение его в продакшн. По сути, это кодер, решающий не чисто технические, а, в некотором роде, человеческие проблемы.Имхо, мы все же остаемся в первую очередь разработчиками.Но ведь есть Machine Learning per se, чем он занимается?Действительно есть. Одаренная прослойка людей изобретает новые методы, но это правильнее называть просто математикой. Сейчас пищей для ума являются нейронные сети и их возможные архитектуры, но даже они двигаются рука об руку с практикой.Что такое TensorFlow?TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>790256 (OP)Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален.
>>790421http://karpathy.github.io/neuralnets/
>>790424> ctrl+f> bayes> results:nihooyaнеодобрямс
http://jaidevd.github.io/posts/a-geometric-proof-of-the-perceptron-convergence-theorem/
Господа, есть ли что ловить мне, при условии, что в разные дифуры/матан не умею?
>>790853Ты всегда можешь научиться.
>>790859Посоветуй хорошую книгу по математике или доступные видео-курсы, если знаешь, браток.
Кто-нибудь знает что есть такое dense prediction? Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил.Еще иногда встречается фраза dense outputs.
>>790961Почитай про производные и интегралы, порешай примеры, этого будет достаточно.
>>790853>>790256 (OP)>>791047Оп, добавь платиновый вопрос в ЧАВО.
>>790449Байес-кун, поясни за реализации на питно. Вот для классики есть scikit-learn, а для байесов?
Дайте гайд как развернуть какую-нибудь нейросеть.Или ответьте на следующие вопросы1. На Windows полная хуйня, все на Linux?2. Debian тоже не канает, нужна убунта?
>>791155анус себе разверни
>>791155> убунтаЛучше всего Plan 9.
>>791044наверно имеется ввиду плотность вероятности?дай пример
Привет вам, терминаторы, я и дальше двигаюсь по книге.Задержался на повторение питона и кое в чем застрял.Что здесь делает self.weights, как оно влияет на activations?
>>791334они скалярно умножаются на входактивация есть параметры ("веса") умножонные на входактивация потом пихается через нелинейную функцию активациисовсем как в настоящих мозгах
>>790961у ленга хорошие книгия по ним учился, все по ним учились. и ты учись
>>791357И почему ничего не произошло после того, как я удалил часть с Confusion Matrix.Ууух, я наконец разобрался почти, как работает перцептрон.По идее тут нету сумматора?
Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов?
>>791401> есть ли специальные инструменты, которые упрощают процесс?чумазая индусня по одной рисинке за датум
>>791044Полносвязные слой мб, порой их называют dense layer?
>>791056Тебе реализация теоремы на пиздоне нужна или чего?
>>791297>>791432https://arxiv.org/pdf/1411.4038.pdf вот например. Там еще несколько не до конца ясных фраз, типа end-to-end training (гугл везде разное трактование end-to-end дает; один из синонимов я находил - сквозной, но хз на сколько это связано с обучением), еще patchwise training (patch - кусочек изображения, или одно изображение из целого набора?)Что-то связанное с полносвязным - мб. Хотя у меня была мысль, что это что-то связанное с тем, что в выводе сети - полная картинка, а не просто выбор класса из нескольких.
Было предложение поработать c tensorflow для начала за сотню баксов в неделю, после того как я вкачусь в ml, но вкатится не хватило знаний и времени, ибо в ml вообще ноль.Предложение было действительно интересным и работодатель был из штатов, если бы получилось был бы очень хороший опыт + строчка в резюме.
>>791468> за сотню баксов в неделюА если бы вкатился, то потом сколько? 200 баксов в неделю?
Что делать если перцептрон не настраивается на XOR, когда я ввел еще одно измерение в массив?
>>791471>>791471А нет, настраивается, только я не понял, по какому принципу вводится еще одно измерение в массив.
>>791472Что за хуйня?Если ввожу вот так вот:inputs = np.array([[0,0,1],[0,1,0],[1,0,0],[1,1,0]])targets = np.array([[0],[1],[1],[0]])То не настраиваетсяА если в targets будут единицы по краям, то сможет настроиться, что за хуйня?
>>791474Потому что единицы по краям это уже не ксор?
>>791477Но в книге сказано ввести еще одну ось в таргеты и все заебись
>>791468что за проект был в штатах?жалко конеш ;з
>>791481нарисуй/представь эти точки в 3-пространстве и посмотри, можно ли их разделить плоскостью
>>791492Ну хуй знает, в книге написано вот это вот:Типа можно линейно поделить
>>791499нарисуй другой вариант и нельзя будет настроитьпрямые через точки одного класса пересекаются, их не разделитьпараметры добавляются что бы зделать перцептрон более умным - чем больше параметров, тем более сложные функции он сможет моделировать
А помните, с какого треда все началось? С моего :3https://www.youtube.com/watch?v=O9l5NVIjv94
На каком языке лучше всего программировать нейросети? Хаскель? Лисп? Go? Erlang? Ассемблер?
>>791334По какой книге?
>>791532Конечно же ассемблерА еще лучше - сразу в машинном кодеЕсли серьезно - python c библиотекой pandas, либо matlab
>>791532J, поскольку нейроночка - массив и J хорошо могёт в массивы
>>791470Не обсуждал, было бы выше ну 150, 200, деньги не так важны в данном конкретном случае, главное получить и сделать работу, ведь область специфична и нова и интересна.>>791483Связано с медициной. Надо было применить ml на данных, получаемых от пользователей системы.
>>791334А, я долбоеб, он в вычислениях же складывает и перемножает, так что сумматор есть.
>>791655> было бы выше ну 150, 200, деньги не так важны в данном конкретном случаеСредний рейт за вебдев фриланс что-то около 800 баксов в неделю ($20/hr).Даже если тебе лично не нужны деньги, работа за копейки плохо влияет на систему в целом. Нефиг демпингом заниматься, для этого и так всякие пакистанцы с индусами существуют.То, что ты нихуя не умеешь не оправдание. Если клиент не доволен твоей работой, у него есть опция не платить или открыть диспут.> ведь область ... и нова и интересна.Только так и работаю всегда иначе не получается увы, я не помню с какого рейта начинал, что-то вроде 400-500 баксов в неделю, но это тащем-то тоже мало.
>>791675Тред читаю жопой, но это разве мало за удалёнку? >>791655>>791655Типа QMR-DT?
>>791680>Типа QMR-DT?Я же говорю, что я не вник в ml.Впервые от тебя вообще слышу этот термин, погуглил - так там вообще дебри ml.
>>791534Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
>>791795> изучаешь библиотеку theano Почему не tensorflow?
Аноны, а как вам вот эта книжка?http://www.deeplearningbook.org/
>>791814видишь ли, TensorFlow - часть гуглового инструмента для перемножения тензоров и оптимизации функционалов. Часть - потому что важные куски типа параллелизации еще не выкачены в паблик. Если вам все ещё непонятно что это, значит это вам и не нужно, сириусли. Google перестарался с рекламой и теперь люди думают, что TF - это серебряная пуля и затычка для каждой бочки. До TF был Theano, который выполнял свою работу не хуже. И, в отличии от TF, он уже находится в стабильной фазе.
>>791433На хуйтоне и тебя туда же. Смотрю и вижу, ты дохуя некомпетентен, членодевка.
>>791826такое ощущение, будто шизопоток читаю.
>>791839Это жеж капча из шапки
>>791842похоже, что шапку писал шизик.
>>791829Охуительно, всегда хотел быть трапом, но ты говоришь про Байеса так, словно это какой-то злоебучий алгоритм.
>>791850Ты из этих мимоматематиков-илитарием? Но нет, ты некомпетентный мусор.
>>791826> Часть - потому что важные куски типа параллелизации еще не выкачены в пабликУже давно выкачены (с версии 0.8):https://www.tensorflow.org/versions/r0.9/how_tos/distributed/index.html
>>791854запахло жарёной попкойостынь маня, не принимай нас всерьёз
>>792062AbstractSingletonProxyFactoryBean
Аноны, поясните мне за Линейную Регрессию.Нахуй она вкупе с нейроночками нужна?И что она делает? Просто подбирает точки, которые наиболее близкие?Но я совершенно не понимаю, каким хуем это относится к этому>np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets)В части np.dot(np.transpose(inputs),inputs) Мы берем наши входы, переворачиваем матрицу и перемножаем ее со входами?Дальше берем от этого обратную матрицу и еще раз умножаем на перевернутые входы?А после этого я нихуя не понял
>>792072Или мы берем перевернутую матрицу , через np.dot перемножаем ее на входы и все это в конце перемножаем с целями?А нахуя? Чего из этого мы достигнем?
>>792072Раскури матрицы и операции над матрицами. Раскури сам метод линейной регрессии.Раскури все формулы, которые используются в нейронках (сумматор, активационная функция, функции ошибки и т.д.).Потом найди взаимосвязи между ними. Это основы, это надо знать.
>>792081Да как его раскуришь то?Я про сумматор, функцию активации знаю, узнал на примере пиздоновского кода.Но про эти матрицы и массивы не понимаю, а про Линейную регрессию пишут>Линейная регрессия — метод восстановления зависимости между двумя переменнымиИ что мне это должно давать?
>>792082Раскурить - не значит прочитать определение.Посмотри какие бывают модели регресии и как они выглядят математически. Как их в матричном виде можно записать. Посмотри что такое регрессионный анализ и какие методы там используются.В нормальный вуз не пошел - проебал всю базу, теперь надо нагонять самому.
>>792084Да это же я, какой вуз? Я из шараги на 2 курс перехожу.И там такому не будут учить, а может и будут, мат.статистика будет.А зачем ждать вуза, если я сейчас хочу?
>>792085Значит надо искать нужные книги и курсы. По статейкам из инетика, блять, нельзя получить полные знания.
>>792086Нормальные книги и курсы либо уже предполагают йоба-высокий порог вхождения, либо написаны ебанутым языком.
>>792090>йоба-высокий порог вхождения>написаны ебанутым языкомЗначит ты что-то пропустил в своем обучении.Другие люди читают, изучают - и ничего.
http://rgho.st/private/6tkcbcgY4/399bf7ef4ab0e9a09f965ba81aa88f92оставлю тутв первых главах нормально разжёвана линейная регресия и вся хуйня>>792072
>>792072>Но я совершенно не понимаю, каким хуем это относится к этомуhttps://ru.wikipedia.org/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BD%D0%B0%D0%B8%D0%BC%D0%B5%D0%BD%D1%8C%D1%88%D0%B8%D1%85_%D0%BA%D0%B2%D0%B0%D0%B4%D1%80%D0%B0%D1%82%D0%BE%D0%B2Читай раздел "Пример — система линейных уравнений". Вот этот код на питоне есть ни что иное как (A'A)^-1A' в википедии, где A' - транспонирование.Выводится эта формула из того факта, что если тебе нужно минимизировать функцию Ax-b -> min, тебе нужно приравнять производную к нулю, далее она приравнивается и вычисляется и получается формула, что A'Ax=A'b. В школе ты не проходил вычисление производных для матриц, но это не суть. А суть в том, что это уравнение действительно дает правильный ответ (такую матрицу A, что Ax-b наиболее близко к нулю).
>>792099кароч ортогональная проекция на пространство столбцов
В шапку нужен абзац про основы математики.На днях постараюсь предложить что-нибудь.
>>792139Того же Письменного в шапку впихнуть, хотя он для опущенцев (я по нему учился).
>(t − Xβ)T(t − Xβ)>Где β = (XT X)^(−1)XTtАноны, зачем мы умножаем перевернутые входы на таргеты?В скобках мы ищем отрицательное значение от самого короткого расстояния между двумя точками?И эти транспонированные цели умножаем на то, что нам уже известно? Типа это средняя линия?
>>792323первое выражение - квадратичная ошибкаона минимизирована если бета = второе выражение
>>792139>>792221если прекратят спрашивать за платину то наши тренделя заглохнутведь 90% контента - нубовопросы и нубоответы
Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.
>>792329> Пасаны, объясниет за всю хуйню с моментом и шагом.Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99.Объяснил.
>>792330А момент, нахуй он нужен? Там есть от него профиты?
>>792329можешь увеличивать шаг если градиент маленький или не меняется например, чтобы перепрыгнуть через седло или быстрее сойтисьи наоборотвообще:градиентный подьём/спуск - говномаксимумы - говно и оверфиттингтема нейроночек раскрывалася в конце 3го тренделя
>>792332Так как обучать, чтобы не заморачиваться с этой хуйней? А то ждешь, ждешь, а оно может все в шаге дело.
>>792331Какой нахуй момент? Среднее по батчу?Так ведь он выступает как регуляризатор. Всё что связано с эффективным методами оптимизации это сплоная эмпирика. Просто постарайся запомнить эвристики и понять когда их надо применять.
>>792333попробуй заменить градиентный пердёж на метод нютона напримертам нет гиперпараметров типа длины шага
>>792336сам-то делал? И как оно?
>>792340шило на мыло ебля с выбором хорошей начальной точки
>>792336Посмотрите на долбоёба и как он обращает матрицу для миллиона параметров.
>>790256 (OP)Аноны, накидайте байесовский моделей, где используются распредления отличные от Дирихле или Гауссовского, или её графовое представление имеет длинную цепочку узлов(больше >3.
>>792325А почему оно тогда оно решает проблему линейной регрессии?B в этом случае - это линия или плоскость?
>>792348РОбъясни, зачем эта хуйня нужна в НС?
>>790256 (OP)ОП, нахуя переименовал тердик в НЕЙРОСЕТОЧКИ? На них мир клином не сошёлся ведь.
>>792346да диагональную бери, прокатит>>792348нейроночки>>792350смотря какие базисные фунцкии выбранылинейность тут от параметров, а не от входных данных
>>792356В учебнике это написано, что реализация линейной регресии.Типа мы сначала по теореме пифагора ищем самое короткое расстояние и минимизируем error function
>>792359такая > (XT X)^(−1)XTtформула получится если взять производую первого выражения и приравнять к нулюпроизводная = 0 необходимое условие для минимумачто бы доказать что это минимум ты должен немного поебстись со вторыми производнымитеперь понятно?
>>792380Ты вот про это хотел сказать?>Computing the smallest value of this means differentiating it with respect to the (column) parameter vector β and setting the derivative to 0, which means that XT (t − Xβ) = 0Если B = 0, то и первое выражение равно нулю?
>>792389да, производная равна нулю> XT(t − Xβ) = 0дальше раскрываем скобки> XTt − XTXβ = 0> XTt = XTXβ> β = (XTX)-1XTtвот и всё, что бы доказать что это минимум берём вторую производную> ХTХчто бы доказать что вторая производная положительа во все стороны надо доказать что ХTХ положительно-определенa иногда нетумнож с обоих сторон на вектор и транспонируй левую половинудетали оставляются тебе в качестве упражения
>>792402Я уже перестал соображать, получится строка(t − Xβ)T(t − Xβ)?
>>792417строка - массив
Мне тут приходится буквально с боем отгрызать улучшения в настройке сети. Взял пример из искаженных цифр. Батчи почему-то не помогли. Уменьшил шаг в 10 раз, посмотрим что будет.
>>792418>np.dot(np.dot(np.linalg.inv(np.dot(np.transpose(inputs),inputs)),np.transpose(inputs)),targets)Ну вот эта строка соответствует (XTX)^(-1)XTtЕще есть строка outputs>outputs = np.dot(inputs,beta)Что все равно,что X*((XTX)^(-1)XTt)И если взять таргеты(t), вычесть из этого output и возвести в квадрат, то получится сумма квадратов остатков регрессии?Сама линейная регрессия в строке с (XTX)^(-1)XTt ?И если данные не линейно делимые, то оно не сможет нихуя?
>>792424Как же со мной тяжело наверное, пиздец, такого дауна еще и поискать надо.
>>792430не такой уж ты и долбоёбна держи мемс)
>>792354но ведь ОП - это ты, шизик
>>792420попробуй другую модель
>>792420Bias или variance?
>>792443Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
>>792449CNN же вроде делают сегментацию автоматически?
>>792455С помощью автоэнкодера или как?
>>792445вот отсюда взял скрипт старой капчиhttp://www.captcha.ru/
>>792449Попробуй этоhttp://papers.nips.cc/paper/557-multi-digit-recognition-using-a-space-displacement-neural-network.pdf
Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать?Например, обычный перцептрон не сможет в XOR, ибо там нет логического OR и данные просто так нельзя поделитьА если слоев больше, то сеть уже способна запомнить, как разделить эту XOR функцию, верно?
>>792488Или можно сказать, что чем больше Слоев у сети, тем большее ее разрядность?В таком случае, если мы имеем что-то, имеющее множество исключений, то как нейронка такое обрабатывает?
призываю кк
>>792505>призываю Кого призываешь? Ты ебанутый?ПАЦАНЫ, У НЕГО НЕЙРОНКА СВИХНУЛАСЬ, ВСЕ В ПРОШЛОЕ
Сделайте мне разгадыватель двачекапчи, я запарился ее вводить неправильно.
>>792463Это как я понял алгоритм Витерби, но как его применять я не понял, а тем более для сегментирования.
>>792505https://www.youtube.com/watch?v=OBYM-BY4J-gвсегда пожалуйста.
>>792463Короч, сначала надо разобраться что Лекун имел ввиду вот этой SDNN сеткой. Я так понял обучаешь как обычную CNN но потом расширяешь до SDNN.
>>792599И используешь сети маркова, чтобы найти самую вероятную комбинацию букв. Без пояснений хуй пойми с чего начинать.
>>792610ууууу там еще шняга с тренировкойThe replicated net work and the HMM can be trained simultaneously by back propagating gradients through the HMM.
Постойте, весь алгоритм обучения нейроночки - это функция производной между выходами и таргетами?
>>792682не совсем же. производную целевой функции умножаем на производную функции активации, а потом на значение нейрончика.
Кто-то делал сегментацию с помощью нейроночек? Вроде же возможно сделать как-то с помощью сверточной сети по типу автоэнкодера.
>>792707вот на вроде этойhttp://arxiv.org/pdf/1506.02640v4.pdf
>>792707Ты уже не первый тред про сегментаци спрашиваешь. В сверточной сети оно автоматически делается.
>>792724потому что у меня не видюхи, я тренирую на проце, мне нужно знать смогу ли я на нем чет внятное сделать. приходится ограничиваться символами.
>>792707Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Антоши, можете пояснить за обозначения в этой сети?Это Forward фаза обучения мульти-перцептрона.N здесь - это output nodes, L - input nodes,Знаю, что вторая формула - это градиент, минимизация функции ошибки.
>>792756Пик забыл.
>>792758Я понимаю, что у нас L входных нейроной, а что такое Xi и Viζ не знаю.И про вот это свойство i=0 тоже не знаю.
>>792763сажи Петросяну
>>792765Да отвали, я реально хочу узнать.И агриться в дальнейшем не буду.
Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще?
>>792774Нужен. В рашке не найдёшь.
>>792758А, все, кажется понял, у нас есть слой j представлен в виде греческой буквыКоличество нейронов в слое NА i=0 - это начальное значение.v - это весаА x - это значение самого нейрона?Вторая формула - это пороговая функция.Все правильно? Только почему у нейрона 0, если у нас есть смещенный с показателем -1?
>>792805Все, теперь осталось понять, как алгоритм сам использует это chain-rule для того, чтобы минимизировать функцию ошибок еще и дополнительных скрытых слоев и я специалист.Кстати, про градиентный спуск нихуя не понял кроме того, что это как шар, катящийся по поверхности вниз и он может застрять где-нибудь и минимизация функции ошибок и есть этот самый градиентный спуск
>>792809>специалистТочнее смогу разобраться в коде, лол, таких тупых специалистов не существует.Решил, что надо понять сначала принцип и потом только лезть в код.
>>792778Пиздишь как дышишь. Из свежих примеров Призма и Маскарад. В гос. заказе и технологии двойного названчения: системы управления дорожным трафиком, автопилоты для комбайнов, автобусов, трамваем, машин, танков.
>>792805>>792809Надо запилить нейроночку на скрытие тупых вопросов.
>>792812Простого спам фильтра будет достаточно.
>>792812Ансамбли сделают по качеству и по скорости.
>>792488>обычный перцептрон не сможет в XORВроде может, если начать искажать>>792514У меня нет идей, как загуглить этот шрифт
>>792812давай чоданныx для тренировки за 5 тредов накопилось предостаточно
>>792488Достаточно двух слоёв с нелинейностью и n-ым число входов. Либо один слой, но подавать на вход нелинейные комбинации признаков.
>>792819Двачую. Устроим соревнование: сначала кто лучше фильтрует тупые вопросы, а потом кто лучше раскапчёвывает.
>>792488>обычный перцептрон не сможет в XORЧто значит "обычный" перцептрон? Есть еще необычные? В XOR не может однослойный перцептрон, который есть простая линейная модель.
>>792819>>792820только надо как то собрать и подготовить все эти вопросынаймём школьников из рнр тредика?
>>792812>>792813>>792814>>792822Пока вы будете учиться меня игнорировать, я уже напишу свою многослойную сеть и смогу в обратное распространение ошибки.И матан выучу.Тогда вопросы уже не будут тупыми и фильтр не сработает.
>>792826Почему php? Не разу не был в том треде. Собиру посты по апишке и подниму админку для разметки.
>>792828Дурачок, с собранным датасетом минутное дело.
>>792830Зная двачи - для вас это на десятилетие затянется.
>>792811Там Ваенга же не просто так прилеплена.
>>792811> В гос. заказе и технологии двойного названченияБюджеты пилят сыночки генералов, реальные разработки опаздывают от рынка на лет пять, так? Или нет?
>>792861Хуй знает. Знаю оптиков, работающих по военке, вот их оче часто заставляют подписывать документы о неразглашении. Тут похожая хуйня будет, скорее всего. Знаю, что некоторые компании порой заказывают у русских лаб некоторые разработки.
>>792871Ну хоть что-то.
>>792871Там и правда пиздецово. Такие перлы пишут. Но вопрос был о возможностях, поэтому возможности будут.
>>792875>>792871Как будто 15-ти рублевые дочери офицеров в тред загнаны
>>792871>>792811Реальных ML-продуктов в рашке нет. Даже уровня каких-нибудь самоделок от энтузиастов типа пакетов\библиотек с реализациями нейроночек, не говоря о продакшен решениях. То, что какие-то там васяны в НИИ проектируют хуи, общей ситуации не меняет.
>>792888А как же яндех? Знаю, что есть компании, занимающиеся cv.
>>792888Тебе Яндекс.ДатаФактори и Антиплагиат хуй за щеку обучили.
>>792892Вот кстати яндех. Казалось бы, крупная контора. А есть у них ML продукты,сравнимые с гугловскими? Рашка хуже африки, даже селедки из Туниса(!) могут в реализацию своих усовершенствованных вариантов SOM https://sites.google.com/site/malikacharrad/research/multisom-package >>792895>ДатаФакториДаже не гуглится.
>>792898Вот же она.https://yandexdatafactory.com/Да, с забугорными монстрами соперничать трудно, но дело продвигается. На хабре давно была статья, как яндех помогал ЦЕРНу обрабатывать данные.Интересно было бы посмотреть обзор рынка ML в рашке.чот проиграл с себя, когда писал "рынка ML в рашке"Но предложения по работе на том же hh есть, хотя и не в тех количествах, как хотелось бы.
О каких вы нейросетях в СНГ говорите, если старперы в вузах до сих пор им всячески сопротивляются?
>>792929А причем тут старперы? Молодежи в стране нет? Почему в нейроночки может уже даже африка, но не расеюшка?
>>792931Потому, что 90-ые добили рашкинскую науку для производства робототехники, если в СССР хоть пытались, но надорвались, в России же все пустили через хуй. Энджой йор быдло, которое готово наебать, и коррупция.
Бейсовский вывод на данный момент является наилучшим подходом для машинного обучения. Исключительная выразительность и простота позволят Вам быстро составлять элегантные и эффективные статистические модели. Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё. В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха. Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
>>792939Двачую этого! Хоть кто-то понимает что значит байесовский вывод в методах машинного обучения. А ведь этот подхот столько ништяков даёт. Чего стоит хотя бы введение кастомных гиперприор на холодном старте.
>>792888Миф и пропаганда. Есть и дохуя.
>>792888>>792929>>792931>>792932Свинокакел порвался.
>>792826>>792829Поднял размечалку на VPS'ке. Сделайте нормальную морду и придумайте название(сейчас рабочее filter2ch). На бэке стоит Jinja. Доверстаю и вброшу API'шку. http://188.166.162.151:5000Не положите только, ок?
>>792958Тред не читал, что именно по ссылке? Фильтр постов? Как и что фильтрует?
>>792959Выше шла речь о том, чтобы разметить посты. Сверстать главную и можно размечать. Дальше учим сетки, ебёмся с Байесами, etc.
>>792960Есть же API которое возвращает посты в json, не понимаю смысла в твоей размечалке.
>>792962Будет и API которое возвращает посты в json c платиновыми вопросами.
>>792967Я говорил про апи двача, которое уже имеется.Разметить = to label? То есть цель размечалки в том, чтобы коллективно расставить метки где говно, а где нет?
>>792974Всё верно. Положил nginx ибо идея не зашла.
>>790449http://camdavidsonpilon.github.io/Probabilistic-Programming-and-Bayesian-Methods-for-Hackers/
>>792960какая нибудь хуйня типа https://en.wikipedia.org/wiki/Naive_Bayes_spam_filtering по идее могла бы сработать>>793040> MCMCне особо одобрямс %)
>>793057Был бы датасет был бы предметный разговор.
>>793066бегло пробежался с начала, завтра посмотрю пару предыдущих тредовпотом подчистить все тексты и можно уже что то думатьплатина:Сап, нейрооБоги. Я ньюфаг, посмотрел лишь пару десятков разных роликов на трубе на тему нейронных сетей. Понимаю, как они устроены примерно, но не понимаю, как это всё делается именно в коде. Посоветуйте простой хэллоуворлд, дабы разобраться в основах всего этого. ЯП не принципиален. Господа, есть ли что ловить мне, при условии, что в разные дифуры/матан не умею? Дайте гайд как развернуть какую-нибудь нейросеть.На каком языке лучше всего программировать нейросети?Хаскель? Лисп? Go? Erlang? Ассемблер? Аноны, а ведь чем больше у нейронной сети слоев, тем больше она может логически "или" поддерживать?Сап, подскажите, будет ли ML нужен в ближайшие 10 лет, или это просто хайп, станущий ненужным через 2 года? Стоит ли вкатываться, останется ли работа через 2-3 года еще? Аноны, поясните мне за Линейную Регрессию.хуятина:Кто-нибудь знает что есть такое dense prediction?Периодически попадается это словосочетание во всяких статейках по распознаванию образов на нейронках, но какого-то конкретного примера или определения или описания того, что именно это отличает от чего-то другого не находил.Еще иногда встречается фраза dense outputs. Пасаны, объясниет за всю хуйню с моментом и шагом. Шаг если взять маленький, то вроде как застрянет на локальных минимумах, если взять большой, то в конце обучения лучше достроить с маленьким? Некоторые берут для каждой эпохи уменьшают шаг в 0.99. Вот вы говорите, что подготовка данных занимает 95% времени, и что это скучно и неинтересно. Можете привести какой-нибудь конкретный пример датамайнинга из вашей практики, рассказать как это делается и есть ли специальные инструменты, которые упрощают процесс? А может даже есть вакансии на рынке для тех, кто не смог в матан и готовит данные для датасаентистов? Мне еще не совсем понятно, как сделать разделение на отдельные символы - сегментацию, я генерю капчу(цифры склеены и с шумами) чтобы провериь на сколько сетка хороша, ибо обычная задача: просто распознать отдельный символ на котором же и обучал - неинтересна. Обучил я пока вроде норм для распознавания, но вот как просегментировать- хз.
>>793096Ок. Итак, имеем метки: платина, хуятина, курятина и всё остальное. Ещё бы добавил дополнительные лейблы: школьник-нейроман, нечёткий логик, байесовский пидор, классик-миссионер.
>>793096"Хуятина" - это нерешенные вопросы?
>>793130>>793142я думаю сгрести 2 множества: в одном платина, в другом не платинадля начала бы эти 2 категории научится распознавать лёл
Блядь, как высчитать ошибку на слое пуллмакс?
>>7931581 if max else 0
>>793158http://cs231n.github.io/convolutional-networks/#poolhttp://cs231n.github.io/optimization-2/#grad
>>793158Делаешь вариационную аппроксимизацию, записываешь конволюцию с сигмоидом, потом уменьшаешь размерность интеграла (здесь поможет дельта функция дирака) как конволюция гауссовых распределений, и с обратной пробит-функцией маргинализируешься над постериором. Любой второкурсник справится. А если делать на МСМС — так задачка вообще на пять минут.
>>793178как это перевести?Backpropagation. Recall from the backpropagation chapter that the backward pass for a max(x, y) operation has a simple interpretation as only routing the gradient to the input that had the highest value in the forward pass. Hence, during the forward pass of a pooling layer it is common to keep track of the index of the max activation (sometimes also called the switches) so that gradient routing is efficient during backpropagation.
>>793186При проходе туда сохраняем индекс максимального элемента.При проходе обратно ошибка идет только в инпут с сохраненным индексом.
Пока вы, блять, будите лезть в этого говно, оно никогда не сдохнет. Я понимаю еще, человек написал: "Посоны, я угорел по бейсу, потому решил выучить вореции, чтобы написанные мною нейроночки летали! Посоветуйте годноту". А то пришел, ему видите ли "Нужен гайд как развернуть какую-нибудь нейросеть с бекропом", так пойди попробуй мелочи стрельнуть у бритых пацанчиков в шапках-годонках, они тебе объяснять по понятиям. Может выясниться, что тебе ни нейроночки ни бекпроп не нужны. Неужели, блять, так сложно прикинуть, за каким хуем ты вообше лезешь в отрасль. "рассчитано на грамотных людей" - уёбывай нахуй. Сколько вас таких тут было: "Хочу сдать датасаентистом! Какой книгу выбрать для начала?", "Хочу выучить модель %модель-name%. Посоветуйте литературы". Кто-то подрывается и отвечает вам, может даже по хардкору палит годноту. А вы, все те самые, которые поматросят и бросят. Дальше хелло-ворда дело не идет, не говоря уж о работе с нейроночками. Неужели вы и вправду думаете, что МЛ/бейс/датасаенс стильно-модно-молодежно и, того глядишь, на практике пригодится? Напряги свое серое вещество и подумай, нахуя тебе это. Просто оно тебе не надо, иначе бы ты не создавал здесь очередной хуёвый пост, а загуглил бы давно нашел статьи на реддите/рсдн/100_других_ресурсов. Люди составили тысячи подборок с описаниями, рецензиями - выбирай и читай. Но нет, блять, вместо этого очередной хуй припиздовывет в кодач и устраивает симуляцию деятельности. Нахуя, скажи блять, подбирать тебе книгу, если ты ее даже не прочтешь? Ф пизду вас, мудаков!
>>793190Спасибо. Так и думал, что переводится, но не хотел верить своим глазам. Придется делать сохранение этого ебучего индекса.
>>793190а в остальные получается ноль писать, ведь от них зависят ошибки следующего слоя?
А мне наплевать на пидарасов и их парады. Они мне совершенно не мешают. А вот сёрло-питишков я ненавижу за то, что они, как православные и прочие угоревшие по религии, тормозят прогресс, сковывают производящие силы общества и делают мою жизнь хуже, снижают её качество. При этом сёрло-питушки - самая мерзенькая категория религиозных фанатиков и врагов прогресса. В той же категории находятся амиши, например. Но я сравниваю сёрло-питушков с пидарасами потому, что предполагаю, что такое сравнение для них обиднее, чем сравнение с амишами. Сам же я считаю, что сёрло-питушок - существенно хуже пидараса, более того - сравнение с сёрло-питушком скорее оскорбление для пидора, чем наоборот.
Аноны, как так получилось, что строка>deltah = self.hidden(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2)))Настройка второго и так далее скрытых слоев, это просто (цели - выходы)*выходыЭто потому что функция ошибки в данном случае общая для всех слоев и на отдельном слою больше быть не может?
>>793420И получается, что мы дифференцируем функцию ошибок на всех слоях.
>>793420И вот это вот интересная вещь>np.transpose(self.weights2)Зачем нам переворачивать матрицу весов? Это 2-я линия, делящая наш датасет здесь должна проходить под углом 90 градусов?
>>793420>>793421>>793422забей на бекпропдифференцируй численно
НЕЙРОНОЧКА давно уже не модель. НЕЙРОНОЧКА - просто прилипчивое говно на ботинках анонимного эксперта, тонким слоем размазанное по всему /с/. Анононимный эксперт совершил ошибку, растоптав НЕЙРОНОЧКУ. Теперь мучается, пытаясь отчистить подошву от этой вонючей дряни. Засело крепко. Понимаешь, просто больше нечего добавить к тому, что уже было написано здесь. Нормальному человеку таких унижений достаточно, чтобы почувствовать всю ничтожность говна, которое он форсит. Но когда имеешь дело с нейрофанбоем — это совсем другой разговор. Он будет отравлять своей НЕЙРОНОЧКОЙ воздух еще долго после растаптывания. >>793431
>>793440Зачем ты вкидываешь это говно?Ты аутист или тебе нравится переделывать пасты?
>>793441Или и то и другое.
>>793440>паста какунаГде сейчас ка-кун жрет говно?
>>793182>>793182Универсальный ответ на всё.
>>793458хорошо бы его сюда, в етот итт трендель
>>793441шикарные пасты жемгновенная классика треда
>>793472Наспех скопированное и спизженное говно, которое уже все видели раз 100.
Аноны, можно ли обойтись здесь без неконтролируемого обучения?Хочу настроить моба на нейронке, как понимаете, у него будет множество модулей.Например одна из целей - нанести удар с такой-то силой, одной цели - сила удара мне хватит?А все остальное, вроде локальных показателей различных модулей я помещу в массив.
>>793477Или если все будет не так, а например, положение моба, скорость его модулей, инерция Если она конечно поддерживается движком и нейроночка для каждого из этих показателей должна увидеть закономерности и в зависимости от одних параметров настраивать другие так эффективно, как она только сможет.А в таргеты засунуть что-нибудь увеличивающееся и когда нейронка через n итераций уже не сможет сделать все эффективнее, то заканчивать обучение.Как подобрать нужное число слоев в таком случае и как привести информацию в нормальный для нейроночки вид?
>>793481> как подобрать нужное число слоевгугли bayesian model selection> как привести информацию в нормальный для нейроночки виднанять школьников с одеска
>>793483> нанять школьников с одескаВряд ли сетка у школьников чему-нибудь научится(разметка будет хуёвая).
Аноны, в прошлом или этом тренде кто-то говорил про фриланс.Можно те самые 300-350 долларов поднимать, какая нагрузка для этого нужна? За что лучше браться новичку?
Такс, нашел ошибочку в обучении сети - удалось еще немножко подучить моюсеточку-малолеточку. Посмотрим где она застопориться с обучением. Во второй модели, где макспулл обучение застопорилось на 0.5, видимо где-то неправильно чет я сделал, т.к. в питоне сетка вроде норм обучалась до 0.2 .
аноны, а может ли сеть быть шизиком?какие вообще заболевания встречаются у нейронных сетей и как их избегать?
Такс, есть такая сеточка для кластеризацииhttp://arxiv.org/pdf/1506.02640v4.pdfПочему ее еще не реализовали га питоне на сайте диплернинг?
>>793501> какие вообще заболевания встречаются у нейронных сетейПониженная слоистость
>>793634Если я уменьшу к-во слоев для обучения поиска позиций символов мне хватит?
>>790256 (OP)Годноту палю.http://ocw.mit.edu/courses/electrical-engineering-and-computer-science/6-438-algorithms-for-inference-fall-2014/index.htmХули Юля делает в ЯП? Она же ещё сырая.
>>793973Чем это лучше сотни других таких же курсов? Например, вот этого от Koller:https://www.coursera.org/learn/probabilistic-graphical-modelsКнижку которой они упоминают в своем syllabus.
Не понимаю, зачем нам нужна softmax функция?Одна функция активации нужна для логических функций, линейная, насколько я понял, для проблемы регрессии.А softmax нахуя? Что значит это >the 1-of-N output encoding is used
>>794349когда классов больше 2 - ебашишь софтмаксмотивация та же что и для сигмоида>>the 1-of-N output encoding is usedспособ кодировать классы вектораминапр если 2 класса, то(1, 0) - первый класс(0, 1) - второй
>>794349> Что значит это > the 1-of-N output encoding is usedЧисло n просто представляется в виде вектора [0, ..., 1, ..., 0] с размерностью N и единицей на n-ом месте.https://en.wikipedia.org/wiki/One-hot
>>794349>Что значит это >the 1-of-N output encoding is usedПиздец вопросы у тебя. Это классика блядь, это знать нада! кодирование "1 из N". Нужно для задания классов, например если тебе нужно закодировать для нейроночки разные объекты, скажем, волк коза и капуста. Если ты эти объекты задашь просто цифрами 1, 2 и 3, то для нейроночки коза будет чем-то средним между волком и капустой, а это абсурд. В случае кодирования 1 из N волк, коза и капуста представляются в виде 3хмерных векторов 001, 010 и 100.
>>794368>>794370>>794387Спасибо.
>>794387В его книге написано, что это будет объясняться чуть позже.
>>794261Тем что в шапке про граф-модели в Бишопе и то, херово.
>>794392Русский, ты говоришь на нем?
http://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf
Здравствуй, анон. Ответь на пару вопросов. Как ReLU функция добавляет нелинейность? Можешь пояснить за дропаут?
>>794435Дропаут — это один из разновидностей концовки пера вилки, куда устанавливается ось колеса. Благодаря дропауты вы легко можете снять колесо, не ослабляя цепь.Все дропауты можно разделить на горизонтальные, вертикальные.Горизонтальные дропауты — используют на велосипедах без заднего переключателя скоростей. Благодаря этому дропауту, можно легко менять положение колеса и натяжку цепи. Особенностью является то, что нужно сильно зажимать болты или эксцентрик, что бы колесо не скривилось, после натяжения цепи. Вертикальные дропауты используют для велосипедов, у которых есть задний переключатель скоростей. Дропаут не позволяет менять положение колеса и натяжку цепи, поэтому для натяжения нужно использовать переключатель с натяжителем, или внешний натяжитель.Так же на некоторые велосипеды с одной скоростью или велосипеды использующие внутреннюю трансмиссию ставят вертикальный дропаут вместе с эксцентриковой кареткой, что бы регулировать натяжение цепи.На современных велосипедах, которые оснащены системой переключения передач задний переключатель крепиться к держателю на заднем правом дропауте или на специальный накладной кронштейн — так называемы петух.В зависимости от рамы, расстояние между дропаутами может меняться.Так же дропауты разделяют на штампованные и кованные.
>>794435> Как ReLU функция добавляет нелинейность?ReLU это if + линейность, if создает ветвление.
>>794435Возьми производную Взял? Есть скачёк в нуле. Так-то сейчас leaky ReLU пиже.
>>794459Нет, не взял. Не знаю, как брать от таких функций.
Вы все еще помните меня с моим шагоходом?Я наконец допетрил, как сделать так, чтобы он не дрожал и все, что пытались применить до этого - дерьмо.Ведь по сути у нас есть манипулятор, который хоть и работает аккуратно Хотя кому я пизжу, китайское говно, никто не может себе позволить, спасибо, что он хотя-бы сенсорныйНо создает вибрацию, так вот, оказалось, что если взять материал, который намного больше вибрирует и просто минимизировать его вибрацию.Блджад, можно это запатентовать и продать пиндосам?
>>794468И программа с обратным маятником хоть и была правильной, но легко аккумулировала вибрации, которые и наебывали робота.Да, нейронка может сделать так, что робот на обратном маятнике будет ходить нормально, но по сути она просто в определенный момент не даст вибрации наебать систему и будет дерганным и медленным, как сука.Также это заставляет подумать о том, что момент инерции вообще-то надо нивелировать и в качестве передаточного механизма использовать гидравлику.
>>794459А куда ее вставлять в сверточных?
Есть ли word vector'ы, которые можно апдейтить по мере появления новых слов без необходимости тренировать все с нуля?
>>794476Ебу дал? В нелинейный слой вместо ReLu или что там у тебя.
>>794464Ебаные школьники-нейроманты. Короче, для даунов есть вольфрам.http://www.wolframalpha.com/input/?i=max(0,+x)%27
>>794474>>794468Кстати, что привлекает школьников, которые даже матана нихуя не знает в нейронки?Они на что надеются, что они писать будут с ними, блядь?
>>794488Но это ответ, где объяснение?
>>794487ППЦ, столько ебали мозги с экспонентами, чтобы потом показать что они нахер не нужны?
>>794489Думаю лютый хайп вокруг сеток и их мобильных приложений. Это как с батлерепом, теперь каждый второй школьник батлит хоть школьную литературу и не знает.>>794490Сууука! Там есть кнопка step-by-step.
>>794494То-есть временный хайп заставляет их идти изучать целую отрасль в науке? Охуеть.Кстати, что с процессорами под нейронки, когда уже будут нормальные, а не жрать дерьмо на дедике за 15к?
>>794494> Сууука! Что-то ты какой-то нервный, держи себя в руках.> Там есть кнопка step-by-step.Ага, за денюжку.
>>794497Ну плати, раз ты такой тупой и решать не умеешь или не еби нам мозги.
>>794498Не хочу платить. Хочу ебать.
>>794497Раньше бесплатно было. Телепортировал объяснение тебе за щеку.Короче, слева от нуля функция равно константе(нулю), а её производная ноль. Справла там где максимум обращается в x производная равна единицы. Всё. Нелинейность это всё что НЕ линейность, а линейность имеет производную всюду равную однёрки. Проще, ReLu составляется из двух линий, а не из одной.
>>794496Кстати, здесь есть ананимасы, которые вынуждены производить огромные вычисления, а не ебаные школьники, на чем вы гоняете свои нейронки?Я с шагоходом заебался, кстати, спасибо шапочке за ссылку где объясняется за квадратичные приближения с огромным объемом данных, полезно.
>>794504Ты самое интересное же пропустил. Почему нет производной в нуле? Почему в нуле нельзя определить как 0, например?
почему школьникам так нравятся нейроночки1. клёвое название - роботы, захват мира, искусственный интеллект, етц2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится"3. легко усложнять модель до бесконечности - прост слоёв добавь))
>>794496Думаю, так. Видишь ли они даже акценты не правильно расставляют: начинают ковыряться в нейронах, выбирать нелинейность, реализовывать персептрон, не смотря на то, что глубокое обучение завязано именно на глубины. Вообще можно до этого >>794490 школьника доебаться.
>>794510Можно, но на это поебать. Есть производные справа и слева, есть усреднённая производная, есть ещё всякое говно в p-адическом анализе и суперматематике. Одним словом это не важно.
>>794513>>794498Да я же уже доебался, лол, пиздец они наглые пошли, относятся к анону так, будто он им что-то должен, а сами они не должни нихуя.
>>794512Добавь ещё один4. не нужно уметь в математику и статистику; достаточно быдлокодить; есть видеокарта для игор.
>>794525почему школьникам так нравятся нейроночки1. клёвое название - роботы, захват мира, искусственный интеллект, етц2. обучать их веселее чем другие модельки, итеративный градиентный спуск создаёт иллюзию что комп и вправду "учится"3. легко усложнять модель до бесконечности - прост слоёв добавь))4. не нужно уметь в математику и статистику; достаточно быдлокодить; есть видеокарта для игор.
>>794525Ну, по правде математика в самих нейронках и правда не очень нужна, обучить можно и обезьяну, в каких ситуациях что делать.Математика ведь будет нужна во всем остальном, там данные надо отсортировать, там подготовить обучающий сет, там оптимизировать вычисления, там можно использовать эффективнее не нейронки.
>>794529В книжечке которая, кажется, зовется она Machine Learning an Algorithn матана вообще особо нету, а в том что есть используются условные обозначения и все можно понять просто из кода.
>>794529Да, если говорить про инженерную составляющу. А ведь есть ещё такой важный пункт, как проектирование эксперимента так, чтобы можно было интерперетировать результаты и не охуевать. Во-вторых, есть ведь чисто математическая теория, которая сопрягается с граф-моделями, приорами, представлениями, EM, вариационным выводом и прочими интересными ништяками.
>>794533Ну, в том, где сейчас используются нейронки оно особо и не нужно, заказчики сами о них хуй что знают и их смело наебывают все, кому не лень.Достаточно посмотреть заказов на фрилансе и убедиться в том, какая хуйня там.А в научных вычислениях или даже нашем шагоходе такая пиздецовая вакханалия творится, на кафедре 3 инженера и не один из них матана нормально не знает, а программисты физику не знают, вот и пытайся работать с такими, Сколково, блять.
>>794528Странно как-то вы рассуждаете. Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?Хочу сделать X, поэтому мне нужно изучить A, B, C, нет?
>>794540>Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?Ты сам понял, что написал?
>>794540нет, это само по себе интереснозадачи - для задачников
>>794543Разумеется. Какое слово тебе не понятно?>>794545Ну фиг знает, много что интересно.
>>794539С хайпом ничего не поделать. Можешь попробовать написать книжку как в своё время сделал Минский.Если ты из акселератора, то смело доёбывайся до Фонда с тем, чтобы выйти на экспертов, которые есть в Ск.>>794545Двучую исследователя. Работаю над тем, чтобы структурировать говно и связать его с другими методами, подходами, идеями.
>>794549>Почему не в плане задач, возможных идей для проектов, для реализации которых требуется машинное обучение?Перепиши еще раз, использовав синонимичные слова, более четко выразив смысл предложения
>>794554> Хочу сделать X, поэтому мне нужно изучить A, B, C, нет?Смысл этого тебе тоже не понятен?
>>794557Мне нет. Писал какой-то аутист.другой кун
>>794557К чему ты это написал?И поясни давай, что ты имел ввиду в прошлом предложении.>>794559Удваиваю
http://bayesgroup.ru/
>>794568Ну и нахуя ты принёс это говно. Всем известно, что в Сколково только пилят.http://iitp.ru/ru/researchlabs/1145.htm
>>794573>Математические методы предсказательного моделированияХАХАХАХА, БЛЯДЬ.Предсказательного, сука.Кстати, я знаю этого профессора.
>>794573сколково впереди галактики всейпросто у вас, товарищь, отрицалово
>>794579Predictive же. А как правильно на русском?
>>794589Тут разумнее юзать прогноз.
>>794586Ну-ну. Без пруфов, конечно?Товарищь он мой.
>>794589>>794590А прогнозы делает Бабка Нинка с рынка, вот она то нашего Антона и прокляла, что он теперь в свою фошисткую омерику хочет уехать, в загнивающий запад
>>794595>прогнозыпредсказания
>>794595А вангует кто? Существуют ли ванговательные модели?
>>794459сасайRandomized ReLUThe second variant is called randomized rectified linear unit (RReLU). In RReLU, the slopes of negative parts are randomized in a given range in the training, and then fixed in the testing. As mentioned in [5], in a recent Kaggle National Data Science Bowl (NDSB) competition, it is reported that RReLU could reduce overfitting due to its randomized nature. Moreover, suggested by the NDSB competition winner, the random αi in training is sampled from 1/U(3,8) and in test time it is fixed as its expectation, i.e., 2/(l+u)=2/11.
>>794592сколково - заебок!
У Лекуна есть карта соединений между 2-ым и 3-им слоем, можно ли обойтись без этих заморочек с соединениями и соединить все слои со всеми?
>>794392Лучше не найдёшь, вся инфа по этим моделям разбросана в виде отрывков по разным статьям. Читай монстра, хотя его никто не осилил.https://people.eecs.berkeley.edu/~wainwrig/Papers/WaiJor08_FTML.pdf
>>794829Спасибо, анон.Наткнулся на то, что в лекция очень неаккуртно недоказывает изоморфиз граф-модели и класса распределений, а потом из этого ещё и алгебра строится. Хочу формальнее.Кстати, в определении процедуры d-разделения стоит введение топологии порядка. Как это связано с топологией на классе вероятностей? Думаю, что можно построить какую-нибудь процедуру, которая бы ввела структуру порядка на сигма-алгебре.Ещё была мысль вычитать Дафни Келлер, кажется. Она ведь тоже вроде стояла у истоков.
>>794682И получится перцептрон.
>>794573> использование методов выпуклой оптимизации для анализа данных большой> данных большой
>>794852С этим тяжелее, ибо мы, слесари, об этом даже не задумываемся.
>>790256 (OP)Хочу вкатиться, готов накатить любой ЯП. Есть примеры, которые можно поковырять?
>>795341deep learning + PCA
>>795359Кто все эти люди?
>>795360Второй - родственник SVD.
>>795360на есть kaggle.com задачкиalso https://www.hackerrank.com/domains/ai/machine-learning/difficulty/all/page/1
Какой-то бесполезный тред. В чем его смысл?
>>795367Изучение нейронных сетей. Обучение машин всякому.
>>795368Ну и что тут уже наобучали?
>>795369Я только вкатился. Но вроде капчу наебывать можно.
>>795367Ни о чём. Я книжки норм нашёш. В основном здесь школьни тусуют тред уровна php.
>>795374> Я книжки норм нашёшкакие?
>>795375https://www.reddit.com/r/MachineLearning/comments/4rde9p/textbook_advicediscussion_sought/
>>795341Говно можешь поковырять.
>>790256 (OP)Давно мечтаю запилить что-нибудь связанное с рисованием нейронными сетями. В итоге хочу запилить хуйцегенератор. Пользователь выбирает фотографию, а моя штука как бы перерисовывает её из хуйцов. Как Google DeepDream, только вместо машин, домов и собак будут хуйцы и, например, вагины.С чего мне начать? Какой ЯП для этого посоветуете? Какие готовые решения и фреймворки существуют?
>>795414Да ни с чего, дебил, блять, нейронки - это тебе не хуета, раз-два, а месяца 2 изучения матана, месяц изучения питона и хуй знает сколько времени убьешь на то, чтобы научить сеть обрабатывать фото.В гугле на это убили сотни тысяч человекочасов, а ты в одиночку хочешь запилить, совсем дебил?
>>795417Я уже учил теорию, так что не проблема, тем более я не собираюсь с нуля писать это всё, в пиздон и прочие популярные ЯП я умею. Я попросил именно или фреймворков или готовых решений или просто в какую сторону копать. Кто-то явно уже запилил как минимум одну библиотеку, упрощающую написание подобного.
>>795417Даун, плиз. 3 месяца это немного.Вот именно что гугл уже запилил, осталось взять готовое и перепилить под свои нужды.
>>795420Два чаю адеквату.
>>795419А книги в шапке чекнуть не судьба? Это топ уровень, тем более нейронки не привязаны к языку и реализовать их можно на чем-угодно, в гугле информации полно, хули ты сюда пришел?>Даун, плиз. 3 месяца это немного.Это если у тебя есть свободное время.
>>795425Шапка не под эту задачу, всю шапку, все статьи и книги, которые в ней есть, долго читать. Не нашёл ничего тематического в гугле. А тут ответят как лучше, исходя ещё и из личного опыта. У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд.
>>795427>все статьи и книги, которые в ней есть, долго читатьПросто>У меня есть свободное время, однако под мою задачу нужны конкретные библиотеки, а не изучение всего подряд.Можешь съебать отсюда, а то подайте ему все на блюдечке с золотой каемочкой, нахуй всю статистику, ведь он у нас ЯП знает.
>>795430Да и тем более мог почитать выше тред и поискать по прошлому, а не засорять новый, ничего лучше, чем книгу тебе никто и не даст, нейроночки - это тебе не Питон, порог вхождения высокий и из гугла не изучается за полчасика.
>>795431Нейроночки — лишь подход к решению задач. Есть разные либы для различных частных случаев задач, решаемых ими. Я всего лишь спросил какую лучше всего использовать для моей. Так что сосни хуйца, даун.
>>795430>ведь он у нас ЯП знает.А ты ньюфаг, осиливший один недоязык и разобравший пару примеров с нейронными сетями и тебе с меня горит?
>>795433Нейроночка - это тебе не лопата, а целая теоретическая база, ядерная физика тоже подход к решению задач, может тебе и по ней также подсказать? Да и ты мог заметить, если бы прочитал тред, что никто тут этим не занимался.
>>795433Двачую адеквата. Как гооврится гарбадже-ин-гарбедж-аут.>>795433Сасай даун. Нужно хотя бы понимать, что выдаёт тебе эта библиотечка, и когда она применима, идиот.
>>795437Мне не нужно знать не единой формулы из ядерной физики, если кто-то запилит готовую библиотеку для работы с ней. Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред.
>>795438Шизик, это ты?
>>795440В нейроночках нужно знать принципы их работы.Numpy держи, вперед, пиши.>Да ладно? Не занимался? А вот мочератор /pr/ посчитал, что занимался и послал меня в этот тред.Он тебя послал в тред ML, а не говорил, что тут это разбирали и тебе помогут
>>795438Спешите видеть, петух-семён обосрался.
>>795443Да и нейроночка - это подход, верно, но он не состоит из чего-то готового.Вот дал я тебе Numpy, покопаешься ты в массивах и нихуя не поймешь.Это как игра на скрипке, хуй ты что сумеешь без знаний того, как оно устроено и работает.А то, что ты тут ведешь срач уже показывает тебя полностью, давно бы в гугле нашел или треды перечитал, но нет же, ждешь готового, а говна наверни, ублюдок.
>>795440Нейроночки, также как и другие дисциплины, каким-то образом связанные с человеком, интеллектом (типа теория принятия решения, методы анализа нечеткой информации), недостаточно сформированы, и любая задача требует индивидуального подхода к ее решению (требуется подбор структуры сети, подбор функций, метода обучения и т.д.). И хоть у тебя есть библиотека со всеми этими структурами, функциями, методами обучения, ты нихуяшеньки не сможешь сделать толкового, не зная основ (что где вообще применяется в более общих случаях) и не изучая кучи дополнительной лит-ры с исследованиями по конкретным направлениям (какие новые методы и в каких конкретных задачах применяются).
>>795414Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
Кстати, а вот реально, поясните за tensorflow.Это же просто либа для машинного обучения, что в ней особенного? Во что такое может она, во что не нельзя написать на питоне в несколько строк кода?
>>795488С её помощью можно быстро, практически без каких-либо знаний нейронных сетей, написать что-то типа гугл дипДрим, только со своими пикчами вместо собак.
>>795490И что гугл от нее хотел, дабы хомяки сами освоили технологию?Кстати, кто работает в направлении нейронных сеточек? Есть тут фрилансеры, которые расскажут, что делают вообще?
>>795490Как это перегнать под андройд?
>>794929Да, ты не понял.
>>795522Ты долбоеб?Ну, возьми исходный код всего проекта и оптимизируй под андроид, лол.
>>795526питона?
>>795529Почитай интервью или техобзоры на маскарад и призму.
Аноны, я просветлел, могу в нейронки, больше ваши фразы меня не пугают.Я прочел 1/4 книги, стоит ли читать дальше? Там вроде будет углубление по всем темам, рекуррентные сети, сверточные, распознавание образов.Но нахуя все это? Нет, сама нейронка в том виде, которая она нужна была мне и для моих целей у меня теперь есть.Стоит ли идти дальше, есть ли фриланс на нейронках или знаний питона и 1 книги недостаточно будет?
>>795707Да, видимо недостаточно, везде надо знать либо nlp впридачу, либо нужно быть intermediate минимум, а заказов для entry level почти нету.
>>795713> nlpНейролингвинистическое программирование? Я что-то пропустил, и роботы уже научились понимать человеческое поведение?
>>795728Обработка естественного языка
>>795707>>795713главные компоненты и диплёрнинг^^ всё что нужно знать из мл ^^
>>795743А есть какой-нибудь список этих главных компонентов и что-то вроде "хеллоуворлдов", которые должен уметь написать любой человек, который работает в машинном обучении?
>>795749Завтра ищешь в интернете книжку "Neural networks for pattern recognition". Похуй если ничего не поймешь. Затем идешь на deeplearning.net и изучаешь библиотеку theano от корки до корки. Потом зубришь, именно, сука, вызубриваешь алгоритм обратного распостранения ошибки - чтоб от зубов отскакивало. Когда напишешь свою первую нейроночку, по пути поучавствовав в kaggle компетишенах, покупаешь и изучаешь нормальную видеокарту, рекомендую NVIDIA GTX1080. Как переделаешь нейроночку, чтобы выдавала по крайней мере 5 тысяч предсказаний в секунду, можешь идти дальше - тебя ждет увлекательный мир диплёрнинга. CNN, RNN, сверхглубокие машины больцмана, tensorflow. Отсос веб макак / просто неудачников типа нечётко-питуха или сёрло-хуесосов, которые сосут хуй по жизни не заставит себя ждать и уже через пол года ты будешь получать такие суммы, что любая баба будет течь при одном упоминании твоей зарплаты.
>>795749А то мне неохота идти в Джангу и писать сайтики за 300.>>795750Найс паста, только где про графические библиотеки, работу с лингвистикой?Если посмотришь на апворке что-то связанное с машинным обучением вообще, то там везде что-то такое требуют.
>>795750>>795757А вот за Theano спасибо, как дочитаю свою книжку, так пойду его изучать.
>>795769Теано шляпа. Самые новомодные библиотеки для диплернинга все рассчитаны на распределенные вычисления. MXNet, TensorFlow как вариант. В последнем пока жмутся полное распараллеливание плебеям выкладывать, а вот в MXNet все есть. Вот еще какое дело. Тута принято хейтить R, покажите мне где еще есть столько готовых алгоритмов на все случаи жизни? https://cran.r-project.org/web/views/ это только вершина айсберга, более 8500 пакетов, во многих не по одному десятку алгоритмов и методов.
Как вам вот эта книжка для начального изучения ML?deeplearningbook.orgС учётом, что могу в линал, матан, тервер и матстат
>>795798И со знанием всех этих библиотек - свободная касса.
>>795798>Вот еще какое дело. Тута принято хейтить RДа потому что это очередное новомодное никому не нужное говно.
>>795798R не умирает, но Python сделал много нашествий в тех областях, где R имело обыкновение быть единственным языком считается. Это довольно ужасный язык, так что, вероятно, продолжит медленно снижаться. Но, как Fortran, мы никогда не избавиться от него.
>>795981Ты гугл переводчиком пользоваться для написания сообщения?
>>795983Это нейроночка пишет в тредик, успокойся :3
>>796011Сука, кто из нас человек, а кто из нас нейронка и почему нейронка чмырит R?Сраный тред машинного обучения, хуй, что поймешь.
Нейроночка не любит R.Не расстраивай нейроночку.Пиши на Python.
>>796015А ХАЧКЕЛЬ?
Аноны, какой все-таки смысл от soft-max функции, когда мы решаем проблему регрессии? Она типа аналогична сигмоидной функции, только поддерживает много классов?А классификация у нейронок после обучения - это просто выбор самого близкого?
>>796039для регрессии она не нужна тебе> А классификация у нейронок после обучения - это просто выбор самого близкого?выбор - это целая теория
>>796036ленивая нейроночка получитсяещё и бесконечная
>>796043А, тогда автор книги мудак, но спасибо
>>795798> В последнем пока жмутся полное распараллеливание плебеям выкладыватьC чего ты взял? Ничего там не жмутся.
>>796058Скорее ты его не понял. Делай скриншот страницы, где автор мудак.
>>796044Вот смотрю, на чем пишут ИИ и прочий матан: MATLAB, R, Julia, Fortran, Python/NumPy. Всяких этих МОНАДОК нету. Так о какой научности своих языков пиздят борщехлебы?
>>796308О классах, типах и категоргиях, хотя недавно была серия тредов, где поясняли, что на хачкеле нельзя даже накодить свою категорию.
>>796319Ну мне интересно, какое же практическое применение этих категорий.
Кто-нибудь смотрел курс на юдасити от гугла? Стоящий?
>>795524короч, соединил я и потестировал, качество распознавания ухудшилось прилично.
>np.where(array[:,4]==0) Аноны, для чего тут ==, что оно делает?
>>796441If only condition is given, return the tuple condition.nonzero(), the indices where condition is True.
>>796441Да и вообще? Как получается так, что нейроночка должна из train = array[::2,0:4] сделать traint = target[::2]В одном же 4 элемента, а в другом 3, она их как-то сожмет? Как она распределит?
>>796488Вот тред ИИ-богов, там подскажут: >>790256 (OP)А здесь только школота и жирные тролли-гансоебы вроде меня.
>>796504Упс, не туда запостил братишки.
Аноны, поясните мне за классификацию у нейроночек, как они ее делают?У меня есть массивы данных с 4 столбцами.У меня есть таргеты с 3 столбцами.И причем, если число слоев меньше 4, то классификацию он отказывается производить и просто минимизирует функцию ошибки.Как это работает? Я прочитал книгу и ничего не понял, он на 1-м слою отдает по 1 input nodes на каждый вертикальный столб массива и между 3 слоями делит активацию?
>>796571А нет, напиздел, производит он классификацию и с 3 слоями и с 2, но в таком случае я совсем нихуя не понимаю.Или он ставит только в выходном слое 3 нейрона и принимает все параметры от них? И тогда вот эта схема на пике правильная?
>>796337Обмазываться.
>>796580И output nodes он берет из образца target?
>lastPoint = np.shape(PNoz)[0]-t*(k+1)Зачем вот здесь мы используем (k+1)Это для смещенной ноды, верно?
>>796435а хотя нет, еще настраивается, хотя медленнее.
>>796766Аноны, ну вот, представил всю информацию в доступном виде, нахуй там k+1
>>796952Это закономерность временного ряда, верно?
>>796952ТИМОФЕЙЧИК
>>797083Тамерлан)
>>797088иншала
>>790256 (OP)Аноны, а все-таки объясните мне, каким образом нейронная сеть может что-то прогнозировать?Все что она может - это настраивать свои веса, если она проанализирует информацию о температуре за текущие 10 лет, то как она спрогнозирует информацию о температуре на следующий год? Она же по сути просто решила проблему регресии и может выдать нам сильно усредненные данные.Я понимаю, что она может спрогнозировать какую-нибудь функцию, где значения, например, синуса будут повторяться.Тут такой же принцип? Самое усредненное значение и выдается за прогноз?
>>797118http://videolectures.net/mlss09uk_shawe_taylor_lt/ например
>>797125У меня не такой хороший уровень английского.А все-таки интересно, какой смысл пихать огромное количество данных на нейроночку? Вот в моей книге она пусть и проанализировала кучу данных, но прогноз то не выдала, каким образом это происходит? Нейроночка же заметит только самую общую тенденцию, типа положительной динамики по расширению очка у негритянских младенцев в течении последнего года по сравнению с предыдущим и покажет это на графике.Или мы даем сети какой-то один из параметров на вход, а она используя свои веса дает нам значение?
>>797139Хотя, если ввести классификацию общих тенденций, то можно нейроночку использовать в качестве мощного инструмента для прогнозирования
Аноны, можно ли представить все показания обратного маятника как временные ряды и из показателей положения и скорости вывести требуемые показатели мотора?То-есть сначала пытаемся гонять на подобии сегвея Причем учитывая только то время, когда он движется и через некоторое время такой езды узнаем показания мотора для различных положений С графиком, лол, заодно и будет видна зависимость от угловой и общей скоростиИли можно указать положение аппарата в таргеты и дать сети, обученной решать проблему регрессии подбирать показания мотора?
Встала задача анализа естественного языка и классификации данных на естественном языке. Пикрелейтед - годная книга, чтобы понять, куда копать?
Можно.
>>797373Точняк?
>>797374>>797373Бля будешь?Сука, отвечаешь, очко ставишь, мать даешь? Клянись, выблядок!
>>796132>C чего ты взял? Ничего там не жмутся.Там жи нет поддержки распараллеливания вычислений между физически разными девайсами. Или уже зарелизили?
Зачем ваш пейстон нужен, если там нет ни одной реализации нечетких моделей (нейро-нечетких, генетико-нечетких и т.п. и т.д.), только полторы библиотеки элементарных операций с нечеткими множествами уровня студенческих поделий. Сладкий хлеб, короче.
>>797420потому что тред для чётких пацанов
>>797430Ну ок. Возьмем байесовские методы. На пистоне хотя бы треть от этого https://cran.r-project.org/web/views/Bayesian.html найдется? А это только самое основное рассмотрено, реально там в несколько раз больше.
>>797469> ничотко питушок пытается перевести срач на другую тему
>>797474Суть-то в том что на пистонах нихуя и нет кроме 1,5 распиаренных библиотек под модные глубокие нейроночки, которые все равно неработоспособны на реальных задачах (а не манядатасетах типа мниста) без нескольких видеокарт, каждая стоимостью с годовую зарплату твоей мамки. Остальной тамошний функционал есть даже в екселе.
>>797420Потому что это говно нахуй не нужн.
>>797497>кококо нинужно!!111Что же это у вас, чего ни хватишься - все нинужно!
>>797505Ну так нечеткие модели нахуй никому не нужны уже года 4
>>797508Потому что ты так сказал?
>>797510И где они используются серьезными пацанами?
Бейсовский вывод на данный момент является наилучшим подходом для машинного обучения. Исключительная выразительность и простота позволят Вам быстро составлять элегантные и эффективные статистические модели.Подход еще не столь распространён. Пока ваши конкуренты используют устаревшие технологии на базе нечоткой логики или классического подхода с точечными оценками, вы сможете в разы поднять свою эффективность, задействовав EP - последнее достижение науки в области вариационных методов. Но это еще не всё.В жизни любого ML-проекта наступает момент, когда он превращается в продукт и сопровождению проекта привлекаются дополнительные разработчики. На этом этапе распространённость и доступность методов начинает играть решающую роль. Благодаря активной популяризации бейсотвкого вывода в среде коммерческих разработчиков, а также поддержке со стороны лидера разработки методов машинного обучения - университета Кембриджа, Вы можете быть уверены, что в будущем Вам не придется переписывать свой проект как это было с печально известной разработкой Нечётко-питуха.Бейс обеспечит вам гарантии успеха и стабильности Ваших начинаний. Выберите Бейсовский вывод сейчас и через несколько лет Вы сможете наслаждаться результатами своих трудов - успешным проектом, выполненным с учётом всех современных технологий и индустриальных стандартов. Бейс - Ваш проводник к успеху в мире машинного обучения. Выбирайте Бейсовский вывод.
>>797515>Подход еще не столь распространёнВот и все
>>797511Да везде. В отличие от нейроночек для нечетких контроллеров очень просто доказать глобальную и локальную устойчивость, что позволяет использовать ихв промышленности. Поезда на нечетких контроллерах в Японии с 1987 года ездят, сейчас уже и во многих развитых странах. Даже в Дубаях есть такое метро. Половина мирового производства цемента - это установки на нечетких контроллерах. Лень все перечислять, применений реально полно, фотоаппараты, рисоварки ,стиральные машинки и прочее. И все это уже непервое десятилетие. А вот нейроночками и то только сверточными толькогугл и занимается и то последние года 3.
>>797518Ну вот, раз так давно используется, то питон в этом и не нужен.А Нейроночки активно развиваются.
>>797521>Нейроночки активно развиваются.Ничего там не развивается, только слоев добавляют, да сигмоиды заменили на релу. А так все на уровне первых работ Лекуна, 80-е годы. Это сверточные нейроночки, остальное впрактических целях вообще малоприменимо или вообще неприменимо.
>>797525Учатся применять везде и расширяют, заменяет дохуя того, что было раньше, это все медленно, но нейроночки выгрызают себе место.
>>797528В конце-концов хоть что-то развивают.
>>797528Сверточные нейроночки могут заменить только сверточные нейроночки. Хуйня,которая по месяцу сходится на многопроцессорных теслах, не заменит нчечткий контроллер ,который можно реализовать на микроконтроллере и вкорячить в лбое устройство. Ну и я упомянул главную причину, почему нейроночки не использут в промышленности - они работают как аллах на душу положит, для них нет строгих доказательств устойчивости, а это обязательное требование для внедрения изделия в промышленности. Никто (в особенности из ответственных лиц) не одобрит изделие, которое теоретически может спалить ползавода или со всей дури посадить поезд метро с пассажирами на тупиковую призму.
>>797531Ну видишь ли, это все только пока, в будущем будут и мультипроцессоры под них.Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно.
>>797545>Нейроночка хороша тем, что она по сути как волшебная палочка может выступать и делать все, что угодно.Для нечетких моделей давно доказаны универсальные аппроксимационные свойства. При этом, в отличие от нейроночек, знания представлены в интерпретируемой форме, а не как черный ящик, который вроде работает, а как - хуй его знает (а вдруг еще и хуй не знает).
>>797547И кому это устаревшее дерьмо сейчас и здесь нужно? Те, кому оно нужно им уже давно пользуются, а не лезут сюда, ты бы еще залез к чувакам, которые новые двигатели делают и начал им про преимущества паровых рассказывать.
>>797548 А ВОТ НА ЭЛЕКТРО-ДВИГАТЕЛИ АККУМУЛЯТОРЫ ОГРОМНЫЕ НУЖНЫ, ИМИ ТОЛЬКО ОДНА КОМПАНИЯ ЗАНИМАЕТСЯЛАМПОЧКИ НЕ НУЖНЫ, СГОРАЮТ И ПОЛЬЗУЮТСЯ ИМИ ТОЛЬКО В БОЛЬШИХ ПОМЕЩЕНИЯХ, СВЕЧКИ НАМНОГО ЛУЧШЕ
>>797552Ракеты не долетят до космоса, давайте пользоваться ДирижаблямиДля Дирижабля подъем гарантированПоэтому нечетко-петух должен съебать нахуй, дикарь.
Вы просто школьники и не понимаете простых вещей. Перцептроны появились в 1968, сама идея нейроночек - в 1943. И их промышленное применение до сих пор невозможно, я даже скажу, принципиально невозможно. Суть нейроночек - аппроксимационные свойства, что доказывается теоремами Колмогорова, Горбаня, Такенса и т.п. Все, что может нейроночка, может любая нечеткая модель, что опять же доказывается соответствущими теоремами об универсальных аппроксимирущих свойствах. Плюс к этому присуствует полная прозрачность происходящего и простота самих алгоритмов. Из нейроочек жеинтерес представляют только сверточные сети и только в узкой области использования.
>>797572Ага, а концепт танка появился еще в 13 веке.
>>797572Сколько контекстов на kaggle уже победил?
>>797581А ты сколько?
>>797584Я? Нисколько, но там, где участвовал, на первых местах всегда ебаные нейроночки, и никогда - твоя шизофрения. Хотя казалось бы. Миллионером стал бы.
>>797572Почему у тебя столько противоречий в твоем посте. Это что, нечеткая логика изложения мыслей?
Традиция треда - Травить нечеткопетуха
>>797640>Почему у тебя столько противоречий в твоем посте?Фикс
>>797640Где противоречия?
>>797644ТЫ ПЕТУХ, НО БАЗАРИШЬ КАК ЧЕЛОВЕКАноны, кто приделал нейроночку к петуху?
>>797644Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем. К тому же теоремы, которые ты назвал, относятся к сходимости обучения системы (в т.ч. и нечетких моделей). Конкретно для перцептрона, например, уже доказана теорема сходимости. Не думаю, что для более сложных систем невозможно доказать нечто аналогичное как и для других систем; мб и потруднее будет, но нейронки все-таки развиваются, и через какое-то время обязательно все будет.
>>797646сколково
>>797654>Говоришь, что применение принципиально невозможно, тут же говоришь, что суть нейронок - аппроксимационные свойства, и что они доказываются рядом теорем.Я писал, что применение нейроночек в промышленности невозможно из-за отсутствия возможостей доказать устойчивость и стабильность. До сих пор существут только общие советы по параметрам нейроночек для обеспечения нормальной сходимости. А нужны строгие доказательства устойчивости алгоритма при любом возможном режиме функционирования. Нейроночки слишком сложная ебань, чтобы существовали подобные доказательства для общего случая (любая нейроночка и любая задача). Даже если такое доказательство и возможно, оно будет слишком сложное, чтобы использоваться на практике. Тогда как те же поезда метро на нечетких контроллерах давно и успешно работают.
>>797667Твои нечеткие модели не могут в искусство. А учитывая, что нейросетки это всего-лишь аппроксимационная модель, состоящая из множества однотипных простых узлов, объединенных в определенную структуру, и то что они могут извлекать нужные фичи из данных, а также порождать что-то новое, или по крайней мере какой-то "идеальный" образ, это создает еще больший интерес, и вообще говорит о многом.Ну и как тебя выше ткнули, нейросетки-таки мощнее во множестве задач.
>>797667Пиздуй в тред по теории управления. Здесь машинным обучением занимаются, а не разработкой рисоварок.
Так, посаны, а что если я вместо последнего слоя в Ленет-5 сделаю не 10 выходов, а те же (12832)10(сколько классов), что у меня на входе, например. Вроде тогда сеточка должна научиться находить положение цифры. Непонятно еще какой выбрать порог, чтобы было понятно есть там реально цифра или это галюн сети.
>>797988>(128 x 32)10(сколько классов),
Аноны, поясните мне за градиентный спуск в алгоритме обратного распространения ошибкиЯ до этого пользовался тем, что менял параметры для весов 1 слоя и всех остальных скрытых, все выглядело вот так вот:deltah = self.hiddenself.beta(1.0-self.hidden)(np.dot(deltao,np.transpose(self.weights2))) updatew1 = eta(np.dot(np.transpose(inputs),deltah[:,:-1])) + self.momentumupdatew1 updatew2 = eta(np.dot(np.transpose(self.hidden),deltao)) + self.momentum*updatew2 self.weights1 -= updatew1 self.weights2 -= updatew2А как этот код обновить в согласии с градиентным спуском?
Умели же раньше нейроночки делать. https://www.cs.cmu.edu/Groups/AI/areas/neural/systems/qprop/ Nevada QuickPropagation, исходник на С - 1 файл 24кб. И это серьезный инструмент, а не поделие школьника.
>>798190У тебя жесткий диск в 2 мегабайта?
Аноны, а что это за функция активации?Универсальная типа?δo(κ) = (yκ − tκ)yκ(δκK − yK)
>>798199Или это softmax?Как вычисляется δκK
>>798191А причем тут жесткий диск? Речь о том, что для перцептрона на крестах не нужны 1-2 гига только пистона со всеми зависимостями. Это же 100% детектор индусского кода и быдлокодеров-авторов. Даже в наше время, вот есть библиотека для диплернинга https://github.com/dmlc/mxnet от автора любимого всеми школьниками xgboost'а. с врапперами под все нормальные ЯП. Меньше 2 мб. Пистон поддерживается, но не обязателен как во всяких теанах.
>>798205Да хочешь ты на крестах писать - пиши, не еби мозги, мразь.
>>798206Нет же блядь, надо выебнуться, понимаешь, насколько ты пидор?
Да автор этой книги охуел, объяснил алгоритм обратного распространения ошибки, но не объяснил, как его реализовать на питоне, я сам догадаться что-ли должен?Почему не дать код, чтобы все понятно было?
>βa(1 − a) Это равно записи>self.beta(self.outputs-targets)self.outputs*(1.0-self.outputs)
>>798231>>798223>>798199ты похож на слепого младенца
>>798233Есть такое, сегодян разберусь с этим и основы пройдены.
>>798238сегодня*
>>798223Бля, ебать я даун, пары формул испугался.
>>797430
>>798318
Аноны, а как в алгоритме обратного распространения ошибки с градиентным спуском осуществляется деление ошибки между скрытыми слоями?Я понимаю, что если скрытый слой 1, то совсем похуй, или в случае с дополнительными скрытыми слоями считать как для входного слоя?В книге написано, что:>Note that we can do exactly the same computations if the network has extra hidden layers between the inputs and the outputs. It gets harder to keep track of which functions we should be differentiating, but there are no new tricks needed.
>>798381Пиздец, наркоманы тут сидят. И не лень было рисовать. Нечего возразить @ нарисуй смищную картинку.
>>798386И вот скринМожете показать, как мне для дополнительных слоев считать?
>>798387Лол, ты всерьез считаешь, что ведешь серьезный диалог с кем-либо?Никому не интересно твое говно здесь разбирать, а вот поугарать над нечетко-петухом - весело.Да и ты сам виноват.
>>796952>>798386>>798387>>798392тимочка-нейроночка
>>798395Мне кажется тут весь тред чувак поехавший типа золотца сам с собой разговаривает притворяясь то нормальным, то мелкобуковкой, я уже второй тред этот пиздец наблюдаю, изредка люди заходят с вопросами как вкатиться, видят шизика и убегают
>>798404> Мне кажется ты уже третий тред всё сомневаешсясам-то кем будешь?
Есть у меня влажная мечта - разрабатывать системы анализа финансовых рынков. Валютная биржа нынче полностью автоматизирована. Программы, которые умею делать прогнозы в краткосрочной перспективе (несколько секунд) стоят сотни миллионов долларов.Также я интересуюсь криптовалютами. Думаю, с них начать изучение этой темы было бы намного проще - не нужно ни лицензий, ни больших вложений (благодаря высокой степени делимости всех криптовалют, так повелось ещё с биткоина).Насколько я понимаю, основная работа таких программ - анализ финансовых новостей из множества источников, т.е. обработка текста на естественных языках.Может кто подсказать, с чего начать? Как решить, какие источники рассматривать? Какие именно характеристики текста нужно вычислять?По машинному обучению смотрел лекции ШАДа и курс от Стендфорда (ml class), но практикой не могу себя заставить заняться - хочется реальных задач, а не абстрактных. Понятно, что потом всё равно нужно будет решать абстрактные задачи чтобы интуитивно уже чувствовать, какой алгоритм может быть применим в конкретной ситуации. Но начинать с этого нет совершенно никакой мотивации - это не даёт никакой общей картины.
>>798410а ты кошерный?
>>798411На четверть
>>798410Вот это подойдёт как источник новостей? Как часто он присылает письма при конфигурации "Частота отправки: По мере появления результатов"? Что делает фильтр "Количество: только лучшие результаты"? Убирает дубликаты (копирайт)?
>>798386А все, понял, считать как для последнего слоя.
>>798410я думаю, что машинное обучение не так много используется в торговле, потому что торговля на самом деле не что-то легко формализуется как проблема машинного обучения, несмотря на что, будучи нелогичным к компьютеру ученого.
>>798410Для начала открой для себя технический анализ и пойми чем он отличается от фундаментального.
>>798395>ты всерьез считаешь, что ведешь серьезный диалог с кем-либо?Для серьезного диалога нужно чтобы оппонент что-то понимал в предмете. Этого я не вижу, поэтому говорить можно только о серьезном монологе.
>>798432>Три аксиомы технического анализа>Движения цен на рынке учитывают всю информацию>Согласно этой аксиоме вся информация, влияющая на цену товара, уже учтена в самой цене и объёме торгов и нет необходимости отдельно изучать зависимость цены от политических, экономических и прочих факторов. Достаточно сосредоточиться на изучении динамики цены/объёма и получить информацию о наиболее вероятном развитии рынка.Согласно этому постулату, анализ новостей вообще не имеет смысла. Но, тем не менее, он проводится многими. Значит, меня интересует именно фундаментальныйанализ?
>>798447Если ты сделаешь фундаментальный анализ в виде, пригодном для использования в алгоритмах машинного обучения, его можно и совместить с техническим. Как представить новости и т.п. в виде набора векторов? Тут надо смотреть в сторону латентного семантического анализа (LSA), ящитаю. Я немного думал в этом направлении, но решил, что особого смысла в этом нет, т.к. колебания показателей (цен, объемов, показания индикаторов и т.п.) отражают в т.ч. и новости, как и написано в твоей пасте.
бишоп под пельмешки мм..
Заебись, mlp и была с обратным распространением ошибки как в последней главе, а я целый день убил на то, чтобы понять, как эта хуета работает, заебись.
>>798526правда?
>>798526>mlp My Little Pony?
Посмотрел этот вин https://www.youtube.com/watch?v=qv6UVOQ0F44Мне чтобы уметь такое придется всю эту тонну литературы с оп поста изучать?
>>798553Да.>>798543Лол, короче задрочил все формулы, решил переписать уже имеющуюся нейроночку, начал тыкаться, сверять, а там уже все правильно, ну заебись.
>>798556>Да.Но я не хочу снова интегралы решать как в институте :'(
Посоны, чо там у мемристоров, следит кто-нибудь? Шмогли русаки из МФТИ али нет.
>>798582>Хм, я не читал ничего из ОП-поста, но помню вузовский курс по НС и прочёл несколько статей по генетическим алгоритмам, и мне кажется что ничего сложного в этом нет.Ну а ты попробуй.
Вы злые
По совету анона спрошу тут.Есть 3d уровни из игры, представляющий собой обычные текстовики с перечисленными объектами, их свойствами и положением (грубо говоря).Цель, используя нейросети поиграться со всеми этими объектами. Создавать уровни на основе других уровней, применять стиль одного уровня к форме другого, ну и всё такое прочее.Какой тут лучше всего взять язык, фреймворки, библиотеки? Ну и если кто шарит в теме нейросетей, можете дать общих советов?
>>799018Нейросети надо показывать где хорошо, а где плохо. Соснёшь.
>>799018Нейросети надо показать цели.Видишь ли, нейросеть - это аппроксиматор функции, она с некоторой ошибкой будет делать то, что ты от нее потребуешь.Если ты хочешь, чтобы она перемещала кирпичики - то можно дать ей форму и она как-нибудь заполнит пространство.Можешь попробовать сделать так, чтобы нейросеть из твоих набросков понимала, как уровень устанавливать.Но фантазировать нейронная сеть не умеет, она не геймдизайнер, ты можешь ей выставить требования к чему-либо и она по ним построит.
>>799153>фантазировать нейронная сеть не умеет
>>799104>>799153Я думаю, что как-то всё таки можно это реализовать.https://github.com/jcjohnson/neural-stylehttps://nucl.ai/blog/enhance-pixel-art/Я вот охуел от подобных вещей, вот и решил начать изучение этой темы, параллельно делая то, что интересно.
Аноны, а кто юзал нейронную сеть в анализе поиска пути?Мне интересно написать аркадку для начала, где нейронная сеть будет на 2д карте на технике бороться с людьми.И я не знаю, как сеть реализовать, тут ведь несколько подходов, но в основном все же будет зависеть от скорости, положения.Я могу применить оценочный алгоритм? То есть хочу, чтобы сеть выбирала наилучшее из положений и запоминала его, используя наиболее часто, прямо как люди, лол.Кстати, такое где было реализовано?
>>799159Не умеет, это никакая не фантазия, нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй и перемещает его.>>799164Это другой подход, тебе для твоих карт нужны некоторые принципы.
>>799159Это не фантазии, а поиск и усиление по выбранным свойствам. Обычная машинная работа без привлечения сознания, фантазирует лишь оператор, выбирая как настраивать эту машину.
>>799166Можно даже юзать алгоритм Монте-Карло.Но он вроде вычисляет для линейных моментов стратегию, а я хочу, чтобы машина мыслила масштабно.
>>799171>линейныхЛокальных
>>799171Хотя по идее распределение приоритета можно выделить тоже нейронной сети, верно?То-есть, если при подходящих условиях выстрелить по 5 точкам лучше, чем по 1, хоть и вероятность попасть - меньше, то машина так и сделает, верно?
>>799169>>799170Вы типа знаете как на самом деле работает фантазия и в чем ее "биологическая" сущность? Может быть это и есть фантазирование, просто для такой небольшой машины она несколько примитивна.Кто знает до чего доберутся нейросети.
>>799178Знаем, фантазия работает вовсе не так, у человека в голове есть подобный алгоритм, но никаким боком к фантазии он не относится.Нейросеть может написать лучший сценарий для аниме из всех, что ты видел в текущем жанре.Но нового жанра она не создаст.
>>799180Хотя нейронная сеть может кое-чему научиться.Если бы мы могли наблюдать за полным выбросом эндорфинов и реакции у людей, то ничего не запрещает нейронной сети оценивать все точно так же, как и людям.
>>799180Любая новая идея, придуманная человеком - комбинация уже известных идей. Это всегда так и по другому не может работать; человек не может оперировать тем, что он никогда не видел.Например: как выглядит иная вселенная, не подобная нашей? Хуй знает. Она может выглядеть так, как мы и не представляем, и никогда не сможем представить. Единственное что мы можем - это только отталкиваясь от идей нашей вселенной видоизменить их каким-то образом и как бы выдумать другую вселенную, якобы не такую как у нас.
>>799186>Любая новая идея, придуманная человеком - комбинация уже известных идейК этому алгоритму это не относится.
>>799186>комбинация уже известных идейА это хоть и правда, но число таких комбинаций бесконечно, ибо в мире уже дохуя всего, чего в природе и во вселенной ты не найдешь.
>>799188>К этому алгоритму это не относится.>нейронная сеть ищет элемент на 1-й картинке, который соответствует элементу на второй>Это не фантазии, а поиск и усиление по выбранным свойствам>>799189>число таких комбинаций бесконечноВ этом и суть творчества/изобретательства, поиск каких-то особенных деталей в изначальном образе, которые при композиции с другими деталями/идеями дадут что-то новое.
>>799195Под такое определение творчества подходит вообще любой перебор данных.Этот алгоритм просто сопоставляет элемент с 1-й картинки с элементом со 2-й.Для творчества у него нету оценочного восприятия, например, как появится - так и будем говорить о реальном творчестве.
>>799196>оценочного восприятияНадо написать нейронку, которая будет учиться на всяких оценках и критиках картин различных художников.
>>799207И тогда она создаст нечто среднее между ними всеми.Но новое она создаст только в случае ошибки.
>>799215Ну, правда еще можно научить ее классифицировать оценки критиков по критериям и прочему дерьму и суметь в перебор классов, тогда уже может выйти нечто более интересное.
Вы не ответили на мой вопрос.>>799018Я вообще думаю на java ебашить, так как умею, но хз что там с быстродействием, наверное надо всё таки C++?
>>799237>наверное надо всё таки C++Если юзаешь какой-то фреймворк, то бывает можно вообще питон юзать, на нем по сути просто пишешь скрипт для прогона сетки, а сама сетка, например, на плюсах написана. Примерно так происходит в Caffe. Про другие фреймворки/движки не знаю, но их целая куча есть.
>>790256 (OP)Можно ли сделать чатбота или секскуклу на нейронных сетях?Мимокрокодил
Посоны, чтоб вкатиться в нейросети обязательно знать тот же питон на высшем уровне? Или только основы?
>>799337юля постепенно вытесняет пиздонпоэтому учить нужно именно кресты
>>799445>юля постепенно вытесняет пиздонсука блядь как вы заебали, вы можете там уже определиться?
>>799454чего такой нервный, няша? понедельник?завари валерьяночки
> Нейросеть может написать лучший сценарий для аниме из всех, что ты видел в текущем жанре.))
>>799486Но ведь сценарий Elfen Lied уже давно написан, лалка. Как ты собрался писать заново уже написанное?
>>799533> я смотрю онеме в 2016 + 200/366пойди ещё покемонов полови
>>799549Но они же пока недоступны для моего ватного сиятельства. Как только откроют так сразу пойду на кладбище, искать годноту у жмуриков.
перекатываемся нейроночкиhttps://2ch.hk/pr/res/799576.htmlhttps://2ch.hk/pr/res/799576.htmlhttps://2ch.hk/pr/res/799576.htmlhttps://2ch.hk/pr/res/799576.htmlhttps://2ch.hk/pr/res/799576.htmlhttps://2ch.hk/pr/res/799576.html
>>799577Обновил линк на тред в своем скрипте.
>>799596
>>798381Достойна быть в шапке.
Вкатился в арчик. В шапке написано: Во-первых, вам нужна любая unix-based система. На Windows возможно запустить нижеперечисленное, но ждите пердолева с настройкой и неодобрительных взглядов анонимуса. Кроме того, в компаниях, так или иначе связанных с разработкой йоба-ПО и machine learningом, Linux/OS X является стандартом. Привыкайте.Со вторым пунктом всё понятно. Поясните за первый. Ну, поставил бы я себе студию или QtCreator без проблем и вкатывался бы в сабж под Windows. В чём была бы проблема? Поставил CodeLite. Сижу читаю первую книжку из шапки с переводчиком Google.(Так-то у меня ещё были причины ставить линукс, но вот тут поясните..)
>>800020Продвинутые люди используют движки и фреймворки, в которых рутина уже сделана за них. А они в свою очередь разрабатывались как раз под линухами и тестировались под ними же.
>>800038Понял, более-менее.Можно ссылки на них? Или ссылки, где тут есть ссылки на них?
>>800040TensorFlow, Theano, Torch, Caffe - основные встречающиеся, так-то их куча есть.
Аноны, что-то я иду дальше по книге и уже перестаю вкуривать суть, можно ли пропустить всякий линейный дискриминантный анализ, если я хочу использовать только нейроночки для своих задач? Ну совсем мне неинтересна вся эта хуйня про анализ данных, ибо нинужно.А то мне кажется, что я изучаю хоть и полезную хуйню, но мне она совсем не нужна.