Очередной тред про хипстерские технологии, которые не работают.Продолжаем выяснять, кто двигает ноуку: толпы смузихлёбов или фундаментальные деды.FAQ:Я ничего не понимаю, что делать? Либо в тупую import slesarflow as sf по туториалам, либо идти изучать математику курсы MIT тебе в помощь. Не нужно засирать тред вопросами типа "что такое сигма?".Какая математика используется? В основном линейная алгебра, теорвер и матстат, базовый матан calculus многих переменных.Что почитать для вкатывания? http://www.deeplearningbook.org/В чем практиковаться нубу? http://www.deeplearning.net/tutorial/ | https://www.hackerrank.com/domains/ai | https://github.com/pytorch/examplesГде набрать первый самостоятельный опыт? https://www.kaggle.com/ | http://mltrainings.ru/ | https://www.general-ai-challenge.org/Где работать? https://www.indeed.com/q-deep-learning-jobs.htmlГде узнать последние новости? https://www.reddit.com/r/MachineLearning/ | http://www.datatau.com/ На реддите также есть хороший ФЭК для вкатывающихсяГде посмотреть последние статьи? http://www.arxiv-sanity.com/Где ещё можно поговорить про анализ данных? http://ods.ai/Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Иначе выгоднее вложиться в 1080Ti или Titan X.Список дедовских книг для серьёзных людей:Trevor Hastie et al. "The Elements of Statistical Learning"Vladimir N. Vapnik "The Nature of Statistical Learning Theory"Christopher M. Bishop "Pattern Recognition and Machine Learning"Взять можно тут: http://libgen.io/Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.Архивач:http://arhivach.cf/thread/340653/http://arhivach.cf/thread/355442/http://arhivach.cf/thread/360889/Там же можно найти треды 2016-2017 гг. по поиску "machine learning" и "НЕЙРОНОЧКИ & МАШОБЧИК"Предыдущий тред: >>1176320 (OP)
Какие-нибудь новые статьи про понимание нейроночек не появлялись в последнее время? А то я не следил.
https://www.youtube.com/watch?v=lXUQ-DdSDoEКак называются такие диалоговые системы? Как их тренируют или это не НС ?
>>1190247Индус же говорит, что это диплернинх спич рекогнишен.
>>1190251>спич рекогнишен. Я спрашиваю не про распознавание речи, а обработке текста и выдачи ответа.
>>1190256> а обработке текста и выдачи ответа.Маркетинговое говно, на нормальных вопросах оно засыпится. У ИБМ есть Ватсон, но про него тебе не расскажут.
>>1190251Такой?
>>1190289Аноны, вы тут за новостями следите? Я веб-макака и мне интересно, кто-нибудь занимается нейронками для оптимизиации orm'ов, что бы они могли выдавать более эффективные запросы в базу
>>1190303Упс, это не тебе ответ, а вопрос всему треду
>>1190289Чет в голосяндру, хотя конечно это грустно.
>>1190303Чет в голосяндру, хотя конечно это грустно.
Мартышка к старости слаба мозгами стала;А у людей она слыхала,Что это зло еще не так большой руки:Лишь надо применить нейронОчки.Все модные нейронОчки себе она достала;Вертит нейронОчки и так и сяк:То тренирует их, то стопицот слоев нанижет,То их в ансамбль соберет, а то полижет;НейронОчки не действуют никак."Тьфу пропасть! — говорит она, — и тот дурак,Кто на ютубе смотрит врак:Всё про нейронОчки индусы мне налгали;А проку на-волос нет в них".Мартышка тут с досады и с печалиДелитом так хватила их,Что только файлы засверкали.
Что посоветуете обобщенно по теме ИИ? Что бы иметь представление не на уровне киберпанка и фильмов. Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд
Анон, хочу сделать прогу/модуль к intellege idea, который будет искать программные закладки. В какую сторону двигаться? Что посмотреть, почитать?
>>1190340>программные закладкиС травой? Составь список функций и переменных и ищи аномалии.
>>1190322>Чет в голосяндруЯ не понял. Почему?(
>>1190373Потому что смешно что никакие хитровыебаные алгоритмы не смогут сравниться с масс датасетом.
>>1190188Читай ватника лол. Хипстер тупорылый
>>1190332Кибернетика
>>1190188Ну ты соня. Уже Искусственный Интеллект изобрели и наступила технологическая сингулярность.
А умеет ли matplotlib в 32 бита на канал?
>>1190441Первый серьезный вопрос ИТТ, ура! Не знаю, я бы не расчитывал на это. Он вообще довольно наколенный.
>>1190441>Matplotlib plotting can handle float32 and uint8, but image reading/writing for any format other than PNG is limited to uint8 dataВообще, взял да и запустил для проверки сам.
Сколько стажёру в яндексе плотят?
>>1190332> Т.е проблематика создания, основные концепции разработки, история, инструменты, и тд Что угодно по теме когнитивистики
>>119048899 рублей за два километра в эконом, и 199 рублей если комфорт.
>>1190500А если за дадут порулить и бибикнуть?
>>1190503Только если на коленках у дяди Егора.
>>1190507Само сабой
>>1190497>>1190410а конкретнее
>>1190488Тысяч тридцать где-то.
Аноны, есть что по perspective-invariant feature matching?В гугле результатов овердохуя, глаза разбегаются. В каком направлении лучше копнуть?
а может ли матплотлиб визуализировать нампи у которого шейп (28, 28, 4). То бишь покабутке пиксель с ARGB значениями визуальнуть а не просто чб? ыыыыыыыы
>>1190173 (OP)Без высшего математического в сфере делать нечего? Платина
>>1190262Watson еще более маркетинговое говно, на хакерньюз бывшее прогеры айбиэм говорили
>>1191178В исследованиях нехера, в макакинге много чего.
>>1191202>на хакерньюз бывшее прогеры айбиэм говорилих.з. инфы о Ватсонре мало, но там иисайенсйоба
>>1191211Что реального в машоб принесли исследования?
>>1191421> Что реального в машоб принесли исследования?Все вообще. Весь машоб это результат исследований.
>>1191458Маняматика это тупые бесполезные неработающие алгоритмы типа регрессии и СВМ.Все более-менее приличное (случайные леса, баггинги, сеточки), изобрели нормальные люди. Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет" долбоеб-задротик не мог, он обмазывается малосвязанными с действительностью гомотопиями/гомологиями/деткими рисуночками/любой другой хуйней.Как же у них горит, наверное, что все их "доказанные" методы (доказательства которых занимает десяток страниц) ирл не стоят выделенного яйца.
>>1191458>Весь машоб это результат исследованийМожно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?
>>1191460> неработающие алгоритмы типа регрессии и СВМ.Дальше можно не читать тупня.>>1191464> Можно конкретный пример, что было исследовано (а не найдено методом тыка) со времен Розенблатта?SVM, да все статистическое обучение Вапника, включая бустинг. Сверточные сети созданы на основе зрительного анализатора кошки (Нобелевская премия Хьюбела и Визеля), вся нечёткая логика, все векторное квантование, да и все остальное, достаточно почитать пейперы, нигде не написано "тип я потыкал и нашел", такого почти нет. Ну разве что т н магический коэффициент в проекции Сэммона, это да, методом тыка обнаружили.
>>1191468То есть свёрточная сеть настолько сильно радикально отличается от полносвязной, что нужно было исследовать кошку чтобы её открыть, а не просто играясь с полносвязками? Которые ещё давно придумали?
>>1191468>Сверточные сети созданы на основе зрительного анализатора кошкиПиздос наркоманы. И какой там у ней анализатор? Я вот про ос читал, как им мозг ебали и изменяли ландшафт, так ваши сети даже близко не стоят к тому, какой анализ проводит оса.
>>1191474>>1191488Ты дебилок, правда. Просто прими это как факт. Тот факт, что ты не можешь в причинно-следственную связь, сам по себе не может быть доказательством правильности твоих школьных суждений.
>>1191492Заебись, а то я думал шизики закончились у нас.
>>1191468>Сверточные сети созданы на основе зрительного анализатора кошки Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков? Ну придумали перцептрон, доказали сходимость - ок. Дальше чем они занимались, ждали, пока кошке башку распилят? Даже не попробовали добавить инвариантность к сдвигу? (из этого логически вытекает сверточная сеть).>нигде не написано "тип я потыкал и нашел", такого почти нет.Читаю пейперы по нейронкам, там точно так и написано.
Чуваки, помогите макаке. Какие слои в каком порядке нужно расположить, чтобы на входе принимала битмап а на выходе отдавала 4 координаты. Позязя, я макака.
Кому не сложно, взгляните, пожалуйста. Могу ли я взять эту сеть и натренировать своим датасетом и получить на выходе четыре координаты с битмапа? Нит или да?https://github.com/fizyr/keras-retinanet
>>1191536Можешь, только возьми их претренированную модель, и дотренируй на своем датасете.
>>1191497> Во-первых, это нейрофизиологические исследования. Во-вторых, это открытие было сделано случайно, даже в википедии описано. В чем тут заслуга математиков? В том, что создали математическую модель. Пиздец, каким надо быть деревянным, чтобы такие вопросы вообще задавать. Что вообще значит "случайное открытие"? Если над какой-то темой работали целенаправленно, то о какой случайности вообще может идти речь? Даже если получили результат, который не ожидали, причём тут случайность? Вот почти везде пишут, что Хофманн случайно LSD вымутил. Да с каких хуев-то случайно, он делал средство для остановки маточного кровотечения, он его и сделал. Диэтиламид он делал тоже не случайно, а по аналогии с диэтиламидом никотиновой кислоты, который эта контора, сандоз, выпускала массово. Даже то, что вещество оказалось 5ht2a-агонистом это не случайность, просто в те времена об этом ничего не знали. Но исследования на то и нужны, чтобы узнавать что-то новое.
>>1191460>Придумать "Ну как кароч человек думает" или "Смешаем все подряд и заебись станет"Так это "работает" в том же смысле в котором танцы с бубном "работают" для вызывания дождя.
>>1191494>я думал шизики закончились у насНет, ты вовсе не закончился.
>>1191887>Что вообще значит "случайное открытие"?Они занимались какой-то хуйней, и обнаружили, что нейрон активируется на определенную часть изображения (наклонную линию). Каким надо быть деревянным, чтобы самому не додуматься до декомпозиции?А судя по тому, что для функции активации сначала использовали сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше"), о вменяемой математической модели говорить не приходится.
>>1191887>случайно LSD вымутил. Маня, не случайно, это когда ты сел за стол, прчесал репу и на основании известгых тебе фактов и правил скрафтил йобу, а когда ты примерно знаешь вектор и рендомно смешиваешь всякие йобы, то это случайно. И да, большинство открытий происходит случайно, потому, что так работает ноосфера и сознание, все ответы витают в воздухе.
>>1192109> потому, что так работает ноосфера > ноосфера Лайно с богоскопом, залогинься.
>>1192063>сигмоид ("патамушта хуйзнаит так в нийроне"), а потом ReLU ("патамушта болие лучше")Всё правильно. Шах и мат, шизик.
>>1192111Есть другие варианты? Ноосфера кстати менее безбашенное объяснение работы сознания. А вот манятеории матанопетушни, это да.
>>1192113> Ноосфера кстати менее безбашенное объяснение работы сознанияДля безграмотного опуща, не слышавшего о работах даже Павлова, безусловно.
>>1192113Варианты всегда есть, маня.
>>1192114>ПавловаОго, ну давай обясни, что там Павлов наработал
>>1192115Поделись хоть одним
>>1192117Почитай Кастанеду перед сном. Мы живём в непостижимом мире. И только ЧСВ мешает нам это принять и понять.
>>1192118Чем идеи этого наркомана отличны от ноосферы Вернандского? Ну или Брахмы.
>>1192119> ноосферы ВернандскогоКак будто ты читал хотя бы Вернадского, деградант. Ты не поверишь, что он имел в виду под ноосферой.
>>1192119А у него вообщем-то нету идей. Есть некие тезисы, но в большинстве случаев просто фактический пересказ событий.
>>1192120>Ты не поверишь, что он имел в виду под ноосферойИ что же?
>>1192123Почитай его, маня.
>>1192124Мать твою ебал.
Возможен ли ИИ на нейронке?
>>1192136Нахуй иди, говно.
>>1192140Да я-то пойду, я ж в этой хуйне не шарю, но интересно же.
>>1192135> Мать твою ебал.Тебе твоя-то не даст, лол. Ты насмотрелся всяких первых каналов с такими же икспердами по газификации луж, и как и остальные дегенераты, считаешь, что Вернадский что-то за какую-то шизотерику пиздел. У тебя даже не хватило ума усомниться, как это было возможно для ученого при его жизни без того, чтобы при этом не перестать быть ученым? У меня вот хватило. Насчет Павлова - все проблемы нейрофизиологии (основы которой в ее нынешнем виде он и заложил), в том, что почти все маняученые часто отказываются от его подхода к изучению высшей нервной дейтельности. Он таких при жизни обоссывал в любой речи на любой конференции, но что один человек может против толп дегенератов. Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов. Ты-то ладно, но такие и в науке есть.
>>1192136Нет, невозможен. Все дело в том, что любые компьютерные программы все-равно выполняются на бездушной железке, в то время как мозги людей подключены невидимым коннектом к магической сфере знаний, т.н. ноосфере.
>>1192158>>1192194Два дебила - это сила.
>>1192158>Даже сейчас находятся темные долбаебы, верующие что вся нервная деятельность не сводится к взаимодействию нейронов.А вот дохтора биологических наук оказываются темные долбоебы. з.ы. почему ты такой ебаный грубиян, ты Шариков?https://youtu.be/dAF9J-NejcY
>>1192258> А вот дохтора биологических наук оказываются темные долбоебы. Сплошь и рядом. Только таких при жизни Павлова на заседаниях академии наук хуесосили (читал пример в избранных трудах), а потом скатились. Эта баба поди и в боженьку верует, о чем тут говорить вообще.
>>1192262>таких при жизни Павлова на заседаниях академии наук хуесосилиТото я смотрю современная медицина пробила дно. Грип то лечить научились?
ВНИМАНИЕ ОБНАРУЖЕНА ПРОТЕЧКА /ССЫ КОД 21 КОД 21ИТТ вводится карантин. Режим омега-4. Воздержитесь от постинга в течение следующих 72 часов. Следите за дальнейшими указаниями.
можно ли сделать себе нейротяночку? на платформе с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?
>>1192264> Тото я смотрю современная медицина пробила дно. Грип то лечить научились?Какой грипп, какая медицина, маня? Разговор о нейрофизиологии, ферштейн, нихт? Портфель иди собирай.
>>1192301да, можешь даже сделоть механической, аки шарманка, ну и обезьянку к ней
>>1192303обезьянку-то зачем
>>1192301> с колёсами и рукой чтобы могла мне дрочить и пиво из холодильника носить?Для современных хипстерских нейроночек нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будет, ибо хуй её знает, что она выкинет. Так что смотри, если нейротянка тебе письку оторвет и бутылку с пивандрием в анус вставит, сам будешь виноват.
>>1192302>нейрофизиологииОк, озвуч неебаца прорыв в этой области, на который ты тилибонькаешь, ну там сращивание нервов и все такое, глаз искусственный, таблетку от Альцгеймера
>>1192305>обезьянку-то зачемТы крутишь ручку, механотянка тебе дрочит, обезьянка охуевает
>>1192306>бутылку с пивандрием в анус вставита я и не против
>>1192262>при жизни Павлова на заседаниях академии наук хуесосилиГосподин прав, в том что наука скатилась в ёбаное говно и засилие никчёмных учёных. Ну это началось ещё в 80-е годы паралельно с упадком левого движения. А в 60-х был расцвет, когда реально хуесосили всяких долбоёбов на научных конференциях и правильно делали. Но хусосили, с уважением, не скатываясь до матерных слов.
>>1192306>нет строгих доказательств сходимости, например, функций Ляпунова, критерия Попова итд. Поэтому эту хуйню на производстве никто использовать не будетПолучается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд? Ну то что это точно будет не наш совок к гадалке не ходи.
>>1192316>кто первее отменит эти маразматические стандартыТам на кону репутация матанопетушни, им хоть в глаза ссы, непозволят
>>1192316> Получается кто первее отменит эти маразматические стандарты из глубины веков тот и рванёт вперёд?Это не маразматические стандарты. Негров распознавать и котиков под Пикассо рисовать этот одно, а если контроллер доменного процесса сожгет пол завода или поезд в метро со всей дури в тупиковую призму уедет с сотней жертв, это совсем другое. Отвечать за это не хочет никто. А гарантировать, что такого не будет можно только если есть доказательства устойчивости модели. Где-то даже читал, что это обязательно должно входить в пакет документации алгоритма для внедрение на производство.
>>1192324>Отвечать за это не хочет никто. Это еще в 70х обосали, на заре Экспертных Систем, я вот считаю, что ЭС и закопали специально, подсунув нейронные сети. Рептилоидам спокойно, поскольку тупик очивиден, но и иллюзию работоспособности тоже можно показать. А вот то, что например диагностическая медицина на ЭС могла развится с 70х, это да, человечество проебалось...
>>1192327А вот гудфеллоу в начале диплёрнинг книжки своей пишет что хуёво эс работали. Пиздит, хипстер?
>>1192379Основное преимущество ЭС в том, что каждую ошибку можно воспроизвести и пофиксить, нейронки в это не могут
>>1192299Чет 72 часа это слишком много. Как без нейроночек родненьких то жить...
Керас. Загружаю модель, загружаю веса, загружаю параметры чтобы сконпелять модель, делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процента. ЧЯДНТ?
>>1192518> делаю фит несколько раз и получаю разные результаты в пределах едва ли не целого процентаЭто норма для нейроночек.
>>1192440>72 часа это слишком много.та ладно, в опенцв йоба неделю тренировалась на сотне фоточек
>>1192518Random seed проебал?>в пределах процентаЭто мало.
>>1192518model.fit(shuffle=False)?
Минуточку. А как по одной и той же карте одни и те же нейроны вначале могут добегать до разных эндпоинотов?
Картинка отклеилась.
Как может получаться что при большем количестве итераций RandomizedSearchCV только ухудшается результат?
Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек летом 1956 года в Дартмутском колледже, Гановер, Нью–Гемпшир. Исследование основано на предположении, что всякий аспект обучения или любое другое свойство интеллекта может в принципе быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя. Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета.
>>1192626Идея правильная, но задача эта неподьемная в такой постановке.
>>1192626>летом 1956 годакоков результат?
>>1192690Никто не выжил.
КерасОбъясните, пожалуйста. Что такое input_size?Вот я строю плотную сеть. На входе два нейрона, скрытый слой из трёх нейронов, и на выходе один нейрон.model = Sequential()densein = Dense(2, input_shape = (2, 1))densehide = Dense(3)denseout = Dense(1)model.add(densein)model.add(densehide)model.add(denseout)компиляемmodel.compile(optimizer='rmsprop', loss='binary_crossentropy')потом я хочу чтобы сеть получала массив из двух элементов и выдавала мне одно значение.собираю банч на вход в сеть.array = np.array([8, 4])предикчюresult = model.predict(array)И эта сука выдаёт мне такую хуйю:Error when checking : expected dense_13_input to have 3 dimensions, but got array with shape (2, 1)Какова хуя, когда в документации для Dense сказано:The most common situation would be a 2D input with shape (batch_size, input_dim).То есть батч сайз у меня 2, а input_dimension каждого семпла в батче 1!Обьясни мне, дорогой, анон. что такое input_dim. И прав ли я что размер моего батча 2?Вся надежда только на тебя, дорогой, мой милый анончик.
>>1192735Короче я понял блять. Спасибо что помогли. В input_shape = (2, 1) мы вводим шейп нашего семпла. Какого хуя у Кераса такая кривая документация? Не понятно нихуя, пидоры.
Пацаны. А есть кто работает в компьютерно зрении?Посоветуйте как вкатиться?У само 2 года опыта в вебе пайтон и немного шарю С++.В универе пердолился с ним, но времени четко заботать не было.
>>1190332Любой курс на курсере. От стэнфорда или Яндекса.
Предположим я хочу кластеризовать посты в треде на двоще. Мне нужно взять посты, заменить ссылки, знаки препинания и пр., стеммером выделить корни. Получается количество слов = количесто feature. Вот только посты содержат разное количество слов. Как поступить?
>>1193143Тащемата ничего сложного в этом нет. У тебя есть Питон. У питона есть куча инструментов, которые перегоняют битмапы в нампи. Перегоняй битмапы и прогоняй по сеточкам.
>>1193153Вспомнил, погуглив.>Choose a set of "feature" words that will be included in your vector. This should exclude extremely common words (aka "stopwords") like "the", "a", etc.
>>1193155Это ок. Я и на С++ могу. Меня больше интересует, что от собесов ждать.
>>1193168Тебе дадут ленту по которой едет картошка. Тебе надо приделать сверху него камеру и тречить картошку и запоминать на какой секунде едет бракованный корнеплод.
>>1193176lol, звучит весело.А сам то где работаешь?Если связан, расскажи, что да как в сфере плз.
>>1193190>А сам то где работаешь?Департамент ИИ и Компьютерного Зрения в Крошке-Картошке. Старший Научный Сотрудник.
>>1193201Понятно. А я думал ты в мдк работаешь над рекурентными нейронками для генерации текстов своих пиздатых шуток.
>>1193201> Компьютерного Зрения
Ладно блять. Вернёмся к нашим бараном. Объясните мне, пожалуйста такую элементарную хуйню по Керасу. Вот я строю модель:n [7]: model = Sequential() ...: densein = Dense(2, input_shape = (2,)) ...: densehide = Dense(3) ...: denseout = Dense(1) ...: model.add(densein) ...: model.add(densehide) ...: model.add(denseout)In [8]: model.compile(optimizer='rmsprop', loss='binary_crossentropy')То есть как я понимаю, сеть сейчас состоит из 6 нейронов. Два на входе, 3 в скрытом слое и один на выходе. То есть должно быть 9 весов. Но когда я прошу у модели веса:In [18]: weights = model.get_weights()In [20]: len(weights)Out[20]: 6Она отдаёт мне что их всего блять 6 КАРЛГде я проебался? ЧЯДНТ?
>>1193297размерность весов посмотри
>>1193297Картошечку детектишь?
>>1193311Спасибо. Каждый вес размерностью (2,2). А нахуя их так много-то?
>>1193326А, то есть не каждый вес. Последний размерностью (3,1). Дело начинает проясняться.
>>1193297Ты бы хоть попытался осмыслить, что ты вообще делаешь. Я не знаю, схему бы в пейнте нарисовал, прикинул бы что, как и зачем оно вообще делает.
>>1193369Ну, во первых, я изначально и нарисовал схему. Хочу чтобы из двух значений сетка мне лепило одно.
Двач, правильно ли я все понимаю?Вот есть у меня набор картинок 20x20 пикселей с изображением цифры два, например, черно-белые. Мне нужно натренировать сеть для их распознавания. Я делаю из картинок матрицы с нулями и единицами, подаю на вход обычному перцептрону. Теперь мне нужно аппроксимировать решение уравненияΣ (от 1 до 400) wi * xi + b = 2?
>>1193482То что ты написал это формула линейной регрессии. Ты про линейную функцию от нее забыл.
Как так может быть? Я запускаю RandomizedSearchCV на 10 итераций и результаты получаются лучше чем на 100 итераций и гораздо лучше чем на 500.
>>1193711Переобучение
>>1193711Переобучение. Классификация вырождается в идентификацию. Значения обучающей выборки становятся единственным, что сеть принимает.
>>1193807>>1193813Где там может быть переобучение? Я говорю про итерации самого поиска гиперпараметров.cv = 7, и я просмотрел в cv_results_, чем больше итераций, тем хуже перфоманс у лучшего набора гиперпараметров.
Наткнулся на зашибенного чувака. От регрессии до конволюции по порядку. Относительно свежее и всё в одном месте.https://brohrer.github.io/blog.html
>>1193966Не может быть! Прямо как в любом учебнике!
>>1193975Там есть видево
>>1193966> Наткнулся на зашибенного чувака.>эталонный хипстер из палаты мер и весов.Почему я не удивлен?..
>>1193978Ну какой же это хипстер. Это няша.
>поехавшие и петросяны>любители хипсторов>секта вапника>секта хейторов математики>нюфани, которые не могут осилить документацию
>>1193988>поехавшие и петросяны>любители хипсторов>секта вапника>секта хейторов математики>нюфани,А ты один весь в белом, да? Сам-то чьих будешь?
>>1193988У тебя есть девушка? Оставь свою почту, няш.
>>1193991Я оп-хуй. Летаю снаружи всех фракций, нейтральная сторона.
Пацаны оцените мой интелект пытаюсь обучать глубокую нейронку на ноуте за 250$ 2011 года
>>1194052Хватит ныть, скоро будешь в гулаге на кластере из краденных телефонов считать свои загнивающие западные нейронки.
>>1194057Не буду я живу в процветающей Беларуси
>>1194057>на кластере из краденных телефоновА ведь есть MMPI для этих целей, лол
С программированием знаком достаточно базово пара курсов вуза, в нейронках мне делать нечего?
>>1194070Если умеешь и не брезгуешь макачить, то есть чего.
>>1194083А если я хочу перекатиться в нейронки, потому что мне надоело макачить?
>>1194147Должен попросит богословения у Короля Обезьян.
>>1194147Тогда ты перекатываешься туда куда нужно. Так как здесь опыт макакства сослужит тебе прекрасную службу.
>>1194150На Вапника похож.
>>1194158> Вапника похож.Морковка?
>>1193988>>поехавшие и петросяныА он не шутил
Как придумывают архитектуру нейросетей без понимания, что внутри? "Хуяк-хуяк, и - ебана, ПОБЕДИЛИ"?
>>1190957Да.``import numpy as npimport matplotlib.pyplot as pltA = np.random.rand(28,28,4)plt.imshow(A);plt.show()``В imshow подают числа из отреза [0,1]
>>1194209Спасибо ананас. Макака благодарна тебе.
>>1194198ты думашь шутки про негров и обезьян это просто так?
>>1190173 (OP)>>2.jpg Это же реально похоже на вентилятор
>>1194198Я по причине нейросетей уже боюсь искать в гугле по картинке.
>>1194372https://medium.com/artists-and-machine-intelligence/perception-engines-8a46bc598d57
>>1194198Покупают одну метасетку, обученную генерировать сетки.
>>1194427И тут я проснулся
Что думаете об этой статье, ананасы?http://cs231n.github.io/convolutional-networks/Если я её прочитаю я превращусь из неосилятора в помидора машоб-боярена?
Можно тренировать нейроночку, потом остановить и перебросить вообще на другой сервер, тренировать дальше?
>>1194585С вероятностью 0,500000
>>1190173 (OP)Накидайте литературы/курсов по математическим дисциплинам, чтобы был хороший бэкграунд для вкатывания.
>>1194648Хотел сказать: "С вероятностью 500%"?
>>1194808https://www.khanacademy.org/math/calculus-home отсюда и до упора.
>>1194810Да
Такс. Выделение автомобильных номеров я сделал. Как лучше будет организовать распознавание самого номера? Стоит ли искать угол поворота а потом только распознавать? Или можно тем же детектором натренировать на поиск символов и так будет даже лучше, потому что будет универсальней? Жаль только в таком случае номера придется скорее всего генерировтаь самому, а подделать помехи(грязь на номере и т.д.) проблематично.
>>1194638Можно, конечно))) но осторожно :DДело в том, что при переносе может произойти туннелирование квантовых векторов по принципу ватника-червячникуса, что приведет к неизбежному образованию канцероподобных тел в головных нейронах субъекта производящего перенос, что не есть хорошо
>>1194909Возьми любую веб-камеру с улицы, и будут тебе номера - и с грязью, и со шторками, и с прочими пидорахинскими приблудами
>>1194931Джвачую, все так и есть
>>1194909Дак эта уже не сложно. Яб сделал две нейронки. Одной посылаешь хай контраст номер, где капли изведены до точек, а второй нормальный в случае если номер чистый. Гораздо серъезней проблема если номер сфотографирован под уголом. тут повидимому понадобится серъезный препроцессинг изображение с тем чтобы номер задисторить до состояния плоскодонки.По поводу самой распознавалке, думаю по классике в финале вываодится на 33 + 10 полносвязку с размерностью (2,), где первое значение номер символа, а втооое его индекс от начала.
>>1194950Что происходит на гифке? Напомнило историю из детсва, когда одна собака стояла поперек другой и когда первая шагала, вторая шагала за ней. Я сначала подумал, что они прилипли друг к другу.Оказалось, что это они так "неловко" сношались.
>>1194954почти как в твоем детстве
>>1194952В том то и дело, что не хочется так, потому что препроцессинг нужен, а потом ввод значения для обучения. Я же вот думаю, может сделать детектирование символов, как это было с табличкой? Правда разметка займет уйму времени, потому что минимум, думаю, 10к картинок надо будет разметить. А на это месяц уйдет.
>>1194961я думаю в пропооцессинге ничего сложного нет. Должны быть на питоне либы которым посылаешь битмап и 4 координаты, а она отдает выровненную картинку. Не очень понимаю что ты имеешь ввиду под табличками. Есть какой либо пример?
>>1194970>ты имеешь ввиду под табличками.Номер машины на табличке нарисован же. Вот как размечал таблички, так размечать символы. Тогда можно будет распознавать не только 6-тизначные номера но если обучать дальше и набрать больше табличек, можно будет обучить и европейским номерам.
>>1195026Блять для меня табличка эта таблица типа Ексель, теперь я понял что под табличкой ты подразумеваешь саму досточку на которой напечатан номер.
>>1194808
Добрый день. У меня превосходный математический бекграунд, опыт промышленной разработки и базовые знания питона.Посоветуйте что почитать на русском языке про мл.
>>1195133> превосходный математический бекграунд> опыт промышленной разработки> на русском языкеЧитай шапку и учи английский, макака.
>>1195150
>>1195150Тож кекнул с превосходного меметического быкграунда.
https://crypko.ai/#/AIBlockchainAnimeWhen GAN meets Ethereum, we meet Crypko --- the next generation cryptocollectible game.
>>1195150>>1195160Я не хочу учить английский, твари.Презираю вас.
>>1195189> Я не хочу учить английский, твари.В 21 веке не могущий читать на английском то, что ему интересно - неграмотен. Это факт. В любой современной науке / области знаний нехуй делать без знания английского. Вот даже с таким слесарством и второкультурным явлением как машобчик ты соснул, ибо на русском по теме нет нихуя интересного. И везде так же. Так что либо учи человеческий, либо сасай кудасай.
>>1195198Зато я ебал твою мамашу.
>>1195198как максимально быстро поднять английский до уровня чтения технической литературы?мимо-анон
Хочу натренировать нейросеть, чувствительную к одному какому-то цвету. На входе RGB. Сколько минимально нужно слоев? Ответьте, математики.
>>1195215Дуолинго пройди, тебя там как нейроночку обучают. Хотя, возможно, для технического есть методы попроще.
>>1195215>до уровня чтенияПросто непрерывно читай, сначала можно с подстрочником.
>>1195215"Academic vocabulary in use". Вообще, со знанием предмета довольно легко читать, если у тебя хотя бы B1.
>>1195216Один.
>>1195221>>1195218>>1195219благодарю
>>1195222Нет, не один. Допустим, мне нужно активацию только на салатовом, как один слой с линейной функцией мне это даст?
>>1195198> В любой современной науке / области знаний нехуй делать без знания английскогоСлишком утрированно, 99,9% англовысеров семантический шум
>>1195229> салатовомДа Вы, батенька, эстет-с.
>>1195296> Слишком утрированно, 99,9% англовысеров семантический шумХуйню несешь. Английский де-факто официальный международный язык науки. Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями. Похуй, чех это, голландец, француз или азиат, на английском ты с ним всегда пообщаешься. А на русском только эта подмывальня да алкаши у подъезда.
>>1195308>Зная его, ты можешь не только читать о последних достижениях, но и общаться с исследователями.Это не журнал Наука и Жизнь где печатались ноухау советских ученных, это говно написанное, поскольку пиндоховской ученой петушне в обязаловку нужно публиковаться. Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.
>>1195348А вот и залетная лахта.Тред сваливших утонул - так оно тут всплыло.
>>1195348> Если это работоспособно и охуенно, оно не публикуется, а закрывается патентами и стрижется бабло. Опровергни.Да весь машоб опровержение твоих фантазий. Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.
>>1195360>закрытые патентами ML проекты, на которых стрижется бабло. Например все.
>>1195364Друг мой, прочитай про лицензии хотя бы немножк. Что бы что-то закрыть патентом надо обязательно это опубликовать. В общев в АЙТИ хуета не работает. Ты внатуре Лахта какая-то. Без обид. Все мы тут Лахты.
>>1195381А пруфоф так и нет.Ссылочку на .рт, пожалуйста.
>>1195383Пруфы чего именно тебе нужны?
>>1195388Пруфы всего >>1195381
>>1195229Ну же, матаны? Сколько нужно Титанов слоев нейроночки для простого color detection?
>>1195391Не буду тебя кормить, зелень.
>>1195395Да.
>>1195381>В общев в АЙТИ хуета не работает. Что не работает? Публикация в общих чертах, без открытия техдеталей и приправленная пиздежом, этого достаточно. Для патента никакие публикаций не нужны.
>>1195396>Не буду тебя кормить>Не будуА ты быстр :3
>>1195381> Что бы что-то закрыть патентом надо обязательно это опубликовать.>>1195403>Для патента никакие публикаций не нужны. Мнения разделились.В любом случае как минимум один из вас - пидор.Решайте кто именно.
>>1195403Ты Лахта, смирись с этим. Найди работу за бугром, поживи там маленько, и поймёшь какой каменный век у нас тут.
Ладно я пидор. Следующий вопрос.Кун Что бы что-то закрыть патентом надо обязательно это опубликовать.
>>1195407>век у нас тут.Пан хохол, не надоело семенить?
>>1195423Всё, всё, я пидор. Дальше
>>1195407>>1195414>>1195423>>1195426Вы еще поебитесь тут.
Пилять, никак не могу понять как происходит обучение фильтров в Conv слоях. Если с настройкми весов во время обучения в полносвязных слоях все интуитивно понятно. То как обучаются фильтры - нет.
>>1195308>подмывальняСкотина, ты охуел? Не трогай мой уютный тредик с шизиками. Пошёл вон.
>>1195474И то правда, какая же это подмывальня.Скорее параша для дебилов, неудачников и русских.
Что значит маленькая буква i под сигмой?
>>1195494Да.
>>1195496Тянки с вконтача ответ.
>>1195494> Что значит маленькая буква i под сигмой?Суммирование по всем i. Выше же постили йобаматематику для машоба, там наглядно нарисовано.
>>1195494Индекс Суммирования.Подразумевается что w и x имеют одинаковые размеры, и их можно не указывать (Долго печатать, не важно и т. д.)
Всем спасибо, я потестил свою нейроночку для политача. Как вам?
хаха, я понял эту картинку
>>1195514Да.
Как научить CNN работать с изображениями разных разрешений и разных соотношений сторон? Что ещё используют для этого кроме zero padding?
>>1195494Божественный вопрос, ничего не скажешь.
>>1195601На вскидку:1. Scaling, Crop'ы. и прочая2. Обрабатывать как есть и потом декодировать RNN-кой или механизмом внимания.
Как правильно произносить ROC AUC?
>>1195971рокаук
>>1195973Как правильно произность это на английском перед белыми людьми?
>>1195976ар-оу-си эй-ю-си
>>1195977рок эй-ю-си100%
>>1195993Спасибо, ты меня убедил, я вся твоя.
Где же вы, нейраны?
Никто не хочет поучавствовать совместно в kagel, какие-то весьма тривиальные испытания поделать для портфолио, да и просто развлечения?
>>1197415Я сейчас там частицы тречу в коллайдерах.
>>1197415>kagelэто чо?
>>1197433Серьезно? Площадка по соревнованию в анализе данных.
>>1197436Mauricio Raúl Kagel was a German-Argentine composer ну а ссыла где?
>>1197448https://www.kaggle.com/
>>1197453чет хуйня какая то по nlp, автономус вехиклс ваще нет, или там одна хипстота?
>>1197456Там вообще все на любой вкус. И как бы за топ модели платят бабло.
>>1197589>топ модели платят баблоАй хитрецы
Киньте подборку классических гиперпараметров для гридсерча моделей из sklearn, пожалуйста. Регрессия, деревья, knn, вот это вот все, хочу сравнить с моим диплернинх-велосипедом.
>>1197415Давай, только я ничё не умею и с некроноутом сижу
Зачем в гуглГозеро дерево решений? Нельзя ли обойтись простым автоэнкодером?
>>1197456https://www.kaggle.com/c/youtube8m-2018ты эту хипстоту даже скачать не сможешь
Поясните, как сделать регрессию или ее аналог, если в датасете, для которого нужно получить y = f(x1,x2,...,xn) y и x сами по себе многомерные векторы?
>>1198203Пизда короче. Эта задача известна как 15-я проблема Ватника. Сможешь решить - получишь миллион порций смузи и гироскутер от всемирной ассоциации искусственного интеллекта
>>1198267В принципе, она элементарно решается двунаправленными картами Кохонена. Но я хочу что-то менее экзотическое, желательно вообще элементарное - регрессию там, минимальные квадраты.
Посаны, а есть новая профессия - генерация данных для машинлернинга из движков ГТА5 и UnrealEngine ?
>>1198362У нас на работе используют Unreal Engine для тестировантия нашей реализации SLAM. Но это больше работа для content artists, а не для программистов.
>>1198145А я и не хочу, нахуй таким говном заниматься?
Посоны, недавно видел статью на тему того, что в нейроночках есть ошибка распознавания, типа, если немного изменить фото, то нейроночка уже не справляется и это считают чуть ли не критической ошибкой.Не помню, на русском или английском она была.
>>1198468https://arxiv.org/abs/1802.08195>на русскомАга, на русском.
>>1198468А все, нашёл, это про adversial examples.
>>1198470Это опечатка.
>>1198485А не, не опечатка же.
>>1198362Да, у нас внезапно наняли левел дизойнера как раз для этих целей, потому что с реальными данными гемор из-за юристов ебаных.мимо работаю в компании-производителе дверных звонков
Анончики, помогите, пожалуйста, советами по архитектуре глубоких нейронок.tl;dr: какую архитектуру глубокой нейронной сети выбрать для распознавания людей?В общем есть две взаимосвязанные задачи. Существует система, которая высирает видео с камеры. На этом видео нужно распознавать людей. В самой системе можно включить детекцию объектов по движению (1-й вариант работы), но нужно классифицировать объекты, является ли объект человеком. То есть сделать классификатор на нейронной сети, который будет поглощать вот эти обрезки по рамкам объектов и говорить про класс объекта с доверительностью. Тут обрезки эти могут получаться в низком разрешении.Если детекцию в системе не включать, то в классификатор будет отправляться весь кадр в нормальном разрешении. Это второй вариант работы. Тут соответственно тоже нужно распознавать людей.И вот нужно взять на выбор несколько архитектур, посмотреть как оно пойдет. Сейчас присматриваюсь и тестирую YOLO, пока вроде нормально, но интересны и другие варианты.Вопрос заключается в том, какие архитектуры предпочтительнее выбрать для каждого из вариантов работы системы?Пытался курить следующие статьи:https://arxiv.org/pdf/1611.10012.pdfhttps://arxiv.org/pdf/1803.09386.pdfНо что-то оно плохо курится.В любом случае буду благодарен за любые советы.
>>1198567Работай с йолой, остальное нинужно.
>>1195198> машобчик > на русском по теме нет нихуя интересного> ето факт
>>1195360> Покажи мне закрытые патентами ML проекты, на которых стрижется бабло.Любой адекватный алгоритм ранжирования поисковой выдачи.Любой адекватный финансовый скоринг.Любая сота в прогнозировании временных рядов.Не то чтоб обмазанное патентами, но вполне себе закрытое.мимо-проходил
>>1195296Это не отменяет того, что не знать английского и пытаться что-то поймать с передка науки это нонсенс. Сейчас на норм факультете не знающего английский из магистратуры погонят ссаными тряпками.
>>1198613>Любой адекватный алгоритм ранжирования поисковой выдачи.Ну компании типа гугла могут держать большие R&D и что-то придумывать принципиально новое и держать это закрытым. Тут примерно верю, хотя уверен, что общие принципы (и конкретные алгоритмы) хорошо известны.>Любой адекватный финансовый скоринг.Что ты имеешь в виду? Подбор весов и слагаемых в известный алгоритм, который считает одно, блять, число?>Любая сота в прогнозировании временных рядов.Тут сложнее, хуй знает. Мне кажется тут вопрос только в хорошем знании предметной области за временным рядом и подбор метода и параметров под это знание.Кароче звучит так будто принципиальные схемы хорошо известны/публикуются, а в секрете держат только конкретный код и свободные параметры.
>>1198613> Любой адекватный алгоритм ранжирования поисковой выдачи.> Любой адекватный финансовый скоринг.> Любая сота в прогнозировании временных рядов.Хотя бы по одному примеру приведешь?
>>1198614Откуда в России норм факультеты?
Ну так что вы тут, хипстеры? Вот так >>1198203 сделать никак нельзя без векторного квантования? Диплернинх не интересует, там задача с вещественнозначными векторами из 100 значений, негров и котиков распознавать не требуется.
>>1190173 (OP)>Напоминание ньюфагам: персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?Мимо хиккан 26 лвл, когда-то проходивший курс по искусственному интеллекту на инженерной специальности.
>>1199277> Блин а я думал, что-то понимаю в нейросетях. А как же сети петри, всякие многослойки с каким-то градиентным вычислением весовых коэффицентов? Это тоже все для школьников или используется в серьезных задачах?Что ты этих латентных сойбоев слушаешь? Вон, постом выше задача, вроде все просто аки 3 копейки, а кроме некоторых разновидностей карт Кохонена и применить нечего. Мусор середины прошлого века не нужон, говорили они, диплернинх все порешает, говорили они...
>>1199277>>1199284Сука, пидоры, в предыдущем треде такой же мудила был. Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.
>>1199317> Это добавили, потому что постоянно закатываются унтерменши из шараг, которые пытаются навертеть миллиарды линейных слоёв, а потом воют, что нихуя не работает.Написал хуйню и рад. Как это связано с хуетой в оп-хуй посте про перцептроны?
Серъёзные задачи это коты и нигры с гориллами, я так понимаю?
>>1199369ну если учитывать, что ОКР для какого нибудь деванагари это нерешаемый пиздец, то да
Как писать нейроночки в состоянии ощущения полной бессмысленности, уныния, безнадёжности и суицидальных наклонностей?
>>1199465Поставить себе цель написать нейроночку, симулирующую работу реального психотерапевта.
>>1199465Напиши нейроночку, оценивающую шансы на смерть после приема определенной дозы каког-нибудь вещества. И тренируй ее, собирая данные на себе.
Какое же это охуенное чувство, когда после трёх дней борьбы с размерами тензоров, несовместимыми форматами данных между Numpy, OpenCV и Scipy, допиливанием кастомных хуков для tf, твоя модель наконец-то начинает делать то, что должна.Как же мне не хватает статической типизации и нормального дебаггера для tf...
>>1199630а что пилил?
>>1199639Котов идентифицировал на картинках.
>>1199639цифру по изображению.
>>1199639NDA не позволяет обсуждать, просто хотел поделиться радостью.>>1199697>>1199698Человек-анекдот, пощади.
>>1199630У numpy и scipy одинаковый формат, opencv это некролиба, а в размерах тензоров путаются только нубские лалки. В остальном рад за тебя.
>>1199792> opencv это некролибаИ что же используют смузихлебы?
>>1198109бамп вопросу
>>1199800Это два вопроса настолько глупых, что отвечать на них бессмысленно.
>>1199813Если их задают, значит отвечать на них смысленно. Не все разбираются в тонкостях. А подбор архитектуры так и не регламентирован.
>>1199418Почему?
Привет, анонРасскажи, как в методе ближайшего соседа kNN находится/выбирается k? И какова общая суть этого метода?
Такой вопрос, машинисты-педагоги, сколько требуется на вкатывание? От "я нашел все учебные материалы" до "теперь можно посылать резюме в гугол". Так-то уже лет десять как вкатился в айти, но хочется новых горизонтов. Да и робо-кошко-девочки сами себя не сделают лол.
>>120081710-15 лет.
>>1200820Обоснуй.
>>1200823Подготовка к ПхД 3-5 лет по "всем учебным материалам", либо получение магистра по специальности, ПхД 5 лет, 1-2 постдока 3-5 лет. Теперь можешь подаваться в Гугл Брейн, или если сильно повезет то в Дипмайнд, на исследовательские позиции. Все остальное это унылый макакинг, чистка данных, подготовка инфраструктуры для господ исследователей.
>>1200887И они ещё говорят про какие-то возможности.
>>1200902Гугл это топ1 в мире по нейроночкам, если что. Там работают только суперзвезды, производя статьи пачками. Они гребут как на галерах и получают миллионы. На топовых нейроконференциях сотни статей оттуда каждый год. Этот вопрос равносилен "сколько требуется времени чтобы поехать в Голливуд сниматься в главных ролях в самых высокобюджетных фильмах?" Только в Голливуд попасть попроще чем в Гугл.
>>1200935>Гугл это топ1 в мире по нейроночкамПрям вижу как их гугломобиль отсасывает у гаражных васянов.
А какие есть удобные инструменты для рисования структуры сети? Не хуйню из тензорборда же вытаскивать и в статью вставлять. Вручную в tikz рисовать тоже влом. Подскажите что-нибудь, пожалуйста.
>>1200963На реддите обсуждали, поищи по старым темам.
>>1200962Людям, работающим над differentiable neural computer, и дела нет до автомобилей и прочей инженерной мути. И естественно, кузьмичи во многих вещах могут превзойти гигакорпорацию с десятками тысяч сотрудников, это вообще ни к селу ни к городу. Рынок они никогда у гугла не заберут, предел их мечтаний это продать свои наработки подороже. Гугл только выигрывает от этого.
>>1200935Толко у меня всё равно слетает загрузка видосов с ютуба при перемещении на более раннюю точку видео. Что скажешь на это, гугл? Алсо гугл реально нихуя не сделал кроме инкубирования технологических решений и криков на весь мир, что он всемогущь.
>>1201006>прочей инженерной мутиах ну да, автономус вехикалс это же говно, вот бибизяна vs негр на пикче это огого, эгеге
>>1201196> ах ну да, автономус вехикалс это же говно,Вот нейроночки для этого точно говно, т.к нет строгих доказательств их устойчивости. Я думаю, что и никогда не будет, ибо сойбои не осилят для всей этой ебалы сделать хотя бы функцию Ляпунова. А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу.
>>1201203>автономус вехикал кого-нибудь размажет по пешеходному переходу.Так вроде уже
>>1201203>если этот автономус вехикал кого-нибудь размажет по пешеходному переходуУже куча трупов в США. Но юристы автопроизводителей похоже оценили жизнь пешеблядей в 2 цента и будут сбивать их пачками. До момента пока не собьют селебрити. А там зомбоящик промоет мозги муриканцам и эти авто запретят нахуй.
>>1201203>А без этого не будет никакого внедрения,Недавно новость была, убер сбил тян, приняв её за мусор.
А, ну так тем более. Уже есть трупы, оказывается. А ведь давно известно, что нельзя внедрять алгоритмы без доказательств их устойчивости, что для всяких мутных нейроночек вообще нереально. Енджой хипсторпрогресс.>>1201234> Недавно новость была, убер сбил тян, приняв её за мусор.В хиджабе была штоле?
>>1201226>system software classified the pedestrian as an unknown object, as a vehicle, and then as a bicycleНейроночка соснула на частично освещенном объекте, какая неожиданность! (нет)>According to Uber, emergency braking maneuvers are not enabled while the vehicle is under computer controlНахер она тогда нужна без тормозов?
>>1201236>что нельзя внедрять алгоритмы без доказательств их устойчивостиВнедряют то, что модно и молодежно, а не эти ваши устойчивости
>>1201301> Внедряют то, что модно и молодежно, а не эти ваши устойчивостиКуколды одни и внедряют. Им-то хуле, от одного бабаха на грузовике или чёрной бабы (проектировавшей рухнувший мост без технического образования) пропагандирующей что математика - это инструмент угнетения белыми мразями негров, ущерба больше чем от всех нейроночек на убере. А вот у людей все иначе. В Японии когда делали автоматический поезд метро на нечетких контроллерах, с 1978 по 87 годы одних испытаний в реальных условиях было больше 3000, не считая всего остального. То, что теоретически все было строго обосновано, я вообще не говорю, это само собой разумеется.
>>1201356>математикаНахуй она нужна при строительстве моста? >ЯпонииХуевый пример, пездоглазы технологическое дно.
>>1201365Если у тебя начались каникулы, это не значит что ты можешь гадить в интернетах, иди делай домашку на лето.
>>1201378Анимедаун, плез. Пездоглазы даже в атом не могут.
>>1201381У тебя Чернобыль бомбанул, ариец.
>>1201384Да, ошибка из которой сделали выводы. Пездоглазы же ничего не сделают.
>>1201203>А без этого не будет никакого внедрения, т.к нет желающих отвечать за последствия, если этот автономус вехикал кого-нибудь размажет по пешеходному переходу. >>1201205>Так вроде уже >>1201234>Недавно новость была, убер сбил тян, приняв её за мусор. 1. Нейронные сети, если в каком-то виде и присутствую в кибернетическим автотопозках, то за принятие решений не отвечают 100%.2. Нейронные сети таких дурацких ошибок как тот убер не делают.3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.
Посоветуйте книг по терверу и статам дауносаинтисту, чтоб там были были задачки, а не чистые формулы.
>>1201707Вентцель, "Теория вероятностей"
>>1201236>нельзя внедрять алгоритмы без доказательств их устойчивостиМожет гугл поэтому и не пустил в массовое производство что-то подобное, а всяким уберам похуй.https://habr.com/post/225095/
>>1201236>нельзя внедрять алгоритмы без доказательств их устойчивостиЛюдей же внедряют, а для них тоже нет никаких доказательств устойчивости
Признавайтесь, где пиздите пейперы?
ниче не понимаю, то ли метод монтекарлотирисерч не находит оптимальных ходов в крестикинолики, то ли я чего-то не понимаю.
>>1202163>монтекарлотирисерчче
>>1202224MCTS . Но я обучаю рандомными ходами.
>>1202229Я похоже не совсем правильно понял принцип поиска оптимального хода. Т.е. уже на моменте обучения(игры меду двумя ботами) уже как-то надо использовать дерево, а я только и делаю что хожу рандомно и увеличиваю счетчики при выиграшном результате.
>>1202235Там же дерево капец маленькое. На простом неглубоком дэнсе даже можно решить.
>>1202270Это понятно, но я сейчас другое проверяю же. Можно и перебором делать.
>>1202229Что ты обучаешь? В МКТС ничего не обучается, это просто алгоритм игры, вроде альфа-бета поиска. Или ты с АльфаГо/АльфаЗеро перепутал?
>>1202306Алгоритм поиска оптимальных ходов, тогда уже, если для игры рассматривать. Когда мы настраиваем НС, то там тоже идет поиск оптимума.
Это норм?https://github.com/llSourcell/Learn_Machine_Learning_in_3_Months
>>1200817Решаешь Демидовича за каникулы и вкатываешься без задней мысли. >https://youtu.be/MI83NiZbsFw
>>1203443>Демидович>для машинкиЛол. Это слишком жирно. Макака разочаруется ещё, что его макакство настолько лёгкое по сравнению даже с математикой 19-го века.
>>1203448Что может быть сложного в конкретно изложенных примерах, если нет необходимости воссоздавать алгоритм?
>>1203470Я не говорю, что Демидович сложен, я говорю, что там уровень выше. Не говоря уже о том, что он вообще слабое отношение к машобу имеет>Что может быть сложногоНекоторым банально сложно привыкнуть к матану, не хватает усидчивости или сообразительности.
>>1203470Демидович - это же залупа на угадывание, не? Весь челлендж - придумать хитровыебанное преобразование, которое сведёт пример к одному из каноничных типов
>>1203475Ну да. Там есть задачи, которые сводятся к предыдущим задачам из него же. Он чисто на выдрочку матана направлен. Когда в универе решаешь сам, потом очень долгое время тебя хуй удивишь чем-то этаким на практике.
Если где то появляется маняматик, то это сразу превращается в говно.Первая аксиома программирования
>>1203478Хз, мне как раз из-за этого не вкатило. То ли я дурак, то ли фантазия не в ту сторону работает, но помнить наизусть все преобразования из тригонометрии, разложения рядов и ещё какую-только угодно залупу только для прорешивания задач мне не вкатило. Я семестр попердолился с ним, а потом на решебники перешёл.
>>1203474>Не говоря уже о том, что он вообще слабое отношение к машобу имеетВ смысле? Там есть много значков суммы и интеграла.
>>1201412>3. С помощью нейронки можно сделать некий алгоритм, и постфактум мдоказать все что угодно. Подкрутив руками если нужно параметры.>Или наоборот, взять готовый алгоритм, и докрутить ему нейронкой оптимальные параметры.Начнём с того, что ты не понимаешь смысла слова "доказать".
Может кто-то объяснить как работает градиентный спуск в нейронных сетях?
>>1203488Прекрасно работает.
>>1203496Как? Как, блять, эта ебола работает? Как найти градиент? Из чего? Является ли пространство размерностью колличества измерений выходного вектора скалярным пространством градиента? Пожалуйста помогите.
>>1203234ну чекните а, норм чине? :C
>>1203501Делай базу.
>>1203505Какую базу?
>>1203504Курсы MIT - ок, 3blue1brown хороший канал, но хз как в плане обучения чему-либо. Индус на втором месяце - странный выбор, видел пару его роликов, не сказал бы, что он прям охуенен для новичков. 3 месяц - нахуй, читай шапку.
>>1203507В шапке все.
>>1203511Шапка здесь бесполезна.
>>1203519Как скажешь, дарагой! Медитацию попробуй.
>>1203508а шо скажешь за курс по ML старого чела andrew ng? Сейчас еще в мете?
>>1203525Про машоб не знаю, но смотрел несколько видео из курса Ына по диплёрнингу - по-моему, доходчиво объясняет.
>>1190173 (OP)Вопрос по SDL 2. Юзаю Eclipse IDE с Mingw для крестов, но это не важно.Крч, в SDL 1,2 можно было засунуть файлик динамической либы в папку сисвов64 и можно забить хуй, спокойно запуская приложения после билда, а не засовывать длл в каждый проект.Я решил так же сделать с 2й версией SDL, но у меня вылезает пикрелейтед. Я чёт подустал и залипаю с шаманством, и мне интересно, ЧЯДНТ? Мне хочется по старинке. Есть предположение, что я юзаю 32битные либы SDL и засунул SDL2.dll в папку SysWoW64. То есть мне нужно или закидывать просто в system32 или менять разрядность либ, как я понял. Вообще, поясните за необходимость юзания 32 и 64 битных либ. Есть какие-то нюансы, что юзают и на что идёт приоритет в разработках? Или можно забить хуй и спокойно юзать 64 битные?
>>1203531В tf попробуй сделать.
>>1203501Чем тебя не устраивает объяснение на педивикии? Один из простейших методов для поиска минимума, его студентам на 1-2 курсах дают.
>>1203535Всем не устраивает. Не понимаю.
>>1203541Что делать, значит ты просто слишком тупой.
>>1203585Мне это все говорят, но это не правда. Я попросил объяснить. Наверное, надо было добавить что простым языком.
>>1203632>Мне это все говорят, но это не правда.как заорализвини
>>1203487>Начнём с того, что ты не понимаешь смысла слова "доказать". Какие еще интимные подробности моей жизни известны школьному телепату?
Делаю Искусственный Интеллект. Нужно научить нейросеть считать. Как это лучше организовать?
>>1203795Какой тебе ИИ, ты про регрессию не слышал, раз такие вопросы задаешь.
>>1203812В чём смысл твоих высказываний? А если, например, нужно для тренировки своих навыков такое писать?
>>1203821То соси хуй, быдло
>>1203824Как передовая разработка идёт?
>>1203821> В чём смысл твоих высказываний?Каких конкретно? Твой вопрос >>1203795 сводится к регрессии, если ты этого не видишь, даже не знаю, о каком ИИ вообще может идти речь в твоем случае.
>>1203826Просто охуенно идет, готовься.
>>1203828Я мимо проходил. И нет, этот вопрос не всегда сводится к регрессии.
>>1203836> этот вопрос не всегда сводится к регрессии.Всегда сводится, солнышко. Вот только вы тута настолько дремучие деграданты, что не зная самых азов лезете пердолить слои в керас. Проблема только в построении адекватного задаче датасета. Даже семантику текстов можно свести к линейной алгебре и в итоге к регрессии, что было показано Миколовым в виде т.н. лингвистических регулярностей.
>>1203845Маняматика ненужна, нахуй иди.
>>1203845Ты рили дебил, если хочешь составлять адекватный датасет для такой задачи.
>>1203849>>1203846Это ты дебил, потому что не понимаешь вообще нихуя в том, куда пытаешься лезть. Использовать свое незнание как аргумент в споре - признак дегенерата.
>>1203850Зато я ебал твою мамашу.
>>1203541Да блять потихоньку меняешь веса в ту сторону, где ошибка убывает
>>1203845>не зная самых азов лезете пердолить слои в кераслол, это про меня
>>1203865Каким образом? Для этого необходимо найти градиент. Но как можно найти градиент, если неизвестно где ошибка убывает?
>>1203909>неизвестно где ошибка убывает>градиентЗначение знаешь?
>>1203909Ну ты када ошибку посчитал - вычисляешь веса, чтобы ошибка ноль была, потом вычитаешь эти веса из текущих - получается градиент. Делаешь так много раз - градиент накапливается.
>>1203909А ты вообще понимаешь, что такое "градиент"? Не в машобчике, а вообще в принципе?
>>1203924>>1203925>>1203932Идите нахуй, маняматики.
Когда мне становится грустно, я захожу почитать как пригорает у тупых макак которым надо объяснить простыми словами ненужную математику, потому что из-за такого пустяка не получается быстро перейти уже к воплощению гениальных идей о создании ИИ.
>>1203936Тебя в детстве препод матана циркулем через Демидовича изнасиловал? Зачем ты так рвёшься каждый тред при любом упоминании математики?И интересно, ты один, или вас несколько.
>>1203940Очевидно же.
>>1203939>Отвечай мои вопросыВопрос то где?
>>1203924Ну ёба. Я говорю тебе. Как градиент найти?>>1203925Ну охуеть. А какое заклинание чтобы веса правильные получались? >>1203932Что оно и есть. Сраный вектор, показывающий на локальный максимум скалярного пространства.
>>1203989>локальный максимум функции в точке скалярного пространствафикс
>>1203989>А какое заклинание чтобы веса правильные получались? Ну там есть какая-то умная формула, но на практике на нее забили хуй и считают упрощенно:градиент=вход*ошибка
Насчет градиента.Я правильно понимаю, что, когда его усредняют (для тысячи обучающих примеров например), то, усредняют именно дельты весов?Ну то есть вот матрица, с усредненным градиентом, она равна матрице весов? И так для каждого слоя?
>>1204028Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам.
>>1204043>Усредняют градиенты одного батча, умножают на learning rate, и прибавляют к весам. Градиенты имеют ту же размерность что и веса?То есть, нужно в 2раза больше памяти, и для весов, и для градиентов?
>>1203941Просто математику преподают бездари.
Есть тут кто из тех, кто изучает машоб в вузах? Имеет смысл поступать в какой-нибудь Сколтех в магу?
>>1204064Так и педагогов нет, если подумать. Я даже не уверен, есть ли такая специальность как педагогика для ВУЗов.
>>1204055>Градиенты имеют ту же размерность что и веса?да>нужно в 2 раза больше памятилол, хочешь свой фреймворк написать для нейроночек?
>>1204092>лол, хочешь свой фреймворк написать для нейроночек?Может быть.А что?
>>1204092Подожжи. Градиенты имеют ту же размерность, что и веса одного нейрона или весь тензор весов всех нейронов?
>>1204189На чём пишешь?
>>1204355>На чём пишешь? Под OpenCL хочу.
>>1204370>OpenCLХех. Тебе случайно не за 50?
>>1204212всех весов
>>1204386Может, у него АМуДе и Винда. Я тоже думал такое написать, да чот лень.
>>1204421Тогда ещё больше непонятно как его вычислить.
>>1204386>Хех. Тебе случайно не за 50? А что?Объясни пожалуйста.OpenCL устарело и не модно?
>>1204461я тебе выше дал формулу, два числа перемножить >>1204003
>>1204475Ты же понимаешь, что это ну совсем не годится? Помимо того есть и другие формулы вычисления, гораздо более точные, чем просто ошибку со входом перемножить. Это же не только статистику убивает, но и весь функционал по пизде пойдёт.
>>1204473Да, пиши на крестах.
>>1204461>Тогда ещё больше непонятно как его вычислить. https://ru.m.wikipedia.org/wiki/%D0%94%D0%B5%D0%BB%D1%8C%D1%82%D0%B0-%D0%BF%D1%80%D0%B0%D0%B2%D0%B8%D0%BB%D0%BEНаркоман.
>>1204479>Да, пиши на крестах.Из крестов как-то можно напрямую видеокарту использовать?
>>1204498Ну естественно. Даже на питоне можно.
>>1204499>Ну естественно. Даже на питоне можно.Дай ссылочку щитоле, или объясни как гуглить.
>>1204478>есть и другие формулы вычисления, гораздо более точныеТы поумничать решил, или что? Считай тогда по своим охуенным формулам, а нормальные люди считают как я описал
>>1204513C++ AMP, CUDA
>>1204525>CUDAИ причем тут C++?И в чем отличие от OpenCL?>AMPИ в чем отличие от OpenCL?Кроме того, что это виндовс онли микрописька? Да еще протухшая 10 раз.Ты потроллить решил?
>>1204518>а нормальные людиПо подьездам с пивандрием сидят и с таких как ты мобилы трясут.
>>1204529>причем тут C++Потому что с её помощью можно писать на плюсах?>в чем отличие от OpenCL?Нет проёбов вроде того, как когда опенсиэль при встрече со сферическим объектом работает медленнее CPU. Нормально оптимизировано. Родная для невидии. >протухшая 10 разЕсли АМП протухла 10 раз, то сколько раз уже протухла опенсиэль? В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету?
>>1204525>C++ AMPА на нём кто-то пишет? По бенчмаркам он вроде хуже OpenCL и CUDA был, да и люди начали носами воротить, мол, говно какое-то, как будто для APU сделано.
>>1204532>Потому что с её помощью можно писать на плюсах?Что ты несешь?В куде свой сиподобный язык, как и в OpenCLС++ причем? Зачем он?В чем именно ты противопоставляешь C++ и OpenCL?Ты понимаешь что C++ это ЯП, а OpenCL CUDA - это API?>то сколько раз уже протухла опенсиэль?Stable release 2.2-7 / May 12, 2018; 20 days ago>В твоём фреймворке на древних иероглифах поди адаптивности для неподходящих под видеокарту команд нету? Что сказать то хотел, юродивый?
Кек, взял в шараге диплом с фильтром Калмана, а комиссия нос воротит - непонятно. Хотя разжёвано до мелочей, объяснения брал из MIT курса по cognivite science
>>1204645И в чем научная новизна твоего диплома?
>>1204652Там навигация по аскелерометру+камере, без предолингов с BLE/Wi-Fi и магнетометрами
>>1204644>20 days agoСтоит полагать уже двадцать раз.
>>1204657Нот бэд. Зачем тогда в шараге учился? Будешь поступать на пхд?
>>1204660Я хочу в робототехнику, ИИ, вот это вот всё, но не знаю как подступиться. Местные клубы тупо склеивают китайские запчасти и копипастят питонокод. Я решил такую вот йобу попытаться сделать. Сначала чутка обосрался, потому что Xamarin - какое-то говнище ебаное, поэтому пришлось перекатиться на десктопный прототип, который пока будет работать по записанным данным. А тут ещё шарага проебала сроки оплаты и матлаб отвалился.
>>1204645>фильтр КалманаА чего они? Это же один из инженерных стандартов.>>1204668>тупо склеивают и копипастятНу а ты что думал, у нас очень туго с этим хотя вонь про ии, робототехнику и цифровую экономику со всех щелей, мда. Либо дуй в топ вуз спб/мск, либо в европку, либо хуй соси.
>>1204721>стандарт инженерныйА кафедра математического моделирования. Обычно узкоспециализированные темы прокатывают, если у тебя какой-нибудь йоба-профессор из местного отделения РАН, но тут таким не занимаются, пришлось из молодых-шутливых аспирантов рецензента искать, лол.>Либо дуй в топ вуз спб/мск, либо в европкуНа европку я бы ещё собрал шекелей для магистратуру, но изначально в топ вуз я бы хуй поступил - в математике тупенький, олимпиады не задрачивал никогда.
>>1204073Закончили колледж и сразу идут учить математике.
>>1204728>тупенькийТы уверен? Калман это не особо простая штука. Насколько помню, там и диффуры с устойчивостью знать надо, и в теорвере разбираться. Если ты, конечно, правда разобрался.>олимпиадыНе нужны. В том же СПбГУ, если правильно помню, на матмехе есть кафедра кибернетики, а на примате - теории управления. Знакомые и без олимпиад поступали, 250-260 баллов, потом всегда можно перевестись на более крутое направление, сдав разницу тем более кафедра не зависит от направления обычно.
>>1204750>не особо простая штукаХз, всё в той же работе из курса по Cognitive Science у MIT довольно просто объяснено. Там он конечно примитивный - том плане, что ориентиры рассматриваются по одному и до внесения новых в вектор состояния, но для начала - почему бы и нет?>250-260хехмда, у меня 181, если математика-русский-информатика и 193 если математика-русский-английский, так что я в любом случае в пролёте.
>>1204668> матлабСам виноват что подсел на проприетарщину. Стандарт в области это питон или R, будущее может быть за джулией.>>1204728Есть куча стипендий, тем более для магистратуры. Университетские или из частных фондов (особенно если ты тян и пытаешься в STEM, тогда тебя ими просто завалят), если у тебя хорошие оценки, проекты и всякие участия в хакатонах от разных фирм (за лето вполне реально набить на десяток строк резюме) то с этим проблем не будет. Если проблемы будут, после поступления можно сказать что ты из нищей страны и тебе сделают скидку вплоть до полной суммы обучения. Всегда есть смысл пытаться в европку.
Есть Один SVC из sklearn и он имеет привычку во время гридсерча нормально считаться до какого-то момента, а потом внезапно зависать на случайных параметрах и.. все, никаких подвижек, хотя все ядра процессора полностью загружены, оперативки достаточно. Что с ним не так?
>>1204866Нашел ответ https://datascience.stackexchange.com/questions/989/svm-using-scikit-learn-runs-endlessly-and-never-completes-execution
>>1204880Там нет единственно правильного ответа:>2к 18>SVM
>>1204897Ещё одна жертва сойбойства от машоба. Что не так с svm? Вапник без бороды?
Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.
>>1205892Бишоп, "Neural networks for pattern recognition". Я на неё ссылался.
Где можно узнать про модели предсказания на рекурентных нейросетях?
>>1205902В сети "Интернет".
>>1205892> Где теорию по нейроночкам почитать? не по машобу, а конкретно по инс, а то на дипломе будут ебать.Вся суть образованца. Пишет диплом по нейроночкам @ спрашивает, что почитать по теории.
>>1205987Услышал в курилке, что другие студенты обсуждают нейроночки, решил что это круто, надо быть в тренде. Но разбираться, книжки какие-то там читать, я вам че батан чтоле? Голова не казенная, забивать ее всякой мутью. Код - 100 строк на тф - спастил из интернета, а теперь главное термины немного вызубрить, чтоб не завалили на защите.
Что за хуйня у меня с лоссом? Почему он выглядит как будто туда прокрался ёбаный Зорро?
>>1206067
Ононче, какие там йобадостижения у нейроблядей за прследние полгода? Хочу почитать.
>>1206108https://deepmind.com/blog/differentiable-neural-computers/
>>1206014Олег Леонидович это вы?
Привет, хипстерки коворкинговые.Начал я тут задачу вот такую решать. Грубо говоря, выделить все все прямоугольники и их пересечения (могут и не пересекаться вовсе, а в разных частях располагаться + шум + разная жирность и контраст контуров и пр) По началу на OpenCV ковырял: dilation, Hough transform, edge detection, medial axis, дальше топология и прочее старье. Но попался на глаза Yolo и заставил задуматься. Пытаюсь понять, подойдет ли он тут вообще. Его тогда надо будет на тех кусках, что я красным выделил тренировать или еще как-то (меня эти части больше всего интересуют)? С учетом того, что корреляция между кусками может быть приличной, не будет ли слишком близкой вероятность обнаруженных регионов, так что и отличит их сложно будет? Практики в ML пока 0, но всякие си с крестами и питонами пилил в продакшене годами. Глянул, что darknet их доступен, да и аналоги на tensorflow имеются. В ту я вообще сторону смотрю или смузи в голову ударил просто?
>>1206859Да тут вроде задача решается в лоб простым алгоритмом.Находишь пересечения и углы, и по этому выводишь где там прямоугольник у тебя.Раз у тебя там шум, и контуры, то вначале убираешь шум и боке.Выкручиваешь в общем контраст, прогоняешь через филтр шарпнеса.Ну а дальше тривиально.
>>1206859Нейроночки помогут справиться с шумом и разной толщиной, правильно найти углы. Остальное лучше закодить.
>>1206874 Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр. Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению. Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу совета
>>1206878 Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)? Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция?
>>1192113>манятеории матанопетушнишизик на этих манятеориях твои интернетики и пекарни работают.
>>1192158>Насчет Павлова тото в совке так дрочили на Павлова что в открытие гемато-энцефалического барьера не верили. А ученую которая открыла засрали.
>>1206885>шизик на этих манятеориях твоиМатанопетух, плез
>>1206879>Стоит отметить, что я упростил постановку. Там еще немало других типов объектов может появляться и не хочется для каждого искать свои features, крутить пороговые значения и пр.>Подумал, что тренить было бы проще, чем постоянно самому через эти тернии и по мере расширения датасета разных примеров отгрузить это все на откуп обучению.>Т.е. для начал бы хотелось пощупать нейросети на практике, но не уверен, что стоит тратить время на этой задаче. За сим ищу советаНу ты бы определился нормально с задачей для начала.Что у тебя там за волшебные объекты другие.Если ты делаешь управление для пром процесса, то отдавать все на откуп нейронке не стоит.Вот этот верно говорит. >>1206878И тебе не очень то и нейронка нужна.Обычный фильтр попиксельно прогонять.>>1206881>Т.е. грубо говоря, мне тренировать на вот таких регионах (+ нагенерить разного масштаба для симуляции толщины + шума)?>Не будет ложных классификаций типа feature с учетом того, что у отдельных фрагментов высокая корреляция? Ну ты что, хочешь чтобы было лучше человека?Если там информации нет, так тебе никто кроме Аллаха не скажет угол там или черти православные.Научись определять толщину в конце концов и уровень шума.Если для тебя все это слишком сложно, попробуй обратится к кому-то для кого нет.Готового всем известного решения для твоей конкретной задачи - нет.Используй индукцию и придумывай свой алгоритм.
Как так получилось, что полно простейших задач, с которыми сойбойские технологии не справляются? Чуть в сторону от негров и котов и все, приехали.
>>1206910>Как так получилосьЛол, рабочии технологии не выгодны буржуазии, ну это типа как водородный двигатель, альтернативная энергия и все такое.
>>1206910Надо обучать нейроночкостроению в колледжах, тогда будет норм.
https://arxiv.org/abs/1805.12177Еще про обобщение CNN.
Аноны, а как нормально сопоставить точки по дескриптору SURF? Быстрее, чем за O(N3) то есть. Даже с учётом знака лапласиана что-то пиздец долго получается - идём по первому списку, ищем лучшее соответствие из второго, а потом для лучшего соответствия надо проверить, нету ли уже ему лучшего соответствия из первого списка.
>>1207695Скорее всего, тот алгоритм, который ты пытался описать, не работает. Идеальное сопоставление это задача присваивания, решается венгерским алгоритмом за О(N^3). Тебе скорее всего подойдет жадный алгоритм, каждый раз выбирающий лучшее присваивание, это О(N^2).
>>1207810>венгерским алгоритмомМне кажется тут немного другая задача - мало того, что матрица получилась бы неквадратной, так ещё и не гарантировано, что есть хоть одна пара.
>>1207973>матрица получилась бы неквадратнойДобавляй строки и/или столбцы, соответствующие отсутствию матча.>не гарантировано, что есть хоть одна параОграничивай вес совпадения снизу. Еслидва дескриптора совпадают меньше порогового значения - ставь вес меньше, чем вес отсутствия совпадения, чтобы эта пара никогда не была выбрана.
>>1208006Блядь, какой же я дебил. Вместо перебора можно ведь и правда ебануть матрицу со всеми расстояниями между дескрипторами. Мозги уже совсем того, пора в крошку-картошку уже.
Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?
>>1208231> Имеет смысл сейчас читать книги по машобчику типа Бишопа, или уже устарело и трата времени?Вы заебали со своим "устарело". Что там блять может устареть вообще? Вот с такими идеями, не зная даже линейной регрессии, сразу начинаете с сойбойского прохода в диплернинх и закономерно сасаете, т.к не имеете ни малейшего представления что вообще происходит.
>>1208258Вопрос имеет ли смысл углубляться в классическое машинное обучение вместо дип лернинга. Так-то основы машобчика есть в книге из шапки, а я даже в градиентный спуск умею.
>>1208284Зависит от задачи, порой диплернинг тащит, порой нет. Модель это тоже гиперпараметр.
>>1208284В деталях разбирать устаревшее говно вроде SVM нет никакого смысла. Линейную регрессию неплохо бы разобрать. Бишоп устарел на 90%, сейчас он нужен только ради каких-то специфичных тем, вроде вероятностных моделей (на практике они не используются, впрочем). Никаких мифических "основ машобчика" там нет. Из старых моделей единственное что выжило это градиентный бустинг, про него в Бишопе нет ни слова.
>>1208465Что тогда читать?
>>1208469А что ты хочешь? После диплернингбук никаких откровений больше не будет. Читай статьи по интересующей тебя теме, если хочешь прям до переднего края доползти.
>>1208470То есть можно только диплернинг буком обойтись? Перед этим читать ничего не надо (математику уже знаю)?
>>1208469> Что тогда читать?Что хочешь читай, кроме бреда от местных дуриков типа предыдущего оратора >>1208465 и диплернинхпука.> устаревшее говно вроде SVM Назовешь хоть один альтернативный SVM неасимптотически-эффективный алгоритм машоба?
>>1208474Никакой особой "подготовки" к DLB не нужно, если ты об этом. Там даже в первой главе немного мат. аппарат описывают (недостаточно, конечно, но если ты два года хотя бы отучился в вузе, ты уже все необходимое знаешь).
>>1208483>два года>всёНет, теорвер и матстат чаще на третий курс пихают.
Объясните мне, в какой последовательности здесь выполняются >application of the sum and product rules of probabilityчтобы получилась вот такая формула:
>>1208605Очевидно же. p(t|x, w)p(w|x,t) - умножение, а интеграл - суммирование, само уравнение записано в виде функционала.
>>1208619Я примерно так и думал, но>p(t|x, w)p(w|x,t) - умножениеТут умножения в упор не вижу. Возможно мне трудо адаптировать классическую формулу P(A, B) = P(A|B)P(B) для многомерного случая.
>>1208628> Тут умножения в упор не вижуА так - p(t|x, w) * p(w|x,t) ?
>>1208629Ебать ты тралебасер.
AI создал свой первый фильм, и это фильм ужасовhttps://habr.com/company/pochtoy/blog/413867/
>>1208730Имхо фейк. Сцены они надергали сами, "сюжет" тоже, прошлись рандомно по кадрам дипфейком.
>>1208628p(t|x,w)p(w|X,T) = p(t,w|x,X,T), так как w зависит только от X и T.
>>1208629Как ты звёздочку поставил?
>>1208628>>1208838Вы что, троллите? Знак умножения часто просто опускают, оно по умолчанию подразумевается.
>>1208929> Знак умножения часто просто опускают, оно по умолчанию подразумевается.К слову, этот факт еще в средней школе проходят. Это к вопросу уровня развития большинства тутошних горемык.
>>1208964>оно по умолчанию подразумевается.наркоман
>>1208838>Как ты звёздочку поставил? /\/*
>>1208971Класса до 5го доучишься, расскажут.
>>1208972//\\//*
>>1208974
>>1208976()(*)
>>1208981*
>>1208973vps - где умнажения а где vp или ps или vps?
>>1208838звездочка три раза парсер лох пацаны нагибай макаку наебай.
*
>>1208745Ты недооцениваешь мощь нейросетей.
Хотел, было, разжевать это опускание умножения, но такое уныние накатило от того, что надо объяснять такие вещи, пиздец просто.
>>1209022правильно, вся эта маняматическая поебота нинужна
Новый тред? Новый тред.Абу, блядина мразотная, я не пощу "слишком быстро"ПЕРЕКАТ>>1209084 (OP)>>1209084 (OP)>>1209084 (OP)
>>1190173 (OP)Вопрос к знатокам.Хочу использовать colab не для обучения игрушечных моделей на mnist-е, а для чего-то более приближенного к реальности.Соответственно, есть проблема: надо уместить датасет с фотографиями 224224 в количестве около 2 миллионов в этот самый cloab...Как это сделать?На ум приходят только генеративные модели...Насколько реально воспользоваться DCGAN-ом для генерации изображений для подачи на вход обучаемой модели?Есть ли предобученные GAN-ы, которые могут выдать что-то вроде imagenet в разрешении 224224?
>>1209568Сук разметка поехала
>>1192307>таблетку от АльцгеймераВнезапно, ЛСД