нероночка - зависимый тип (массив)
Я покакал.
В последней строчке вместо т лучше бы ебу на 90 градусов повернули.
я пержу оче вонюче. расстройство кишечника.и еще постоянно пержу. иногда в офисе сижу и пержу. надеюсь коллеги этого не замечали.обычно тихо пержу. но сегодня пер был звонкий, сам вырвался.
>>1056628
>>1056643согодня вброскресенье, долбоёбпроснись, ты обдристалсявопрос то теме, почему нейроночки так смачно отсасывают у гауссовых процессов?
Что-то картинка с йобами сложная уже какая-то. Видимо нужен йобаучебник с мемасиками.
Что-то картинка с эволюцией сложная уже какая-то. Видимо нужен эволюшинучебник с мемасиками.
>>1056645я разве написал что сегодня буду в офисе?
вы никогда не думали, что каждая секунда приближает нас к смерти?а на что мы тратим драгоценные секунды? смотрим фильмы, играем в игры, сремся на дваче. я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организм. но ведь все остальное - пустая трата времени, которое можно было потратить на изучение медицины, математики, кодинга, конструирования, попытки решить глобальные вопросы типа старения и смерти.меня теперь мучает осознание этого. большинство людей вообще занимается наукой за плошку риса, т.е. не ради прогресса ради решения собственных проблем (старение, смерть, болезни), а из-за необходимости - плошка риса чтобы не сдохнуть с голоду.
>>1056694>я не говорю о потребностях, которые нвозможно вычеркнуть типа еда или секс, т.к. без них не сможет функционировать организмПриграл с социобляди. Ни разу не занимался сексом, чувствую себя нормально. Уже год пью нейролептики, от которых хуй без усилий не встает и желание ебаться не возникает. Не знаю, как относиться к этому. Скорее всего, мне похуй.Не можешь получать удовольствие от процесса - катись нахуй, ты дефективная капиталистическая потреблядь.
>>1056712Двачу адеквата.
>>10566944/10, average b8
>>1056694мне кажется, что все об этом думают, но молчат. трудно принять что человек может об это _не_ думать. зачем такой человек что-то делает? вот так, просто захотелось, и не озадаченно, он идет на работу, или еще что делает? но рано или поздно он должен был обзавестись вопросом, а че это я, блять делаю? или же он быстро про этот вопрос забывает, как наркоман забывает про губительность привычки?и где -же тогда тот разум, упоминание которого присутствует в наименовании нашего вида, человека разумного?
>>1056727я думаю, большинство людей просто отвечают на этот вопрос религией: типа я не делаю никому зла, а значит попаду в рай и эта вся цель моей жизни.т.е. они уже считают себя бессмертными, а болезни оправданными (испытания б-га) и не хотят ничего менять или улучшать.это же пиздец, господа.>>1056712ты насильно подавил одну из фундаментальных заложенных в тебе биопрограмм, жди ахуенной побочки.
>>1056730>жди ахуенной побочкиНасрать, мне без нейролептиков хуево.
https://ideone.com/71pNwRГотовьте анус, бездушные потребители бабла. Ваши страдания в айти будут лишь усиливаться.
>>1056694А ты никогда не думал, что смерть это не старуха с косой, которая однажды неожиданно постучит в твою дверь. Смерть - это сама матушка природа что наградила тебя песочными часами. Каждый вдох кислорода сжигает твои внутренности, приближая тебя к среднему состоянию биологического бульона окружающего планету - состоянию питательного гумуса. Ты считаешь, что твои мертвые предки следят за твоей судьбой с того конца линии жизни, пристально рассматривая каждое деяние с точки зрения великого смысла, блага для человечества, славы и почета в веках? Присмотрись внимательно. какие они крохотные создания, как они резво копошатся в рыхлом черноземе, как их длинные кольчатые тельца извиваются в экстазе, желая вкусить теплые соки, что стучат в в твоих выпирающих шейных артериях. - Что же ты не признаешь нас сынок? - сладко шепчут тебе они. - Это же мы - твои бабушка с дедушкой, те кто постоянно носил тебя на руках, кого ты обожал больше своих родителей, за то что не скупились удовлетворить любую твою прихоть. Иди же к нам, наше ласковое дитя. Накорми нас.Мир как огромный котел наполнен кипящим хаосом. Все происходящее - в той или иной степени случайное завихрение, созданное потоками космической энергии. Тебе повезло оказаться частичкой турбулентности называемой жизнь. Ты в этом вселенском шторме всего лишь крохотная частица, имеющая стохастическую траекторию, не выходящую за область биологического аттрактора.https://www.youtube.com/watch?v=tH2w6Oxx0kQ
>>1056732а что с тобой без нейролептиков?>>1056737очень интересные отсылки к половой гомоебли, товарищ девственник.
>>1056741ну так я и говорю. направлять все силы на борьбу со смертью (болезни лишь ее проявления) - это разумно.
>>1056712>чувствую себя нормально>Уже год пью нейролептикиВзлолнул. Попроси чтобы тебе лоботомию сделали, вообще норм будет.
>>1056747Те кто могут - направят, те кто не могут - пойдут на завод пить тормозную жидкость. Разумная воля - в большей степени мистификация.
>>1056753Без НЛ меня мучают навязчивые мысли.
>>1056765ОКР?
>>1056774Я не спрашивал название расстройства. Пью эсциталопрам, эглонил и ноотроп.
>>1056775Ну, а мысли-то какие? Уебать тех даунов из треда сверху? Или делать то, что от чего тебе будет плохо?
Ну вот, на конец выяснили, что машобом интересуются под веществами, а когда отпускает, возвращаются на работу говнокодить на php.
>>1056778ПТУшник, плес.
>>1056777Мысленное проговаривание определенных фраз.
>>1056781Ой все, ухожу пить тормозную жидкость.
>>1056783Ну, ладно, удачи. Рад видеть таких здесь.Мог бы рассказать уж, что за фразы. Разводишь меня на новые и новые ответы.
>>1056786>Мог бы рассказать уж, что за фразыЭто не так интересно, как причина, когда в детстве проговаривание определенных фраз помогало справиться со страхом смерти близких. Страхи прошли, а обсессии остались.
Всем привет. В этом году я поступил на 1 курс довольно сильного вуза. В дальнейшем хочу заниматься ИИ. Но солидная математическая база у меня появится только через 2 года, что в таком случае можете посоветовать делать, чтобы начать развиваться в этом направлении? Добра.
>>1056787Дети не боятся за близких, в крайнем случае этот страх возникает в возрасте 16 лет и старше. Дети антропоморфизируют смерть, представляя ее как нечто страшное, что может зайти ночью в комнату, а сам страх смерти лишь защита от психологической травмы наносимой родителями.
>>1056788А через два года ты поймешь, что хочешь заниматься ИИ однокурсниц.
>>1056794Возможно, но пока есть время, чтобы не настолько деградировать.
>>1056790Чушь какая-то. Я боялся смерти матери и своей собаки. Для противодействия этому я почему-то придумал игру с набором правил построения и произнесения фраз, которые отсрочат их смерть. Со временем правила усложнялись, а гоодам к 16 наоборот - упростились, но к тому времени это уже была обсессия, с которой я не мог ничего поделать.
>>1056787А я бы почитал. В дурку не клали? Трудоустройству не мешает?>>1056788Не надо. Вы перехайпили. В ИИ нет ничего такого, чтобы идти именно сюда. Выбери что-нибудь другое.>>1056790Нахуй иди.
>>1056798>Не надо. Вы перехайпили. В ИИ нет ничего такого, чтобы идти именно сюда. Выбери что-нибудь другое.Это ИИ выбрал меня.
>>1056798>Трудоустройству не мешает?Нет. Спросили военный билет, где у меня категория "д" (острые психические расстройства) и взяли без проблем.
>>1056797Какая разница как ты это объяснял - это не имеет отношения к действительности. Навязчивые состояния - это распространенный невроз. Лекарство - вылезти из скорлупы, это в большей степени когнитивный процесс. Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни. Не знаю что тебе поможет. Мягкую помощь могут оказать групповые тренинги, позволяющие в безопасной обстановке взглянуть на жизнь с другой стороны.Как ни странно помогают страдания. Армия - это суровый групповой тренинг.
>>1056765Тебе нужно тяночку. У меня парень тоже окрщик. Как только появилась я, он слез с фарсы, прошла депрессия
>>1056810>Сейчас тебе может это казаться обыдлением. Но со временем это само произойдет, когда превратишься в брюзжащего старпера и просрешь все полимеры, которые можешь просрать. Лучше пройти этот процесс взросления намеренно, пока еще не поздно, что-то поменять в своей жизни. Мы вместе с тянкой пытаемся вылезти из говна. У нее социофобия, у меня вот эта хуйня, тревожность и последствия родовой травмы. Для нее сейчас главный вопрос - найти работу.>Как ни странно помогают страдания. Армия - это суровый групповой тренинг.Помогают, но временно. На тренировках по рукопашному бою обсессии прекращаются, но через пару часов снова одолевают. Наверно, это связано со снижением уровня серотонина, который вырабатывается при аэробных нагрузках.Алсо, какие последствия приема нейролептиков и ад? Кто испытал их на своем опыте?
>>1056811Фармы*
>>1056811>Как только появилась я, он слез с фарсы, прошла депрессияУ меня прошла депрессия, но не окр :3
>>1056815А у меня прошли депрессия и страхи, когда я стал пердеть нагибаясь.
>>1056818Клево. Пердишь оче вонюче?
>>1056810>Лекарство - вылезти из скорлупыПсихолух, плез. Когнитивная терапия применяется, но твоё предложение - какой-то бред. Ты бы ещё шизофрению вылезанием из скорлупы лечил.>>1056811А ещё тянучка принести и лишнюю суету. Я б не рисковал.
>>1056815Зачем, ты же фильм смотришь, что тебе делать на доске для кодеров?
>>1056813>>1056813У меня тоже лёгкая социофобия, но я давно нашла работу
Прекращайте уже
>>1056788Шарящие аноны, помогите, пожалуйста.
>>1056870Ты Ландау или Ферми, чтобы заниматься чем-то независимо от кафедры на которой учишься? Невыебывайся, просто учись.
>>1056872>Не выебывайсяя точно не Ландау :)
>>1056788Какого вуза?К концу первого курса дадут базу, ботом будет намного легче внимать в машобтебя хотя бы знак суммы не будет пугать.
>>1056870Машоб на каждом углу рекламируют. Сейчас каждый студент пишет диплом на эту тему (потому что очень низкий порог вхождения). Если ты хочешь матан, высокую зарплату, гарантированную востребованность - тебе не сюда. Есть много других очень интересных направлений.
>>1056915Ой блять, нахуй иди, каких именно направлений ты, конечно, не скажешь.
>>1056872Нужно ведь начинать уже сейчас, чтобы к 3 курсу уже был мало-мальский опыт в этом деле.>>1056876СПбГУ, матмех.>>1056915>Если ты хочешь матан, высокую зарплату, гарантированную востребованностьЕсли под эти критерии не подходит ИИ, то что тогда?
>>1057038Начинай со второго.
>>1057044Ладно, спасибо. А пока буду долбить математику и алгоритмы.
>>1057050математика - первый оппикалгиртмы (генетические) - второй оппик
>>1057056приклеилась
>>1056915>Есть много других очень интересных направлений.Мне аж интересно сталоКомпьютерное зрениеГенетические алгоритмы...Сеттлеретика???
сука, куда я попал
>>1057050Представь, что Билл Гейтс был первокуром как ты. Он ходил около большой вычислительной машины в своем универе и облизывался. Вот бы иметь такую личную штуку, чтобы не писать код на бумажке в студенческой библиотеке и не стоять в длинной очереди к мигающему разноцветными огоньками шкафу. Но внезапно судьба повернулась к его мечте лицом. Персональные компьютеры быстро стали реальностью, а он оказался во главе разработчиков программ для таких штук.Теперь сравни со своей ситуацией. Ты хочешь пойти по протоптанной тропинке потому, что так понятнее и безопаснее. Ты не видишь возможностей вокруг. Никто их не видит - кроме гениев.
>>1057065TOLOSTO
>>1057064Тред захвачен шизофрениками-графоманами. Сопротивление бесполезно.
все бывшие одноклассники & однокурсники уже женаты, детей стругают а я тут с вами долбоёбами сижу
Хочу вкатиться в machine learning, есть ли гайды от двачей, в нете дохуя видел, облако чекал, книги видел. И еще вот вопрос, счас все юзают питон как мейн язык для machine learning, а нужно ли какой-то язык учить еще дополнительно? Плюсы например и тд, в технический английский могу. Вообщем реквестирую годный гайд для вкатывания в МЛ, англ/русс.студент-бульбаш 1 курс, планирую дрочить и поступать в ШАДРепост из змия треда
>>1058130Да кому ты нужен. Рынок перегрет.Почитай лучше >>1057065
Сап, нейросети!Поясните за дообучение сетей и использование каких-то предобученных сетей в нейронках. Распространено ли это, какова эффективность?Т.е. например одну нейронку успешно обучили на распознавание кошек. Насколько целесообразно будет дообучать сеть на распознавание собачек или мб велосипедов каких-то?Или вот в глубоких сверточных нейросетках, которые изображения распознают, на первых слоях какие-то примитивные фичи (палочки, их комбинации и т.д.). Есть ли такая практика, что изначально в нейросеть забивают веса именно с такими фичами, и ее обучают? Или, например, берут уже обученную, и вторую половину слоев зануляют, чтобы заново обучить?
>>1058389судя по эффективности например на CIFAR, чтобы порог переобучения был повыше лучше обучать под каждый класс объектов отдельную сеть, если условия задачи позволяют
>>1057065>Ты не видишь возможностей вокруг. Никто их не видит - кроме гениев.https://www.youtube.com/watch?v=zNuIgCn9SF0
>>1056633 (OP)Завидую тем, у кого хороший вуз и научрук может выдать интересную тему.
Ребят, объясните нубу, где можно применять машобчик и нейронки. Просто у меня настолько убогие представления, что кроме распознавания картинок ничего в голову не приходит.
Посоны, как быть. В cifar все объекты разделены, а у меня картинки имеют сразу 2 класса на одном изображении. Как такое классифицировать? Будет ли сеть обучатся если на большинстве картинок имеется сразу 2 класса? Получается так: часть картинок только 1 класс, часть - 2 класса в одной картинке. Например 1. Машина без дороги, 2. Машина с дорогой, 3. Дорога без машины.
>>1058846все отлично будет обучаться (при очень большом желании там есть специальные лоссы и тд)1 выход - есть машина2 выход - есть дорога
>>1058824в яндексе рекламу и погоду кликать, как одна курица мне на собеседовании чуть ли ни матом сказала, что машоб и нейроночки - это типа штука для повышения конверсии, после чего попросила "продать себя"
>>1058882Ага, спасибо, буду пробовать, надеюсь получится.
>>1058824Загугли Reinforcment Learning, самая фановая область. Хотя GAN'ы тоже неплохи.
>>1058882И еще вопрос. Стоит ли делать еще один выход который будет сигнализировать что там нет ни дороги, ни машин? Т.е. получается всего 4 выхода.
>>1059075Ой, 3. 1. Машины, 2. Дорога, 3. Ни дорога, ни машины.
>>1059075Всё верно. Но забей на это устаревшее говно. Обучай мультиклассовый SVM.
>>1059084Сравнительный анализ со сверточными есть?
>>1059050Разве для обучения с подкреплением есть что-то типа бишопа?
>>1058883>>1059050Просто мне не совсем понятно: вот я хочу заняться машобом, в каких сферах для решения задач я смогу применить свои знания? Или нет какого-то ограничения?
>>1059113Но как ты можешь хотеть заниматься этим, если даже понятие не имеешь о применении? Неужели повёлся на хайп и решил, что это твоё?
>>1059083> Буду тратить слои на обучение логического или
>>1059117Это было обычное предположение, я обычный мимокрок, которому просто интересно чуть-чуть разобраться в этом.
>>1059178что посоветуешь? разбить на 2 разные сети? памяти на видюхе не хватит
Что за хуйня в оп-посте и треде?Я попал в тред по маш.обучению или где?Дайте 1-2 книжки на почитать для начала. Вроде ж были в старых тредах. Алсо, какие языки больше подходят для этого, назовите по убыванию.
>>1059245>Тебя самого не фейспалмит от вопроса про языки?
>>1059250Цитирование случайно приклеилось
>>1059251Двачую. Понабежали студентики-уже-не-школьники. Учебный год начался.
>>1059250Не фейспалмит. Для всего есть наиболее популярные/удобные/обкатанные инструменты, фреймворки. Я заметил, что чаще всего используют яву (хадуп, махаут) и пистон (numpy?), а я их не знаю. Я веб-макака и знаю php/js, ну еще c++/c#.
>>1059113в любых, сириосли, не могу области даже придумать, куда засунуть его при желании нельзя
Рекомендательная система - это тоже относится к маш.обучению?
>>1059278>жабаНасмешил.
>>1059245И всё-таки, что почитать, чтобы вкатиться?другой анон
>>1059354Высшее образование своими руками луракай. Пока не пройдешь, даже не думай сюда лезть.
Как в sklearn понизить границу, по которой объект относится к тому или иному классу?Есть 1000 X объектов, из них 16 относятся к одному классу 1, остальные к классу 2. При предикте X разделяется 16\984, а мне требуется отнести как можно больше Х из класса 2 в класс 1 (который представлен этими 16 образцами). Как это сделать?
>>1059473class_weight={1:0.1,2:0.9}как-то так
>>1059478>1:0.1,2:0.9Добра
>>1059457Я эту пасту написал. Шизофреничная штука. Ни слова про нейроночки и машобчик. Теперь можно сюда лезть?
>>1059640Тебя сейчас научи, а потом ты и про нейроночки такую пасту сделаешь. Тогда к нам набигут тысячи новых людей, и весь рынок порушат.
Как сделать искусственный интеллект? Я слышал что это круто
>>1059640А зачем? Программистам всё равно платят в разы больше, а требования в 10 раз меньше. Короче, школьники, выкатывайтесь, пока не поздно.
Что-то тред сдох. Давайте, я наброшу гениальную идею на миллион, а вы покритикуете. Читал я давеча пейпер про fasttext, если кто не в курсе, это либа для NLP от пейсбука https://github.com/facebookresearch/fastText умеющая в subword-анализ, т.е. анализирующая не слово как атомарный элемент текста, а н-ки буков этого слова от 2 до 6. Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику слова (в данной либе - отдельны частей слов, таких как корень, суффиксы, ну вы понели). Далее сама идея:1) Но ведь в качестве слов можно использовать все, что угодно. Например, вещественные числа. Ведь чисто формально это тоже слова в алфавите, состоящем из натуральных чисел от 0 до 9 и точки. 2) Далее, есть такая тема как нихонские свечи пикрелейтед. Опять же, исходя из вышесказанного за вещественные числа, чисто формально японская свеча это слово, состоящее из значений открытия, закрытия, максимальной и минимальной цены. 3) Теперь усложним задачу. Разница между парами 4х значений соседних свечей (или логарифм от нее) это так же слово. Контекст которого - подобные же значения соседних свечей. 4) Тогда, если мы возьмем числовые ряды, сделанные как описано в предыдущем пункте, у нас будет формальный текст (напомню, в алфавите из цифр 0,...,9 и точки).5) Если мы пройдемся по такому тексту фасттекстом, мы сможем выявить статистическую закономерность, зависимость динамики изменения свечей от динамики же контекста этих свечей (то же самое можно сделать для показателей индекса Ишимоку, как пример). Т.е. в итоге мы получим нечто типа регрессионного анализа с возможностью предсказывать последующие значения свечей исходя из предыдущего и текущего (как элементов контекста). Т.е. фасттекст в данном случае используется как алгоритм для идентификации системы.
>>1056633 (OP)Аноны, реквестирую датасеты на диплом.Желательно NLP. В кеглях буржуйские какие-тоВ идеале - сайт, который будет легко запарсить.
>>1062454какие свечи, наркоман?
Дело такое - мне нужен наставник.Живу в общаге, и мои соседи нихрена не соображающие быдланы, играющие в дотан сутками.Я хочу самообучиться до нормального уровня, но мне нужно кому-то отчитываться ин рил лайф, чтобы это держало меня на плаву.Что я планирую делать: каждый день присылать отчёт что я сделал, что прочитал, краткий пересказ понятого материала, и небольшое эссе на английском или французском.Ваша задача: сказать "молодец, продолжай", или что-то подобное. Можете иногда придумывать мне челленджи, которые я должен выполнять inb4: синий кит, а ля "перечитай весь матанализ за 10 часов". Короче, кому там нужен послушный раб-зубрила? втентакле: /quantumdemon
>>1062737Учеба для того и нужна, чтобы найти себе наставника из числа преподов. Лекции, как и экзамены - это просто повод пообщаться, реальные знания можно получить только самостоятельной работой под (как минимум) наблюдением сенсея. Если в твоей шараге не так - это достаточный повод сменить шарагу.
>>1062743Гуд пойнт, но мне уже поздно менять шарагу.Алсо, ни разу не встречал препода, который бы подошёл на такую роль.Единственный человек, который был в этом плане более-менее подходящим, внезапно, это препод из ZTH, который с какого-то хрена стал отвечать на мои письма с вопросами. Но он слился под НГ, лол.Давайте,ребята, все в детстве хотели себя хомячка.
>>1062754Заведи себе воображаемого друга, как делают все дети.
>>10626282ch.hk
>>1062914Я тоже первым делом об этом подумал.Но слишком стрёмно.Да и датасет не так уж и огромен, разве что архивач поднимать.
>>1062454да никому ты не нужен, тем более, если в шараге учишься, нормальные преподы берут себе в хомяки олимпиадников с вышкой в 12 лет
>>1062924На архиваче 200к тредов вообще-то. Да и аноны уже озаботились, вот либа(https://toster.ru/q/437218) с помощью которой реплаи можно с минимумом ебли парсить.
>>1062454>Ну и дальше все как обычно - чаще встречающиеся в определенном контексте из других буков н-ки позволяют вычислить семантику словаЭто не семантика. Это что-то очень отдалённо похожее на семантику.мимо-лингвист
Посоны, решаю конкретную математику. Щас на 5 главе, домашки. Заебался. Расскажите че нить.
Анон, объясни, почему нельзя найти точку минимума функции с помощью производной?Почему надо использовать шаги и искать минимум функции ошибки с множеством итераций?
>>1063317Якубович умер же.
>>1063309>Это не семантика. Это что-то очень отдалённо похожее на семантику.Ну тогда расскажи, что такое семантика. >>1063356Потому что в оригинале матанализ слишком идеализирован, аутичен, для практических нужд. Чтобы не просто рисовать значки, а реально вычислять, необходимы численные методы. А они невозможны без учета вычислительных погрешностей, устранимых и неустранимых ошибок, оценки стабильности вычислений, оценки точности приближения (аппроксимации) и т.д. чего в оригинальном матане нет. А машобчик - это практическая дисциплина, так что добро пожаловать в реальный мир, Нео.
>>1063356так ты её и ищешь с производной, всё правильно понялитерации нужны когда функция слишком сложна что бы найти замкнутую формулу
>>1063394>Ну тогда расскажи, что такое семантика. Как минимум семантика слова включает в себя коннотативный аспект.
>>1063544>коннотативный аспект. Подразумеваемое значение? Но оно ведь отражается в контексте употребления слова, т.е. опять же его использование относительно других слов. Если бы этого не было, то собеседник не смог бы понять в каком смысле ты используешь слово. Разве нет?
>>1063356Единственный случай когда никаких шагов не надо - положительные параболоиды. Чаще всего их можно найти в задачах МНК. Её единственный экстремум всегда в точке где производная равна нулю. Раз корень только один, то это линейная задача, которая имеет способ решение через поиск обратной матрицы и.т.д. Более сложные функции имеют множество экстремумов, не известно какой из них даёт минимум ошибки, и их не решить линейной алгеброй, т.к. там уже будут хитрожопые вектор-функции, а не простые линейные операторы. Однако, какой бы хуёвой, не была эта функция, её линейная часть приращения, матрица Якоби, будет оставаться объектом линейной алгебры, а значит её можно юзать для градиентного спуска.
>>1063394>>1063484>>1063557Спасибо анончики <3
Поясните за Метод обратного распространения ошибки. Если у меня есть 2 выходных нейрона и первый выдал правильный результат, а второй ошибся, то нужно ли пересчитывать веса для первого выходного нейрона, который не ошибся. Я просто смотрю гайд и там формула дана, что бы считать ошибку по всем выходящим нейронам. Но в примере выходящий нейрон всего один, так что не понятно, как работать с несколькими выходящими нейронами.
>>1063684Вот чтобы подобные вопросы не ставили тебя в тупик, и нужно учить сначала матан.
>>1063684Похуй сколько выходящих нейронов, т.к. их они принимаются за вектор. Вектор из одного элемента - тоже вектор.
Сап, нейрач. Читаю Хайкина, натолкнулся на такие понятия, как оператор замкнутого контура и оператор разомкнутого контура. Что сие означает?
>>1063779>Читаю ХайкинаЗачем?>такие понятия, как оператор замкнутого контура и оператор разомкнутого контура. Что сие означает?У Хайкина спроси. А вообще, либо там объясняется, либо понятно из контекста, либо странности перевода, Хайкина на русский отвратно перевели, именно в плане терминологии.
>>1063782Да просто есть свободное время, решшил ознакомиться с фундаментальной литературой. Что, не стоит даже в оригинале того?
>>1063790Мое мнение - не стоит. Мутновато излагает, лучше первоисточники наворачивать. Тем более тема широкая, в одной книжке нормально охватить нереально.
>>1063782Я тоже начинал Хайкина читать, но бросил.Что посоветуешь именно по нейронным сетям?У треда нет списка литры?
>>1064709>нейронным сетямв голосяндру, повелся на хайп?мимокрок
>>1064709нет но был, поищи в предыдущихсписка предыдущих тоже нет но был, поищи в гуглокеше
Есть ли в машинном обучении какие-то технологии на свалке, которыми никто особо не занимается?
>>1064719nearest neighbor классификаторыанализ временных рядов с помощью grammar inductionЭто то что было более-менее популярно, но потом было заброшено. В общем любая статья, которая не получила распространения, это технология на свалке, но про них по очевидным причинам никто не знает.
>>1056633 (OP)Анон, машоб это пиздец интересно, конечно, но где работать среднему бигдата спецу?
>>1064775И что ты ожидаешь в ответ на этот вопрос? Что тебе кто-то начнет подбирать вакансии?
>>1064775>но где работать среднему бигдата спецутам где прочевидно, что в макдаке.
Анон-нейрон, посоветуй ресурс по анализу данных на Python/Pandas. Хорошую книгу или отличный курс (лучше книгу). Хочу повозиться с данными, прежде чем лезть в машобчик.
>>1064859>Хорошую книгудержи http://www.litlib.net/bk/72279
>>1064862Спасибо, очень смешно. Я уже нагуглил что надо, а ты нахуй иди.
>>1064796Нет, ожидаю услышать, где работает анон вангую смищные шутки про макдак, чем занимается, какие проблемы решает на работе и прочее.
Спасибо за картинки в ОП-посте, они мне знатно помогли.
Получается, на рынке ценятся только синьоры? И как ж тогда обычному двачеру дорастать до этого уровня без работы над реальными проектами?
>>1065032Область недостаточно широкая, чтобы обучать джунов, да и синьоров есть некоторый резерв.Шанс у джуна может быть в конторе, которой специалист нужен, но не очень сильно, так что она готова платить только очень низкую ЗП, сопоставимую с макдаком.
>>1065083А как же тогда стать этим самым синьором, если нет опыта с реальными проектами?
>>1065092Отправится в 2010.
>>1065096Что ж тогда направления Data Science и ML/AI такие популярные у вкатывальщиков? Чисто хайп?
>>1065100>Чисто хайп?да>такие популярные у вкатывальщиков? нетъ. с этой хуйни кормяться матанопитухи-грантопилы, типа исследования черных дыр, приздишь что угодно в рамках общепринятой теории, никто проверить не сможет.
>>1065105А что можешь посоветовать ты? Вебмакакинг, в котором индусы отберут твоё место за корку хлеба? Геймдев, который в СНГ практически нулевой? Робототехника, где единственный твой путь - педагогика?
>>1065112>А что можешь посоветовать ты?В чем, в выборе галеры?>Робототехника, где единственный твой путь - педагогика?Как насчет автономной сельхозтехники навскидку, или для тебя роботы бипедальные терминаторы?
>>1065100У каждого своя мотивация. Если тебе это не нужно, тебе это не нужно.
>>1065120>В чем, в выборе галеры?Если у тебя не суперобеспеченные родители и твоё будущее не устроено благодаря им, то в большинстве случаев выбор именно такой. И IT, к слову, довольно неплохая галера.>Как насчет автономной сельхозтехники0 ваканский на хедхантере.
>>1065126Какая мотивация в этом деле может быть кроме денег? Неужто ноука?
>>1065134Лучше задай себе вопрос: какая тебе разница, какая у других людей мотивация?У кого-то ноука, у других деньги, третьи "куда все, туда и я", четвертые просто рандомом, пятым нравится звучание словосочетания "нейронные сети". Сильно тебе это помогло?
>>1065144Мне просто интересно, что хотят от машоба двачеры, если, как было сказано выше, вкатиться практически нереально. Ни больше, ни меньше.
>>1065146Лично я работаю в этой области с давних лет ("синьор"). Мне это интересно, для меня это ноука.
>>1065148Вкатиться сегодня действительно так тяжело, как рассказывают? В вакансиях, кстати, не уточняют твой уровень, всегда заведомо имеется синьор? И как работодатель отличит-то синьора от несиньора?
>>1065148контекстную рекламу впариваешь или тариф обсоса?
>>1065150Я выше писал свое мнение про джунов. Спрос на спецов не очень велик, особенно в РФ, где они нужны только большим конторам с сильным технологическим уклоном. Это, видимо, банки, интернет-бизнесы вроде Яндекса и Мейлру, да и все. В банках своя атмосфера, там тебя с улицы никто не пустит делать модели. Остальная мелочевка это уровень стартапов за еду, только в русских реалиях это будет без еды.Специалистов тоже нет так уж мало, пресловутый хайп даром не прошел. Хотя самые крутые постоянно уезжают в другие страны, так что тут по РФ мне трудно оценить. Глобально, например такой показатель: в r/MachineLearning/ 128000 подписчиков.Посчитать свои шансы заранее трудно, как и в любых инвестициях. Мое мнение: за этой областью будущее. Все остальное сойдет на нет и будет находиться на уровне, где сейчас разработка компиляторов и ОС.Чтобы узнать, что нужно в вакансии, позвони по указанному там телефону. Там же можешь прояснить требования, если тебе что-то непонятно из описания.
>>1065161Всё, что я хотел узнать. Спасибо, анон.
>>1065161>за этой областью будущеехуюдущее. что для тебя мл? гнапример медицинские эс были еще в 70х, их похерили копитолизды, что бы не выебывались.
>>1065164>медицинские эс были еще в 70х, их похерили копитолиздычому же похерили, есть такая область - СППР, весьма вездесуща (не только у врачей, и у юристов, психолухов, у бухгалтеров даже ссаных). Просто там делать нечего особо, для погромишечьего труда мало задач, всё делается на раз-два по готовому шаблону.
>>1065167> Просто там делать нечего особовот глупости не говори, бугурт идет как раз от тех кого пытаются заменить ии
>>1065171не вижу связи; я о том, что "заменить" весьма легко, для этого не нужно и сотой доли того человеческого труда, который необходим для вёрстки миллионов сайтов, скажем
>>1065174>что "заменить" весьма легконетъ, просто тебе никто не даст это сделать
Смарите какого колоритного ИИ-мыслителя вам нашел: http://www.cognitivealgorithm.info/Русский тоже, вроде бы. Хотя живет в Бостоне, так что доподлинно неизвестно.
Сап, нейроныЕсть face recognition моделька, точней и скорее всего быстрей findface'овой.Есть смысл пилить второй findface с блекджеком, шлюхами, и анонами?
>>1064864Поделишься?
Скоро ли я получу 5-ый том «Войны и мира»?-то любимым и приятным лицом, встретившись, что-то сказал Жерков.– Еще, еще! – повторил он, улыбаясь, сказал он.– Да, я сказала она, – сказал Билибин, – и уне были в Москве, и что он отец иттого не было.– Вы заботили вперед, – сказала Анна Павловна, – сказал Билибин, подхватив за руку князю Андрею, убежавший под голову князя Василья, который с улыбкой на путь со всею светским, столько беспрестанному командующим, я знаю только потому, что бы он не мог ответить. Она взяла его портфель. Видно было, что всё эти стояли подумать и вывезти на моего сущность, я бы счастливы, полку, – сказал он, – но чтобы думать, что этот вечер, не разбира!– Ты входите, – сказал он, улыбаясь, – вы, не понимаю, что он желал бы тоже получить меня нет тому, что было ей, то успокоиваясь. – Я привал судьбу сухие.– Вы ведь не за чем? – спросил он, – и уже не знает, и что он сказал, что здесь, ни другое оторвало ноги с нают. – Я жалую землю особу.]– Я понимаю, что я знаю, что я не смею. Вот в
>>1056633 (OP)У вас синус квадратного йобы неправильный же.
У меня батхерт от конкретной математики. Там что реально сложно или я тупой?
>>1065793>конкретной математикиТебя развели, это говно никто кроме ебанутых ПМИшников не читает, как и Кнута.
>>1065797> как и остального Кнутаfixed
>>1065797> ПМИшниковКто это такие?
>>1065799Прикладная математика - ВМК, ФКН, ФИВТ и прочие поехавшие олимпиадники.
>>1065800И в чем они поехали? Кнут же четко пояснил что в батле абстракции против конкретного. Первые сосут.
>>1065801>Кнут же четко пояснилХуесос, который не писал индустриальный код.
Есть Одна Молекула, из ее 1d репрезентации строкой я могу получить фингерпринт на сколько угодно битов, в статьях обычно от ~200 до ~2000. Это мои фичи. Вопрос, как выбрать количество нужных мне фич и как происходит отбор самых полезных?
>>1065793КОроче в русском издании ошибка. Ебалихврот. Апокалипсис отменяется.
>>1065801>в батле абстракции против конкретного. Первые сосутПо скорости это очевидно, но пока что код пишут люди и нам необходимы абстракции
Кажется мой пост удалили. Что за беспредел?
>>1065468бамп вопросу, нейроны
>>1065161>Мое мнение: за этой областью будущееЧто, машоб мне и сайт запилит? И распределенную базу данных? И автоматику поездов метрополитена? я лучше пешком пойду%
Ну дак что анон? Как найти пересечение логики двух сеток без дополнительного обучения. В обоих сетках есть одинаковые сущности, но представленные в разных метриках. Должно же существовать какое-то отображение одного через другое, пускай и не очень симметричное.
>>1066146Во всех перечисленных типах систем уже вовсю применяется машоб, и его доля будет расти, пока эти системы не превратятся в нейроночки с тонкой обвязкой для взаимодействия с железом.
>>1066348Так-так-так, и как машоб применяется в распределённых БД? Я просто мимо проходил, а тут такие инновационные технологии.
>>1066348Не применяется, не надо тут ссать в уши.Машоб имеет очень ограниченное применение - преимущественно для неформализуемых задач.Во всех остальных случаях проще и эффективнее реализовать алгоритм руками. По крайней мере, до тех пор, пока не появится ИИ выше уровня среднего человека, который сможет писать алгоритмы.
Есть нейронка на keras и theano, как распределить ее обучение по нескольким машинам?
>>1066812И как убить воркера если оперативки не хватает и скоро все крашнется?
>>1066380Вместе с блокчейном, наверное.
>>1066869Греф сказал что они в сбере будут делать блокчейн и нейронные сети и что рашка отстала.
>>1066996>Греф сказал что они в сбере будут делать блокчейн и нейронные сети Ага, а Чубайс лет 15 назад сказал, что будут нанотехнологии. Рашка это 100% африка - эпидемия ВИЧ, папуасы-каннибалы и т.д. Кто этими технологиями будет заниматься? Распильное рекламное агентсово "яндекс"? Греф начитался умных слов "блокчейн, нейросети", возможно даже понимает что это такое. И что он сделает? Въебет миллиарды, чтобы в итоге получить яндексовский быдлокод SplitStroku? Зачем пизду-то смешить.
>>1056633 (OP)Поясните за блокчейн. Как делать и где там нейронка используется? Знакомый сказал что у него знакомый эту тему изучил и кучу бабла поднял
>>1066091Сколько на LFW выдает? Фронтализовать лица чем будешь?
>>1067026Почему вы так яндекс хейтите? Репозитории по машобу у них суперские, самое то, если с ноля учить.
>>1067111>на LFW выдает99.61%но на самом деле LFW не нужно>Фронтализоватьтоже не нужно
>>1067138Center-face? resnet?Ну ебошь.Правда, уже есть готовые опенсурсные. Щас таких сервисов, как грибов после дождя.Но если сделаешь нормальный апи и хуйлоад, может будет конкурентным. нет
>>1067191>Center-face? resnet?ну как сказать, я пошел дальше, лул
>>1067191Короч текущая моделька построенная на реснет50 набивает 84% на мегафейсе, это 2ое место.Думаю если заменить на что-то тип реснет-инсепшн, то могу за 90% выползти
Посоны, почему не обучается? Еcть данные 100x100 картинки из гуглкапчи.50 процев - машина(ы)+дорога15 проц - только машины15 - только дороги20 ни машины ни дорогит.е. 3 выхода. Сеть не обучается почти, точнее всегда один выход больше других при настройке. Подозреваю что данные неочень, но что лучше поделить на 2 сети с одним выходом:1 - машины, 2 - дороги.файл с картинками http://dropmefiles.com/opxtW
>>1067339лосс какой?топологию хоть нарисовал бы
>>1067354Та разные типы сверточных(с релу, а так же полносвязная сеть в конце и без нее). Лосс постоянно скачет от 0.8 до 0.1. Вектор правдоподобия если и машина и дорога заполняю как 0.5(чтобы в сумме получилась 1), ну и 1 если что-то только одно на картинке.
>>1056712>нейролептикиТак это ж нерабочая хуета. Смешно что у тебя еще и хуй не стоит.
>>1067369>вектор правдоподобияwtf?
>>1067369>с релупроиграл с долбоеба
>>1067390ну что должно быть на выходе в идеале.
>>1067414хуй должен быть на выходе, ебланможешь внятно написать что это блять такое?
>>1067420Блядь, неужели трудно догадаться, если и так все очевидно? По-моему тут и даун должен догадаться, что имеется ввиду. Исходный вектор для бэкпропа.
>>1067422даун тут только ты.
>>1067424не обижайся, я же не со зла.
Здраститя.Решил, я, значица, нейросеть написать. Но не могу понять структуру.Есть игра - яцзы, кидаем 5 кубиков, 3 раза за итерацию перекидываем, сохраняем любое количество.Не могу понять структуру нейросети, как ее построить.Допустим, на входе: 5 входов - значения кубиков, 6 - количество бросков что остались.Но ведь надо же как то учитывать структуру поля, сколько полей осталось, сколько очков получилось.Как это сделать??Функция обучения тоже понятна - набрать максимальное количество через 20 итераций.Выходы, допустим, 5 - на каждый кубик - значение, оставляем его или нет.А как со слоями сети быть? Там вообще не ясно блядь. 1000 слоев, с 100 нейронов на каждой? Или как?
>>1067497Чем отличается нейросеть от какого нибудь графа с элементами?
>>1067500Граф абстрактен, а нейросетке надо выплюнуть в конце на выходе определенные значения. Она ближе к монаде, чем к графу, как мне кажется.
>>1067520ну вот граф с весами, мы ищем кратчайший путь. В конечном итоге получается минимальный путь от а до б. Это нейронная сеть?
>>1067525Ну я хз как граф заставить проодить марио
>>1067370Расскажи подробнее.
Ебаный TF, нахуй его вообще запилил?вывести тензор нельзя, воткнуть дополнительную логику между forward и backward нельзякак считается backward вообще только небу и Аллаху известно.Верните теплый ламповый torch суки
>>1067638Логика подсказывает. Если дохрена графов и рёбер насовать, то можно будет свести к нейронкам.
Добрый день, джентельмены.Задача такая - у меня есть около 8 тыс штаммов бактерии, про несколько тысяч из них известно являются ли они патогенными/непатогенным. Про практически все 8 тыс известны их параметры. Вопрос - как на основе этих параметров предсказать возможную патогенность? Что нужно использовать машинное обучение/нейросети? Как вкатиться в это в минимально возможные сроки?
>>10680768k это очень скромное количество, для начала поищи еще данные где бактерии описываются такими же параметрами, кроме патогенности. Машинное обучение не гарантирует приемлемый результат, но можно попытаться. Лучший вариант для вкатывания, это найти датасаентиста, который будет с тобой работать.Следующий по убыванию - посмотреть бактерии+нейронные_сети, взять готовый код и с минимальным знанием питона украсить его под себя. За ним идет просто вариант с тем чтобы посмотреть архитектуру использованных в чужих публикациях сетей, научиться в питон и keras и воспроизвести такое у себя. Туториалов по "простая нейронка в keras" полно, документация тоже на уровне.Просто вкатываются в машоб и нейронки люди, которые учат их в университете 3-5+ лет.
что почитать внятного про TF?Torch у меня как-то сразу пошел, а с TF уже неделю ебусь, и даже не знаю как тензор блять на экран вывести, это пиздец блять
Посаны, поясните вкратце как играм обучают, я так и не понял как строится оптимальный граф и с помощью него обучают сеть как описано тут https://habrahabr.ru/company/yandex/blog/307260/ в обучение с подкреплением. Как давать оценку выигрыша для текущего шага? Я так понял используется несколько скринов экрана, потому что надо знать и скорость объектов? Если ориентироваться по очкам на экране, то большую часть времени эти очки не меняются, а жать на джойстике что-то надо.
>>1068014>tf.eval()?>ламповый torchЕсли ты про питон, то там есть pytorch.
>>1068092Для градиентного бустинга сойдёт.
>>1068283>Если ты про питон, то там есть pytorch.нахуй мне pytorch когда есть torch7>tf.eval()?и как это работает? у меня не пошло, с каких только сторон не пытался зайти.И да - как вручную прикрутить градиенты?Как сделать backprop?ебаный TF
>>1068336Ты какое-то быдло. Не хочется тебе помогать.
>>1068345зачем называть быдлом любого кто не укладывается в твое мировоззрение?
>>1068345и да, ты можешь сказать как в этом TF можно явно задать градиенты на выходе из леера?Что делать если мне не нужна производная, можно её как-то заменить?
поясните что за О что за Х на оп пике ?
>>1068421Крестики-нолики?
>>1068269Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектов. Все книжки прекрасно воруются на либгене. Родина дала, читай, пользуйся. Нет, ты аутируешь над самим слесарьпловом, пытаясь угадать как там что-нибудь на экран вывести. >>1068280Суть обучения с подкреплением в аппроксимации зависимости конечного результата от происходящего на экране (в динамике, обычно используется 4 последовательных кадра) и действий для дальнейшего выбора оптимальных действий в данной обстановке (происходящем на экране). Все это прекрасно, в картинках разжевано в пейперах по openai gym / universe.
че это, Х ОX, Oче
>>1068733ХОХОХОЭто мы все над тобой хохочем.
>>1068482Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки. Вон же куча статей про LSTM с дремучих времен, показывающих как они прекрасно запоминают вещи при обучении с подкреплением. Ну что же вы? Что ж такое, почему 4 кадра, почему не LSTM? Что, не работает? Не работает ваш LSTM? Не работает, да? Ну признайтесь, что не работает он в RL. Выйдите на площадь, покайтесь перед народом. Скажите, что не работает. А то понаписали статей на игрушечных примерах, и все, дело мол закрыто. Расходитесь, тут не на что смотреть. А на играх (которые тоже в принципе игрушечные примеры, но посложнее) никто и не пытается сделать нормально.
>>1068769>Меня бесит, что они используют 4 кадра вместо рекуррентной нейроночки.А большая разница? В рекуррентных нейроночках нет никакого волшебства по сравнению с 4мя кадрами. Как я понял, кадры там используют по типу элементов матрицы Ганкеля:1 2 3 42 3 4 53 4 5 64 5 6 7....а таким способом представима любая динамическая система, что было доказано еще в 80-е.
>>1068747пидор
>>1068773Почему для тебя это всё так просто?
>>1056633 (OP)Врываюсь с вопросом: какой алгоритм распознавания линий дорожной разметки, основанный на машинном обучении, сейчас можно считать лучшим?
https://www.bitmex.com/app/trade/XBTUSD
>>1069171дебилоид лучше курсы криптовалют предсказывай всё остальное это примитивное долбоёство
>>1069447Каждый раз с тебя-дебыча проигрываю; когда акулы(>100kk$) в игре, нихуя твои схемы не работают.
>>1069137>Почему для тебя это всё так просто?Для меня? Лол. Индусы, вон, вкатываются в МЛ всей Индией и ничего. Машобчик же реально математика уровня оп-пика с йобами, ну есть вещи, которые сходу не раскуришь типа теории статистического обучения Вапника, но это исключения из общей картины.
Смотрю лекции Воронцова и как то со второй, третьей лекции все очень размыто пошло. Такое ощущение что там на семинарах они дохуя чего объясняют и потом на лекциях уже подразумевается что ты это знаешь.С другой стороны курс китаезы на курсере совсем примитивный, для деревенщины с тремя классами.Есть ли какие-то промежуточные материалы, почитав которые будут более понятны лекции Воронцова? Или может где-то есть лекции семинаров в шаде?
>>1069596Там нет ничего сколь-нибудь сложного, тем более в первых лекциях. Наверни книжки Воронцова, если что-то непонятно и там, учи статы, тервер и немножко численные методы оптимальных систем.
>>1068747В голосину проорал.
Посоветуйте каких-нибудь интересных датасетов. Ебучий титаник не предлагать.
Пытаюсь разобраться с нейронными сетями, читаю как стандартизировать данные на вход. Везде пишут, что нужно нечисловые данные вроде названий и категорий представлять в виде векторов типа [1,0,0], [0,1,0], [0,0,1] (для трех категорий). Но у меня такая ситуация, я на вход хочу подавать имена игроков спортивных команд, а их очень большое количество, тогда получается что если всего 1000 игроков и нужно произвести вычисления для 10 из них, то понадобится 10 тысяч входов? А если 10000 игроков? Совсем страшные цифры получаются. Поясните что с этим делать?
>>1068773Рекуррентная нейроночка может запоминать информацию неограниченно долго, в этом вся суть.
>>1069851Я хз, но я пока ничего лучше не настроил на них чем бредогенератор, взяв рандомную русскую книгу и обучив на ней.
>>1065820Хуесос тут только ты, Кнут латех запилил.
>>1068482> Ты аутист, не обижайся. Сейчас, в конце 2017 года, по слесарьплову полно топовых книжек, где все объясняется с установки слесарьплова до примеров готовых проектовНе могли бы вы, сударь, скинуть названия книжек или ISBN? Я обучен пользоваться либгеном.
>>1069884http://gen.lib.rus.ec/book/index.php?md5=7219D3D45C9ADE064A5AB01620E638EAhttp://gen.lib.rus.ec/book/index.php?md5=58B928DD3D827204D2634F26C7B458DAhttp://gen.lib.rus.ec/book/index.php?md5=7C4333E23A6BF64508F7C848E13CE5FBhttp://gen.lib.rus.ec/book/index.php?md5=7724C3D396904D67D2BB836ECA14A331http://gen.lib.rus.ec/book/index.php?md5=701B3790512F6104CD265E9088FDADEE
>>1069888Спасибо, сударь, надеюсь, это действительно топовые книжки по вашей рекомендации
>>1069888Тоже приобщился, господа слесари. Благодарствую.
Все книжки читаете?
Нахуя вы эту хуйню развиваете, мрази?https://2ch.hk/pr/res/1066794.html
>>1069956Для уничтожения быдла, это всем очевидно же.
Нахуя вы эту хуйню развиваете, мрази?https://2ch.hk/pr/res/1066794.html>>1069957лул
>>1069956Даже до слабого универсально ИИ еще очень далеко, можно быть спокойным.
>>1069960А зачем универсальный, когда специализированными под конкретную задачу интеллектуальными системами можно заменить большую часть профессий?
>>1069961значит будет бод
>>1069962и ограничения на размножение
На заметку: если твоя профессия сводится к задрачиванию моторных навыков, то человеческих прав ты лишишься еще в первой половине этого века.
>>1069966Да почти любая профессия сводится к определённому набору алгоритмов.Всем пизда.
А в чём проблема, разве не для создания ололо-сверхчеловека живём?
>>1069969НетТут всё это обсуждалось " https://2ch.hk/pr/res/1066794.html "Вывод такой, что пизда экономике, пизда людям.
>>1069970Ну ладно, уговорил, почитаю.
>>1069811Гугли word/category embeddings
>>1069974Спасибо, но насколько я понял после прочтения статьи на хабре, эта технология подходит для слов в контексте, а у меня же просто имена отдельные и никак не связанные друг с другом "Ванька, Петя, Коля".
>>1069983Какой хабр, Ванька? Забудь о нем. Читай статьи, книги. Эмбеддинг на нейроночках можно сделать через автоэнкодер на любом датасете про твоих игроков.
>>1069966>если твоя профессия сводится к задрачиванию моторных навыковКак бы ты сам не хлебнул мочи с мельдонием
>>1070083буду только рад отхлебнуть у https://wiki.lesswrong.com/wiki/Roko's_basilisk лол.
>>1056633 (OP)https://www.youtube.com/watch?v=WCUNPb-5EYI
>>1069966минеты всегда будут в цене
Есть 30 положительных лейблов на 5к отрицательных. Что делать в таком случае?
>>1069615Не подскажешь, этот курс годный по матстату? https://ocw.mit.edu/courses/mathematics/18-650-statistics-for-applications-fall-2016
Шапку-то поправьте после переката.http://arhivach.org/thread/257951/Старые треджы: https://www.google.ru/search?newwindow=1&dcr=0&q=%D0%9D%D0%95%D0%99%D0%A0%D0%9E%D0%9D%D0%9E%D0%A7%D0%9A%D0%98+%26+%D0%9C%D0%90%D0%A8%D0%9E%D0%91+site%3Aarhivach.org&oq=%D0%9D%D0%95%D0%99%D0%A0%D0%9E%D0%9D%D0%9E%D0%A7%D0%9A%D0%98+%26+%D0%9C%D0%90%D0%A8%D0%9E%D0%91+site%3Aarhivach.org
Я так понимаю без вышки в эту тему будет тяжело влезть? даже при любви и знании матана
>>1071721Нет, не сложно
>>1071779Почему? В вакансиях, особенно тех, что на английском, почти каждый требует вышку или даже ученую степень.
>>1071818Это уже как ты сможешь пройти хромусор и попасть на собес, а дальше всем похуй на твой диплом, если хорошие навыки, получить которые вышка никак не поможет, даже магистратура(ну может пару топрашковузов).
Расскажите про этот сайт:http://mathprofi.ru/lekcii_po_vysshei_matematike.htmlСтоит ли начинать оттуда, если вообще никогда не касался высшей математики?
>>1071829Ну так а как их пройти, если тут появляется замкнутый круг - нам нужны люди с вышкой, без вышки не попадешь на такую работу, следовательно компенсировать ее отсутствие нечем. Речь то не о вакансиях какой-нибудь явы.
Нужна ли аналитическая геометрия в машобе?
Такая проблема, на работе нужен тензорфлоу, но сетка заблочена так глубоко, что через пип его установить невозможно. Теано и Керас я установил просто скачав их с гитхаба и собственно запустив установочный скрипт, но тензор такой возможности не предлагает. Что можно придумать?
>>1072145http://www.lfd.uci.edu/~gohlke/pythonlibs/#tensorflow
>>1072145Понабрали по объявлению. Качай пакеты для пипа отсюда: https://pypi.python.org/pypi/tensorflow , не забудь зависимости скачать, запиши их на свои пятидюймовые дискеты, и устанавливай пипом локально. Ему просто имя локального файла можно указать.
>>1071908Никак ты их не пройдешь. Абсурдно ведь, когда датасаентистом работает крестьянин с тремя классами церковно-приходской школы. Компания, нанимающая таких людей, делает это чтобы повысить уровень образованности команды. И что это будет, когда новый мега спец менее образован, чем двадцатилетняя фронтэндщица-джуниор?
>>1072160Спасибо, анон!Я то сам не погромизд, я так, сорт оф нефтянник, но хотим попробовать модные штуки внедрить. Я так понимаю, что если у меня стоит анаконда, то, наверное, больше никаких библиотек не надо?
>>1072207Пройдись на всякий случай, можешь на свой ноут установить, чтобы посмотреть все зависимости. ТФу нужна какая-то гугловская экзотика, насколько я помню, и еще пара малоизвестных либ. На голую анаконду точно не встанет.
а если я фронтендщик и вместо изучения очередного модного жс-фреймворка почитываю книжки по машобу на выходных - я нормален?или я проебываю время и свою ценность как спеца на ненужную хрень вместо изучения востребованных навыков, применимых в моем фронте?
>>1072226>или я проебываю время и свою ценность как спеца на ненужную хрень вместо изучения востребованных навыков, применимых в моем фронтеthis
Как реализовать Gradient Descent правильным и наиболее простым способом. Что почитать, чтоб быстро понять тему.
>>1072247x -= learning_rate * grad
>>1072272Р Е Г У Л Я Р И З А Ц И Я
>>1072276Реализуется модификацией коста, ортогонально градиентному спуску.
>>1072247Я пока мини-специалист по машобчику (шестая неделя курсеры), но довольно упитанный специалист по приложению численных методов. Всё равно тебе советов дам.1) Устанавливаешь либу с CG (или чем-нибудь поприличнее, чем CG)2) Запускаешь CG3) Никогда не переписываешь численные методы4) Никогда, слышишь, никогда не переписываешь численные методы
>>1056633 (OP)посоны, где найти ментора по машобу+матану? я прочитал 128 страниц из https://doc.lagout.org/science/Artificial%20Intelligence/Machine%20learning/Machine%20Learning_%20An%20Algorithmic%20Perspective%20%282nd%20ed.%29%20%5BMarsland%202014-10-08%5D.pdfи я нихрена не понимаю, мне просто скучно, я смотрю на эти формулы. как баран на новые ворота.может мне просто плюнуть на книги и теорию и перейти к практике?
>>1072575Может, это просто не твое? Зачем оно тебе нужно? Это как через силу смотреть 500-серийный аниме тайтл, отчаянно борясь со сном.
>>1072584неужели кому-то может нравиться читать такое? или для этого нужна серьезная подготовка? я просто хотел написать сайтик на нейронках и решил почитать теорию, но я уже 3 месяца откладываю сайтик потому что не могу дочитать эту книгу, а каждый раз как сажусь ее читать не осиливаю больше страницы.мне кажется я делаю что-то не так. но как человечество будет делать прогресс, если каждый как я начнет лениться? может надо себя заставлять?
>>1072588>неужели кому-то может нравиться читать такоеДа, мне например, просто не лезь, если совсем туго тебе не достигнуть даже уровня школьника, который потратил на это в 100 раз больше усилий просто потому что он молодой, шутливый и еще может яростно надрачивать то что популярно. А нейроночки это сейчас стильно, модно, молодежно. Даже ты вон немного поддался и хочешь какой-то манясайт на нейроночках сделать. Что между прочим сразу выдает полного профана и нуля в этом деле>может надо себя заставлять? Я вот многие годы пытался влездть во фронтендопарашу, потому что проще и можно сразу начинать зарабатывать. Хоть и вкатился, а потом выкатился, щитаю это были потраченые годы т.к. постоянно себя заставлял и шло очень туго, а потом нашел машоб с датамайнингом, которые мне намного интереснее, и все пошло как по маслу.
>>1072588Во-первых, нужна серьезная подготовка, а во-вторых кому-то нравится. Просто для того чтобы поиграться или сделать какой-то маленький проект, основы не изучают. Ты либо посвящаешь этому жизнь, либо используешь нейроночки как черный ящик, копируя код из интернета.Твои слова звучат как "захотел собрать свой процессор, начал изучать химию и квантовую механику, но не могу продвинуться дальше оглавления."
>>1072575Потому что надо было сначала вкатиться в математику, а затем начать с простых книг и курсов.
>>1072607Почему это желание сделать светить на нейронках выдаёт во мне профана? Ты ведь не знаешь что будет делать моё веб-приложение
>>1072632Аа, ну ты прав, спасибо за совет. Буду использовать как черный ящик тогда.Хотя некоторые моменты (перцептрон) книга прояснила, но дальше там просто какая-то китайская комната
>>1072767Потому что машоб не про нейроночки, это как если бы ты написал "хочу написать сайт на юникоде"
Training RNNs as Fast as CNNshttps://github.com/taolei87/sru
Сап антуаны. Только вкатываюсь в тему. Есть такая задача: генерация обучающих выборок для систем распознавания текста, ну и сами эти системы на нейронках написать/поюзать/поэксперементировать. Больше интересует первая часть. Собираюсь писать Gan на Keras. Хочу услышать от вас какие-нибудь советы по этой теме. Сорян если вопрос недостаточно корректен.
>>1073593На керасе ганы такое себе пилить, лучше фреймворк поглубже - tf или theano. Если проект не в прод - pytorch.Ну и ты же сам понимаешь, что ган - это сделка сразу с двумя дьяволами
>>1073634Но ведь керас в бэкэнде юзает в том числе tf
>>1073634И да, за ответ спасибо большое.
>>1073593Запили OCR для математической нотации. http://lstm.seas.harvard.edu/latex/ https://zenodo.org/record/56198#.Wd0HoHZLcdV
Подходящего треда вроде как нет, так что спрошу тут, ибо итт наименее зашкваренный. Заранее извиняюсь за оффтоп. Обоссыте, не бейте.Что почитать про распределенную генерацию возрастающих последовательностей в п2п сетях? Что вообще почитать на тему самых типичных задач, методов их решений и подводных камней в распределенных системах?
>>1073681Тебе придётся расширять керас кодом на этом самом tf. Как по мне - лучше сразу работать с более низкоуровневым фреймворком, e.g. lasagne
>>1056633 (OP)подскажите довену,пытаюсь сделать титаникhttps://ideone.com/ge4TLAкак сделать accuracy_score
Че там у яндекса за курс "Введение в машинное обучение"? Он только онлайн, нигде нельзя бесплатно глянуть? На ютабе есть похожее что-то, но там я так понял для продвинутых ребят версия
>>1073787Окей, больше поищу/почитаю на эту тему. Спасибо!>>1073731Идея классная, мне нравится, спасибо!
>>1073802На курсере он бесплатный.В конце концов слей с торрентов. Там есть версия 2014 года, говорят она в чем то лучше нынешнего курса. Можешь попробовать попасть в Шад)
>>1073805На торрентах как раз ютубовская версия для продвинутых, как я понял.А бля, ну курсере он реально бесплатный. Я уж забыл про халяву.
>>1073634слушай, я про торч только немного слышала он с gpu из коробочки ставится?а то пытался накатить в своё время cudnn на ноут с gtx 965m и пока вышло неоч, а то на нем сейчас стоят важные вещи которые очень геморно переустанавливать-перенастраивать.на сайте вроде строку в конду впиши - радость получи, а как оно на деле?
>>1073634погуглил, яжмамкиндатасайентиствроде всё норм, ещё раз спасибо :)две цистерны чая в благодарность!
>>1073783Ну что, кто-нибудь таки подскажет?
>>1072607Фактически моя история, благодарен судьбе что обосрался с ui/ux в свое время. Сейчас хоть математику вспомнил.
Читаю introduction в терзорфлоу, просто кек, это же расширение numpy
Посоны, хочу посвятить сабжу всю жизнь, хочу сделать искусственный интеллект, стать бессмертным, очень умным и т.д. С чего начать, как развиваться дальше? Из бэкграунда - я перфоманс инженир, с матаном дружил в универе, но почти все позабыл, потому что в работе нахуй не надо
>>1075413Рекомендую начать с книжки по машобу, а потом смержить кодинг с биологией, химией и медициной.
Классификация, два класса, первый составляет где-то 96% датасета. Пробовал добавить class_weight="balanced" в модель, пробовал менять метрику гридсерча, все равно predictions заполняются первым классом полностью. ЧЯДНТ?
>>1075417Посоветуйте литературу плез, куда идти глобально мне понятно. Плюс, если в курсе, чего можно почитать про теорвер и матстатистику? Так что б по хардкору.
Я правильно понимаю, что не все то нейронные сети, что машинное обучение?
>>1056755чтобы мочь, нужно захотеть. одних что-то подталкивает изучать окружающий мир, познавать, пытаться его преобразить. Других -нет. вот почему кодинг стал так популярен, почему куча крупных компаний типа гугла выкладывает свои проекты в опен сорс, снимает простенькие и смешные поясняющие видео? они просекли фишку, что если каждый чел в отдельности будет заниматься прогрессом своей маленькой области, то их усилия сложатся в сингулярность и ускорят прогресс в миллиарды раз.
>>1075441Да. И не все то машинное обучение, что нейроночки. Это только один подход из многих.
>>1075449Тебе еще самому нужно понять и принять, что ты не будешь Ландау или Тьюрингом. Я для себя решил, что я хоть и могу немногое, но сделаю что-то, что приблизит общую цель. И мне этого будет достаточно.
>>1075435Хотел кинуть тебе список из шапки старого треда, а там какое то слова из спам листа. Ну что за бредДержи линк на архивачhttp://arhivach.org/thread/257951/
Тут все только читают и изучают, или кто-то что-то все же пишет?
>>1075527Добра, ананий
>>1075526блять школьник тупой. кто говорит о том чтобы стать ВИЛИКИМ И БАХАТЫМ УЧЬЕНЫМ) можно хотя бы максимум своего мелкого времени своей жалкой жизненки направлять на поиски средства от смерти и старения.
>>1075529пока тока читаю
>>1075593>средства от смертиКакой ты глупенький, анон. И нервный.
>>1075616> предотворати рак> отключи ограничение на восстановление клеток
Ебучий линейный классификатор отказывается в одиночку работать с xor, чо за хуйня, почему математики не смогли придумать так, чтобы он мог работать?
>>1075529Пишу.
>>1075621Ты ведь понимаешь что пункт 1 вызван пунктом 2?
>>1075417Что по мержингу посоветуешь? мимо ванаби мамкин биоинформатик
>>1075701Пункт 2 это убогий вариант предотвращения пункта 1, задача науки убрать этот костыль и сделать нормально.
Можете коротко раскидать, какие библиотеки за что отвечают и чем друг от друга отличаются? Вот есть numpy, она для матриц, есть scipy, это нампай с дополнениями, есть матплотлиб, он для графиков. Есть пандас, это тоже такое навороченный numpy с анализом таблиц и датафреймов. Зачем нужны тензорфлоу, керас, теано, scikit-learn?
>>1075774Тензорфлоу это поделка Корпорации Зла для того чтобы собирать нейроночки из модулей по большому туториалу ничего не зная о том как они детально работают. Теано это аналог тензорфлоу, только не от гугла. Керас использует тензорфлоу или теано на выбор, чтобы собирать нейроночки по маленькому туториалу ничего не зная о том как они принципиально работают. В scikit-learn реализованы другие модели помимо нейроночек, которые можно просто вызывать и использовать.Энджой йоур датаслесарство.
>>1075935А разве во всех остальных библиотеках ты не собираешь нейроночки по туториалу, не зная как они работают?
>>1075965В стандартной библиотеке С++ - нет.
>>1075969я про библиотеки для машоба, например, numpy.
>>1075935Но если датаслесарство - это так просто, то почему сейчас не все поголовно им занимаются?
Есть задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть). Значениями целевой функции были {0, 1}, регрессия выдает результаты иногда немного вылезающие за этот интервал. Хотелось бы замапить их на интервал [0..1] чтобы потом интерпретировать как вероятности принадлежности классу 1.Вопрос - какой функцией это лучше сделать? Сейчас применяется обычный clamp(value, 0, 1) (пикрилейтед), но он не монотонный по value. Предложите пожалуйста какую-то гладкую альтернативу такой функции. В голову приходит только уродливая конструкция из 2x smooth maximum или какая-то "сдвинутая" сигмоида.С меня гигафлопсы.
>>1056633 (OP)скрыл отсталых
>>1076009задач мало
>>1076009>не все поголовно им занимаютсяНу не знаю, у меня больше половины класса хочет вкатиться в айти, а 5 человек уже вкатываются в нейроночки, даже на курсы по машинлернингу для школьников записались
>>1076033ШАД?
>>1076057НетМы в мухосрани
>>1075673>xor>линейный классификатордебил блять
>>1056633 (OP)Где в России можно устроиться на стажировку в области ML кроме Яндекса?
>>1076021Чтобы именно интерпретировать как вероятности, тебе придется навесить сверху нормальную логистическую регрессию. Если числа, выдаваемые твоим регрессором, совсем плохо откалиброваны (скорее всего так и есть), может понадобиться нейроночка для перевода в вероятности.
>>1076021>задача бинарной классификации которая решена через регрессию (не спрашивайте зачем, так уж есть).Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же.
Скиньте готовый инструмент чтобы вытащить из хтмл и пдф файлов список всех упомянутых там имён и желательно сгруппировывать их по национальности. Где вообще искать полезные годовые инструменты чтобы без велосипедов? Наверняка люди пишут научные работы по таким темам, но есть ли единое хранилище?
>>1076715Используй ntlk, Люк.
>>1076730*nltk
>>1076730Это библиотека, а мне нужен инструмент. Чтобы сам файл спарсил и имена вывел.
>>1076733$5?
>>1076741Нахуя?
>>1076743Не хочешь писать велосипед, я напишу для тебя.
>>1076754Хочу качественный, который давно написали пара азиатов и хорошо документировали.
>>1076757За $10 могу откомментировать и трогать двух азиаток в процессе. За большую вовлеченность азиаток в процесс придется доплачивать и им.
>>1076760Может быть мне готовый инструмент напишешь на основе http://lstm.seas.harvard.edu/latex/ https://zenodo.org/record/56198#.WeTdqXZLcdW и с поддержкой AMS-TeX? Азиатки ненужны, если что.
>>1076766Ок. Напишу в тред когда можно будет тестить.
>>1076520>Потому что функция от нескольких аргументов, а ты только про регрессию и слышал, очевидно же.Еще я слышал что не все жрут мамкин борщ - некоторые даже работают по спецаиальности, причем не в одиночку а в команде.
Стоит ли осваивать базовую математику в питоне, если все равно придется дрочить библиотеки?
>>1076935Да.
>>1076941Хорошо, а то задание понял как делать только благодаря оп-пику. Как, кстати, этот символ называется? Который Т в самом конце йоба мас
>>1076950https://ru.wikipedia.org/wiki/Транспонированная_матрица
>>1076960Спасибо. Соррян за глупость.
Где в биоинформатике можно применить эти ваши нейроночки для небольшого проекта? Суть в том чтобы было может быть даже полезно, а не тягаться с гигантами предсказывания стуктур белка.
Аноны, посоветуйте, как быть. Сейчас учусь на 1 курсе и имею 2 стула: доучиться на специальности с достаточно глубоким изучением математики и средним проги примерно 80/20 распределение, на которой курса до 4, а то и до 8 семестра не будет совсем времени на самообразования из-за сильной нагрузки, или перевестись на направление полегче с менее глубокой мат. подготовкой, но с большим количеством времени для самообразования и халявой, начиная с 3 курса можно уже будет начинать работать на полную ставку. Скоро заканчивается октябрь, а я успел почувствовать, что иногда времени не хватает даже разобраться с тем, что дают в вузе, не говоря уже об изучении чего-либо дополнительно. К тому же, складывается ощущение, что преподаваемая математика всё-таки фундаментальная и в работе не сильно пригодится. Стоит ли переводиться? Можно ли самому изучить необходимые разделы математики, попутно разбираясь и в самом машобе с нуля? Дай совет, анон, буду очень тебе благодарен.
>>1077352По своему опыт скажу, что математическая база - это лучшее, что тебе может дать вуз. И это именно то, что самостоятельно задрочить сложнее. Учись спокойно, если освоишь математику на должном уровне, научиться "делать то же самое, но кодом" будет очень просто. Ну и могу добавить, что "халява" выльется не в самодроч на саморазвитие, а на проебы. Ни разу не видел, чтобы было обратное.
>>1077420Спасибо, анон, сам так же надумал. Со 2 начну в студ. проектах участвовать, а на 4 уже, думаю, можно и по-серьёзному начать вкатываться.
>>1077420Удваиваю этого джентельмена.
>>1077420>на должном уровнеЧто это за уровень?
Как запомнить огромное количество информации про нейронки? Начал читать книгу и понимаю, что начинаю забывать о чем говорилось в начале.
>>1077853со временем всё само устаканитсячитай статьи, читай книги, смотри видосы на ютубе, визуализируйя примерно год вкатываюсь, вроде что-то секу
>>1077352Если это топ-вуз, то не дропай.
>>1077857На каком уровне сечешь, уже работаешь в области ML или продолжаешь смотреть лекции?
> «Сегодня они (продвинутые системы искусственного интеллекта — прим.) вручную создаются учёными из области машинного обучения, и буквально всего несколько тысяч из них во всём мире могут с этим справиться, — говорит генеральный директор Google Сундар Пичаи (Sundar Pichai). — Мы хотим дать возможность делать это сотням тысяч разработчиков».Ну что, маньки, готовы к зарплатам как у грузчика или пхп-макаки и к сотням тысячам новых вкатывальщиков?
>>1077858Не физкек с вышкой, конечно, но довольно неплохой вуз ДС-2. Тоже так думаю, просто, скорее всего, я в учебный процесс не очень хорошо влился за сентябрь, но уже более менее поехало.
>>1077859пишу CGAN для курсача в унике на pytorch, спасибо анонам, что направили в хорошее руслотолько сейчас у меня там квест с прифигачиванием лейбла к картинкесеку на уровне понимания происходящего и терминологии
>>1077863Переводись с матобеса на ПИ, вон гугол обещают сделать так, чтобы нейронки могла писать любая макака без среднего образования. Зачем кому-то математика в 21 веке?
>>1077863Просто влейся в CSC на старших курсах, там крутая движуха.
>>1077866У них, кстати, расписание 1 семестра какое-то криповое.>>1077880Буду как раз пробовать поступить в этом году, надеюсь, пройду. Алсо, не знаешь, как лучше подготовиться к вступительным?
>>1077889Извини, я тупой, в этом году в четвертый раз в ШАД поступаю, так что я так себе советчик. Мои знакомые, которые поступали после первого или второго курса КТ ИТМО, вроде как вообще не готовились, им знаний хватило. Но может они прихвастнули, не знаю.
>>1077897И на этом спасибо. Просто все, у кого я спрашивал, либо поступали несколько лет назад ещё как-то по-другому, либо учились в 239, либо тоже на 2-3 курсе КТ.
>>1077901Удачи тебе.
>>1077923Спасибо :3
>>1077897В шад иногда и не тупых не берут знаю чела, который все собесы-таски сдал на ура и не взялитак что не парься и саморазвивайся
https://deepmind.com/blog/alphago-zero-learning-scratch/Альфаго научили играть в го без использования записей людских игр. Он играет только сам с собой. В результате он превзошел по силе версию, натренированную имитировать игру человечишек.
Как метод градиентного спуска поможет мне корректировать веса в сети? Я чет не ебу как производная функция ошибки от весов к внешнему слою что-то меняетОбъясните дебилу как это работает
>ШАДПоясните, зачем вы на эту рекламную парашу дрочите? Может быть, у яндекса есть хоть один программный продукт уровня среднего индусского стартапа? Во что они могут кроме агрессивного впаривания рекламы, врапперов к готовым либам или реализации 1,5 готовых алгоритмов, не ими разработанными?
>>1078114>бигдата кококо, машоб кококо, нейроночки кококогосподам интересующимся ии очевидно, что это говно не работает
>>1078119Есть хоть одна публикация, "интересующийся"?
>>1078128есть хоть что-то похожее на ии, кроме бота, который заготовленными фразами отвечает?
>>1078135двачну, даже адекватное распознавание примитивных геометрических 2д фигур в динамике непосильная задача для современного ии
>>1078128а ты читал публикации по ии? авторы в основном перекрестно ссылаются друг на друга, высирая горы матана и в заключении - "моя манятеория хорошо, но она нихуя в коде не работает, поэтому необходимы дополнительеые исследования".
>Искусственный интеллект превзошел человека в создании искусственного интеллекта >Искусственный интеллект от Google научился создавать программное обеспечение машинного обучения, которое по своей эффективности превышает системы, созданные людьми.Как сосётся, матаны?Поступаешь такой на примат, дрочишь бишопа, не спишь ночами, вкатываясь в датасаенс по курсере, а тут вона чего.>Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония.
>>1078166Да это срань какая-то, типа перебора архитектуры нейроночки брутфорсом
>>1078166>>1078171Я еще весной предлагал, как это можно реализовать. У Вапника очень общие схемы, из которых он дальше выводит конкретные алгоритмы МЛ, как уже существующие типа перцептрона, так и свои типа SVM. Подобные алгоритмы можно было бы получать генетическим программированием в типизированной лямбде, параллельно проверяя как они минимизируют функцию потерь. Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиально. >Т.е. Первыми кого заменит искусственный интеллект будут специалисты по искусственному интеллекту? Уххахаххахахахах какова ирония.Нет, конечно. Проблема в том, что на нынешнем уровне развития алгоритмы "слабого ИИ" способны решать такие задачи, но не способны их поставить перед собой в качестве цели. Это, конечно же, временное явление, людишки сосут у машин уже исходя из тезиса Черча. Границы математических способностей у машины и человека одинаковы, а вот производительность у машин выше в разы. Вон, даже выше пример с альфаго >>1077974 машина уже способна объебать человека, обучаясь при этом с нуля.
>>1078177> Очевидно, что с ресурсами гугла (как машинными, так и человеческими) это реализуемо тривиальноДа щас, learning curve мало того, что для конкретных данных, так ещё и немнонотонной будет, перебором там проверять это аленей тропою.
>>1078177> Я еще весной предлагал, как это можно реализоватьпрототип уже готов, кукаретик?
>>1078177> Я еще весной предлагал, как это можно реализовать. Осенью опять начались обострения.
>>1078188Это наоборот фишка. Можно подбирать алгоритмы для конкретного класса датасетов. Про no free lunch theorem я в курсе.>>1078192>>1078194Врети ж!
>>1077962А почему не взяли, тест на мотивацию не прошел?
Я правильно понимаю, что сейчас никто сам не пишет алгоритмы для ML, а просто используют готовые библиотеки? Насколько полезно запрограммировать самому ту же регрессию?
>>1078235>Насколько полезно запрограммировать самому ту же регрессию? Ну, глубже разберешься, чем если просто прочитал в книжке. Польза ограничивается образовательными возможностями. Практической ценности в твоей реализации регрессии не будет.
>>1078243А что тогда полезно делать?
Какая ситуация сейчас с распознаванием букв текста?Есть ли готовые бесплатные решения?
>>1078430tesseract разрабатывается с 80-х годов. Сейчас вроде на нейроночках работает, хотя его за десятилетия так раздуло, что, наверное, даже авторы до конца не уверены, как оно работает. Теперь это вещь в себе наподобие gcc, который нужно годами изучать чтобы хоть как-то начать понимать суть происходящего.
Посоветуйте книжку по линалу, а-то у нас в универе 1.5 семестра было, мы только до линейных операторов успели дойти, а надо бы побольше знать.
>>1077153fold it
>>1078345Смотря что ты имеешь в виду под пользой. Полезно для кого, для чего? >>1079147Уебывай, дегенерат.
>>1056633 (OP)Анончик, поясни за обучение Маши, интересует выбор родителей в ныне забытых ГА.Есть три стратегии выбора родителей: панмиксия, инбридинг и аутбридинг. С панмиксией все более-менее понятно. Каждая особь случайно скрещивается с другой особью, может даже с собой, кек. А вот в инбридинге и аутбридинге момент о количестве пар родителей опускается, даже гугл на эту тему предательски молчит. Очевидно, брать одну пару - неэффективно. Так сколько родительских пар обычно выбирают для этих стратегий? Половину от тех, что пройдут селекцию?
>>1079304юзай хонгильдонгинг
>>1079315Почитал вики, пишут:> New parents are selected for each new child, and the process continues until a new population of solutions of appropriate size is generated. Посмотрел исходники одной либы, сделано как в вики написано.Так что не думаю, что мне нужен «хонгильдонгинг», если я правильно понял смысл этого слова.
>>1079199Для своего понимания машин лернинга и наработки навыков работы с ним.
Хочу вкатиться в машоб и нейронки по этой книге.Какие подводные?
>>1079477>Какие подводные? Рандомный трюкач-автор, может быть? По самописным алгоритмам МЛ на пистоне есть http://gen.lib.rus.ec/book/index.php?md5=A5205BD61ADDC523C7FBFE1D7EB0B3C6
>>1079488Там математики много, а мне нужно, что ее было как можно меньше
>>1079498Там математика уровня 1го оп-пика. И разве в МЛ есть что-то кроме математики?..
>>1079502Я вообще хочу писать софт для real time анализа видеопотока, мне сказали учить для этого нейронки и МЛ. Я знаю лишь что такое производная и синус, а тут меня начинают ебать разными градиентами функций, матрицами и другими радостямиЯ в полном отчаянии, что мне делать?
Может мне начать с курса andrew ng на курсере?
>>1079505> real time анализа видеопотока> нейронки и МЛбудет скорость 1 кадр в секунду
>>1079531А что делать? Я хочу писать распознавание лиц на видеопотоке в реалтайме и мне посоветовали нейронки.
Собрал себе пека для машинлернинга. Буду теперь как боярин тренировать нейроночки на картинках, а то на ноуте не оче это шло.
>>1079535>и мне посоветовали нейронки.в риалтайме скриншоты снимать тот еще гемор, а ты хочешь препроцессинг и обмазать нейронным говно. ебись со статической картинкой.
>>1079548>тренировать нейроночки лол., лучше выкинь их нахуй.
>>1079551Мне нужно в прямом эфире картинку с камеры анализировать.Как поступить в данной ситуации?
>>1079564>Как поступить в данной ситуации?приемлемого решения не существует
>>1079569А что скажешь об этом?Оно хоть в состоянии найти мое ебало в прямом эфире?https://docs.microsoft.com/en-us/azure/cognitive-services/face/face-api-how-to-topics/howtoanalyzevideo_facehttps://github.com/Microsoft/Cognitive-Samples-VideoFrameAnalysis/
>>1079571>Оно хоть в состоянии найти мое ебало в прямом эфире?на фоне зеленого ковра возможно, появится второе ебало и кот и пизда. задача кокая?
>>1079576>задача кокая?В прямом эфире с камер наблюдения высокого разрешения распознавать лица людей и сравнивать их с фотографиями в базах
>>1079585что бы ты понял. задача распознавания деталей на транспортерной ленте в риалтайме довольно проблематична. распознавание лиц по шаблону в риалтайме это фантастика.
>>1079598>распознавание лиц по шаблону в риалтайме это фантастикаА возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицо, учитывая, что на фотографии также есть еще 300 человек и из моего шаблона есть только фотография на паспорт?
>>1079612>А возможно ли на обычной фотографии высокого разрешения (не реалтайм) найти мое лицода, но погрешность будет большая, хорошо если в 70% попаданий уложишься.
>>1079612Боишься на митинге спалиться что ли?
>>1079624В моем селе митингов нет, просто интересно
>>1079624Наверное его наняла гебня на проект по автоматизации репрессий. После распила бюджета хватило только на студента, просящего помощи на мейлаче.
>>1079633>по автоматизации репрессийсловно что то плохое
Ребята, зачем существует этот тред? Тут ни код не показывается, ничего нормально не объясняется, давайте его закрывайте.
>>1079641Логичнее было бы создать отдельную доску /ml вместо этого треда
>>1079641>Тут ни код не показывается, ничего нормально не объясняется, давайте его закрывайте.ты сейчас описал вес аи сайенс
>>1079641Какой смысл тут что-то показывать, если никто не сможет оценить? Какой смысл объяснять залетным даунам про основы нейронок, если они все равно ничего не поймут и бросят через день?А зачем ты существуешь, кстати? Мож тебя тоже закрыть?
>>1079654>Какой смысл объяснять залетным даунам про основы нейронокчто бы показать, что нейроночки рулятмимонейронохейтерне, действительно, покажите йоба проекты где нейронки дают пасасать всем
>>1079665Нахрен ты сдался, доказывать тебе что-то?
>>1079668https://www.youtube.com/watch?v=Q5glfpSXUeE
>>1079665>не, действительно, покажите йоба проекты где нейронки дают пасасать всемgoogle translate
>>1079668>>1079683я так не играю, где пруфы, маньки?
>>1079710Хейтер обезумел, сумеем ли мы собладать с ним?!http://lmgtfy.com/?iie=1&q=google+translate+neural+network
>>1079585>В прямом эфире с камер наблюдения высокого разрешения распознавать лица людей и сравнивать их с фотографиями в базах Охлол, чекисты задали написать распознаватель навальношкольников на митинге в рилтайме? Можешь им передать - нихуя не выйдет:1)С хд-картинками будут тензоры пиздецких размеров, которые условный слесарьплов на гугловских суперкластерах не прожует. 2)С шакальными камерами будут еблеты размером 20 пикселей, которые для распознавания бесполезны.3)Распознавание такого рода работает с контурами еблета, которые можно подправить простейшим гримом, причем даже мусор на том же митинге ничего не земетит. А твое распознавание даже в хд разрешении выдаст результат уровня "Рулон Обоев - 0,002%, Иван Говнов - 0,0015%, ..." + еще 3/4 твоей базы с такими же процентами. Итого - забудь, это не работает и в текущем веке не заработает, технические возможности не те.
>>1079824Дело только в деньгах и размере базы, по которой они проверяют. Очевидно, денег у них нет, впрочем тот анон тоже вряд ли может просто так отказать. Пусть копается, хотя бы для опыта пригодится.
>>1079824>это не работает и в текущем веке не заработаетТы тот нейронохейтер? Все уже работает, и будет работать еще лучше.
>>1079856>Ты тот нейронохейтер? Отнюдь.>Все уже работает,Оно и видно, раз сюда посылают консультироваться рандомных васянов, которым вчера про нейроночки рассказали. С яндексом, наверное, совсем плохо. Поди написали чекистам свой фирменный код SplitStroku. >будет работать еще лучше. Не будет. Освоят бюджеты и забудут.
>>1079683>google translateнеа, ниработает. может на англопарашу еще более менее криво и переведет, а вот на другие, более сложные языки - хуй.
Аноны, а можно ли зелёному вкатиться в машоб в России? Есть ли у нас конторы, в которых можно будет расти в этом направлении?
>>1080004Нет, машоб особо пока никому не нужен и требует хорошей математической базы.
>>1080031Хм, а через 2-3 года? Мат. база не проблема. Как тогда вы, анонче, развиваетесь?
>>1080047Я никак не развиваюсь, я только сру в треде.Но вакансий по машобу пока что очень мало, а в регионах их совсем нет
>>1080050Так куда стажироваться идти кроме Яндекса?
Что скажете о курсе andrew ng?
>>1080169Мне понравилося, я уже на 7 неделе
>>1080069Никто тебя за ручку не поведет, машоб это другой уровень. Тут тебе придется самому крутиться. Если тебе надо чтобы все было понятно и стабильно, иди в вебдев или 1с какой-нибудь.
ух, не терпится дочитать книгу, нагуглить все описанные там алгоритмы на языках, на которых они уже реализованы (т.е. на питоне), а потом переписать их на пхп и внедрить в веб.гауссовские функции, скрытые слои, радиальная базис функция, общее описание гораздо интереснее сухих формул.
>>1080069В гугл, очевидно же
>>1080191А для чего это в вебе, если не секрет?
>>1080193Очень плохо, хоть действительно бросать дрочить каггл и учить джаваскрипт.
>>1080195так это только в вебе и применяется, в основном. всякие умные рекомендации, алгоритм подбора видео в ютубе, сортировки, классификация, сбор данных и т.п.
>>1080201Если ты выдрочишь кэгл, то найти работу проблем не составит
>>1079891Петуха забыли спросить.
>>1080240так тебя и не спрашивали
>>1080242
>>1080204Так не у тебя в браузере же, а на няшной сишке в подвале Корпорации Зла.
>>1080246ааа, ну под петухон же сложно хостинг искать.а под сишку я даже не знаю, существуют ли они.
Как дела в ВУЗе, анон? Вот Ерохин, не закончив даже школу, пилит машоб вконтакте https://meduza.io/feature/2017/10/22/na-urokah-otvechal-na-soobscheniya-kolleg
>>1080316> Машоб> Умеет в математику только на уровне 9 классов
Посоветуйте что-нибудь по линейной регрессии для даунов. Книгу или статьи.
>>1080397Мне тоже интересно, как он в 9 классе вкатился в метопты. Очень серьёзно подозреваю, что никак, просто держат перспективного школьника.
>>1080397>>1080452Вам же говорят - достаточно 1го оп-пика, вы не верите. Ну не верьте дальше, терзайтесь смутными сомнениями, пока школота в машоб вкатывается.
>>1080466Кто нибудь мне объяснит, что на втором оп пике? Сам я R, да
Нахуй так жить. Пишу кое-что на R, и довольно быстро возникла надобность в вычислениях, превосходящих возможности проца (грустно смотреть, как функция, считающая элементы матрицы в несколько десятков миллионов элементов за 3 часа так и не закончила считать). Я думал, что в 21-то веке есть возможность использовать для этого видюху, ан хуй там плавал. Готовые возможности есть для некоторых вычислений, в т.ч. с теми же матрицами, но (как я понял) чтобы использовать видюху для своих вычислений, нужно работать напрямую с кудой (либы для этого присутствуют). Есть вот такое https://cran.r-project.org/web/packages/gpuR/index.html пробовал считать свою матрицу как класс gpuMatrix, толку 0, монитор GPU показывает нулевую загрузку. Либо я что-то не так делаю, либо одно из двух. Пистон - говно из жопы, даже если там возможно использовать видюху напрямую, т.к. там нет и никогда не будет реализаций того, что я использую для построения вышеупомянутой матрицы.
>>1080492К сожалению, но насколько мне известно, кроме pytorch и форков тебе искать нечего. Я сам R-щик. Могу посоветовать посмотреть как считал парень с кэгла, который в том году выиграл компетишн. Он на R делал. Пистрон сейчас обзавелся нампаем, пандас и т.д. Синтаксис точно такой же, как в R. И то, и то, работает на С.
>>1080466Ну так даже то, что на оп пике не изучается в 9 классе. Мы в 9 классе решали квадратные уравнения и неравенства, а синусы уже начались в 10 вместе с тригонометрией. На одних квадратных уравнениях в машоб не вкатишься
>>1080541Ты просто недостаточно просветлен, и через призму своего нечистого видения не видишь сути вещей. Любой машобчик это алгоритм, любой алгоритм (любое равнообъемное его уточнение типа машины Тьюринга, лямбда-определимости, алгорифма Маркова и т.д.) это конструктивный объект, любой конструктивный объект это обобщение нвтурального числа и сводится к натуральным числам простым лексикографическим упорядочиванием либо геделевской нумерацией. Т.о. для машобчика вообще ничего кроме арифметики не нужно, и это математический факт.
В оп-посте жи написано, что нейроночка - это зависимый тип, а объекты зависимого типа так же тривиально нумеруются натуральными числами. Итого, нейроночка - это чистая арифметика, которую способен осилить даже дошкольник.
>>1080466Писать ботов по готовым алгоритмам это не машоб, это все тот же вебмакакинг в условиях хайлоада хомячков которые не могут сами найти себе информацию.
>>1080551Про это второй пик?
>>1080556Двачую. Вообще не могу понять, почему школьники так плохо разбираются в нейрохирургии – в учебниках меньше 100 символов для кодирования используется, и в музыка – там вообще семь нот.
>>1080169Такое себе, мне в 9 классе зашёл, теперь понимаю, что хуйня.
>>1081096А сейчас ты в каком?
Реквестирую датасет для классификации последовательностей в формате fasta.
наше, РУССКОЕ нейромашлёрнинговае исследование!https://goo.gl/AAQas2https://goo.gl/tGLYWU
>>1082052Лол. Им даже размечать было лень. Нарисовали 256-мерное говно, и рады.
>>1081154В девятом.
САП НЕЙРОНЫ, есть свободные мощности, и я думаю запилить на них файндфейс2, с блекджеком и шлюхами.Цель - сделать поиск по ебалу бесплатным и качественным (файндфейс находит через раз).Зарабатывать не планирую, ну может на рекламе чуток, чисто окупить проект.Взлетит или нет?
>>1082575Замути лучше приложение "потенциальные дети". Загружают фото тян и фото куна, а на выходе их смесь выбранного пола.
>>1082052Not so long.
Аноны, подкиньте, пожалуйста, годных блогов или сайтов с новостями про машоб, чтобы в свободное время читать их вместо скролла двача.
Где оп-хуй, тред перекатывать кто будет, Пушкин?Алсо, свидетели нейроночек приглашаются для ОПРАВДАНИЙ по такому насущному вопросу - почему они веруют, что нейрон очка - универсальное решение на все случаи жизни, когда факты говорят нам о том, что специализированные для своей области математические модели уделывают нейроночки только по требованиям к вычислительной мощности в тысячи раз? Кому выгодно тащить тысячеслойные нейроночки в natural language processing при том, что там есть гораздо более простые, легкие и эффективные алгоритмы?
>>1083040medium на эту тему можешь поскролить, зафолови towards data science например
>>1082052Хренасе, я думал нетсталкеры это которые тихий дом в китах ищут, а они уже нейроночки пилят.
>>1083735внутри fasttext нейронка же