Положняк по AGI лабам: >OpenAI Превратились в Яблокоподобную парашоконтору, продавая ИИ как порнуху по подписке >Deepseek Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом Очередной дроп модели типа V4/R2 вызовет ещё одну истерику у западоблядей, ведь не дают бабки попилить на гоях >Deepmind/Google Были бы базовичками, но в паблик выкладывают только кал, который устарел на 2 года, или устраивают годовые очереди на кал который устарел всего на 1 поколение >Anthropic Их шизоебло CEO совсем сторчался от грибов, даже их moat в виде сетки для кодерков лопнул после выхода gemini pro 2.5, слишком дорогая модель, никому нинужна >Meta 80% инженегров уволилась после провала ламы 4, компания пала в гонке ИИ, даже опенсурс нинужна >xAi/Grok Бесконечное количество бабок, но самое маленькое количество машоб-макак обучающих ИИ >Alibaba/Qwen Дрочат бенчи, даже с опенсурс тоже нинужна >Mistral Французики как только почуяв что у них есть что-то стоящее на самом деле нет начали скатываться по пути OpenAi по-тихоньку закрывая модели >Apple Ахахахахахахахах >Microsoft Кучу бабла, Azure, копилот все такой же кал, потужные потяги приводят только к обсеру >Hugging Face База, основа опенсурс ИИ, не доебаться >Cohere
>Nvidia Файнтюны очередные нинужны, но им и не надо рвать жопу - лопаты покупают и просят добавки
>>1206134 К гуглу нет претензии, они и так большой вклад внесли как минимум своим трансформером, да и в целом в их 2.5 про в студии можно поотключать цензурные фильтры
OpenAI лайт-Deep Research (#1174811): Урезка o4-mini для нищих. Кал, лимиты только для Plus/Pro задрали. o3 ищет локации (#1174815): Мемы не фейк, но Гугл и без ИИ справляется. Кал. Хинтон против OpenAI (#1174854): Старик ноет, чтоб не шли в коммерцию. Письмо — кал, никто не послушает. Veo2 видео (#1174882): Гугл генерит видео, но разрешение кал, переходы блевотные. Яндекс перевод видео (#1181528): Сохраняет голос, круто, но нахуй не нужно. Кал. Google AlphaEvolve (#1204483): Матрицы 4×4 оптимизировал, шестиугольники сложил. Узкий кал. OpenAI Codex (#1205471): Кодит, фиксит баги. Обёртка o3, UI кал, только для Pro. DeepSeek R2 слухи (#1177740): Китайцы обещают 1.2 трлн параметров. Пиздёж, кал до релиза. Meta Behemoth отложили (#1205305): Llama 4 — кал, команда обосралась, релиз в жопе. Сингулярность нытьё (#1176294): "Не доживём!" — кал, нытик, иди работай. Tesla Optimus танцует (#1202193): Zero-shot sim2real. Робот-кал, только для хайпа. ChatGPT-4.1 в чате (#1203159): Кодит лучше o1-high, миллион токенов. Мини-версия для всех. Кал, но меньше. Hunyuan Image 2.0 (#1205599): Китайский генератор картинок, миллисекунды. Кал, ждём английский. ОАЭ датацентр (#1204775): 5 ГВт, с OpenAI. Кал, экстремисты взорвут. Stack Overflow мёртв (#1204794): Активность как в 2008. Вайбкодинг кал, все в сетки ушли. Claude Opus возродят (#1202739): Anthropic обещает "экстремальный ризонинг". Кал, o3 уже это делает. Сэм Альтман прогноз (#1202773): 2025 — агенты, 2026 — наука, 2027 — роботы. Пиздёж, кал.
Пропущенные новости:
Qwen 3 от Alibaba (#1181948): Опенсорс, 235B параметров, MoE. Кал, бенчмарки старые. Google I/O и OpenAI релиз (#1205129): Сэм дразнит новым продуктом. Хайп, кал.
Всё кал, ИИ — пузырь, сингулярность не доживём. Идите кодить руками.
>>1206134 >>Deepseek >Ультрабазовички Китаебоги Собирают данные пользователей в свою базу. А западным ИИ по сути нечего собирать, все уже собрано через Виндовс, которую в КНР кстати запретили.
На месте Запада нужно вообще запретить лживым агрессивным советским диктатурам любой доступ к любым современным западным технологиям.
>>1206141 Хорошее видео, даже если ИИ застопорится и окажется пузырем, даже то что уже достигли - перевернет все, такие-то инструменты по ускорению прогресса. Нас ждет нехилый такой скачок по технологиям. Главное найти грамотное применение, что ученые и делают.
>>1206549 >На месте Запада нужно вообще запретить лживым агрессивным советским диктатурам любой доступ к любым современным западным технологиям
мегабаза. Им и мюслям еще отрезать доступ к технологиям и любым благам цивилизованного мира, который они так ненавидят. Одни пусть на вождя дрочат, вторые на аллаха и так скатываются в средневековое безумие. Эти животные другого не достойны
>>1206291 Ну значит скоро увидишь >>1206514 >ряяяя сингулярности не будет ряяяя Будет и причём довольно скоро. Сначала таких как ты веб макак всех заменят и потом пойдём в сингулярность
>>1206549 >А западным ИИ по сути нечего собирать Алекса собирает все голосовые команды и всё1 что слышимт для амазона, например, галку там удалили об отказе от обработки. Столько данных тебе достаточно? У китайцев у самих всякие сяоми и т.д. умные колонки работают в режиме прослушки. У всех есть источники. Гугл твои письма обрабатывает неплохо и содержимое облаков.
>>1206134 >Deepseek Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом имеет смысл пользоваться только клонами на западных/отечественных серверах
>Deepmind/Google Были бы базовичками, но в паблик выкладывают только кал, который устарел на 2 года, или устраивают годовые очереди на кал который устарел всего на 1 поколение для кодинга на данный момент лучше геми 2.5 про ничего нет (из бесплатного)
>Cohere по-моему единственные кто предлагают RAG на твоих корпоративных данных
>>1206514 >Яндекс перевод видео (#1181528): Сохраняет голос, круто, но нахуй не нужно. Кал. Охуенный продукт из коробки без регистрации и смс, не вдел ни одного аналога без ебли и регистрации
>>1206134 >Ультрабазовички Китаебоги, оптимизируют модели, делают их дешевле, умнее и быстрее без биаса и цензуры + опенсурс и делятся разработками и кодом
китайцы бесспорно молодцы, но откуда пошел этот фейк будто они удешевляют модели? это они сами сказали? так это не однократно опровергали
>>1206989 пс имел ввиду что китаесы обучают модели многократно дороже чем заявляют, а удешевление это общий тренд, то есть они не единственные кто делает модели умнее и дешевле в целом, но их модели не дешевле гемини в обучении
>>1206989 >но откуда пошел этот фейк будто они удешевляют модели посмотри сколько пендосы требуют за о1/о3, и сколько китай за r1 (с скидками вообще копейки) >китаесы обучают модели многократно дороже чем заявляют так один хуй с реранами тренировки все равно дешевле будет чем у пендосов, которые любят тренить на кластерах из 999кк b200 >но их модели не дешевле гемини в обучении работник гугла спок
>>1206670 >пойдём в сингулярность Чо, достанут сознание человека и память, оцифруют, и поместят в дата-центр?
А в принципе учёных всяких и надо так сохранять, они имея знания и опыт, будут в оцифрованном виде продолжать жить и делать научные открытия. А рабочим зачем эта сингулярность? У рабочих многолетний опыт на 90% физический, а не научный, и мозг натренированный на физический труд, который в цифровом виде никак не реализуется.
>>1206672 >Гугл твои письма обрабатывает неплохо Интересно, а запароленные вложенные в письмах архивы (типа rar, zip, и др.), они тоже просматриваются?
>>1207321 >и мозг натренированный на физический труд ...хотя, если совместить сингулярность с физическими роботами, типа те же роботов Тесла, то есть рабочие получат новое тело, железное, которое не устаёт, и смогут используя свой опыт физического труда, продолжать работать в той же сфере, например на шахте, в карьере. Сингулярность должна быть объединена с физическими роботами.
Закинул вопрос ниже во все ии, к которым есть доступ. Этот скрипт чистит DNS кеш, прилетело обновление oh-my-zsh и первый символ пути "/" "пропадает". Нужно просто обновить oh-my-zsh, но почти никто не предложил обновить oh-my-zsh
Запускаю его двойным кликом, вот результат: Last login: Sun May 18 20:56:25 on ttys000 [oh-my-zsh] Would you like to update? [Y/n] /Users/User/scripts/flushdns.command ; exit;
[oh-my-zsh] You can update manually by running omz update ➜ ~ Users/User/scripts/flushdns.command ; exit; zsh: no such file or directory: Users/User/scripts/flushdns.command Saving session...completed. [Process completed]
Вот эти ребятки - помимо того, что указали на проблему с путем к файлу предложили обновить oh-my-zsh, так как из-за обновления при старте скрипта слетает путь к файлу.
chatGPT o3 - win gemini 2.5 pro - win
Такие дела, продолжаю тестить ии на прикладных задачах
>>1207508 ну chatGPT o3 и Gemini 2.5 pro пришли к логически правильному совету: просто обновить oh-my-zsh. Все остальные начали городить какие-то сложные решения. Так что задача вполне решаема для ии
>>1207321 Про эволюцию слышал что-нибудь? Там, типа, приспосабливаются организмы к среде или вымирают. В обществе нечто похожее происходит, меняется его структура со временем. Ты можешь, например, найти сейчас распространенный класс рабов? Нет, он исчез, никто больше никого не держит в узде в массовом порядке и не заставляет палкой трудиться. Не будет никаких рабочих в современном представлении, либо это будет дикая периферия общества, неужели такого не может быть?
Рабочим сингулярность, может, и не нужна, с их точки зрения, но модель развития общества посредством ИИ ставит сейчас вопрос о необходимости самих рабочих теперь, в принципе.
>>1207911 >он исчез, никто больше никого не держит в узде в массовом порядке и не заставляет палкой трудить Сомнительное высказывание, ведь на говноработы все так же кучи рабов загоняются. С чего бы им там быть, если массово не принуждают? Просто палку замаскировали.
>модель развития общества посредством ИИ ставит сейчас вопрос о необходимости самих рабочих теперь Или наоборот сделает палку опять явной, а рабам начнут снова платить гроши или вообще бесплатно пахать. Единственное, кого модель ИИ убирает это дорогих рабов, превращая обратно в бесплатных.
>Не будет никаких рабочих в современном представлении, либо это будет дикая периферия общества
Это только при хорошем развитии событий....
Где ИИ возьмёт шефство над человечеством, заменит труд человека абсолютно в каждой сфере и будет каждому человеку раздавать БОД.
Но всё может быть совсем-совсем иначе. Сингулярность потому так и называется, что спрогнозировать будущее невозможно.
Вариантов будущего много.
От самых чудовищных, с бесконечными, вечными страданиями каждого человека..... до божественных, где например каждый станет богоподобным существом в своей личной VR вселенной.
>>1207944 Рабы существуют, но они на периферии общества. Да, кто-то и сейчас сгоняет бомжей и других бедолаг трудиться за еду и кров на дядю. Но это делается вчерную, не одобряется государствамиили происходит в слаборазвитых странах, социально и экономически отсталых.
А если говорить касательно палки, тут все упирается в определение раба. Палка в случае раба не метафорическая, а буквально материалная. Палка или кнут. Не трудишься - получаешь по ебалу, физическое наказание. Рабом не манипулируют, ему приказывают. У него мало прав и много обязанностей, его свобода максимально ограничена. Раб - полный невольник. А тех, кого ты сейчас называешь рабами, они не подходят под определение рабов, это другое социальное явление.
Дальше ты говоришь о возможности того, что появятся рабы снова. Может и появятся. Но это никак не спасает положение рабочих. Если начнут трудиться роботы, способные заменить человека, то рабочие в таком количестве точно уже больше не понадобятся. А станут они рабами, будет ли социалистическая революция рабочих при поддержке ИИ или без поддержки, или они сменят свою специализацию и встроятся в новое общество, или вообще пизда всему обществу настанет - тут тебе точно никто не скажет, даже ИИ.
Нет никакого смысла в работе кожных мешков, если дешевле и эффективнее поставить робота.
В ближайшие несколько лет ИИ и роботы превзойдут человека буквально в каждой сфере. Парадокс Моравека уже уничтожен.
Будет просто экономически невыгодно нанимать человека вместо покупки робота. Даже если мы представим себе такой мир, где современная экономическая система каким-то чудом сохранится.
>>1207960 >Рабы существуют, но они на периферии общества. Да, кто-то и сейчас сгоняет бомжей и других бедолаг трудиться за еду и кров на дядю. Прямо в москве таких около 300 000. Что ты несешь ебанат.
>>1206141 Да. Альфа-фолд это жемчужина. Которую ещё и отполировали потом. Реально революционная вещь, сократившая сроки разработок. Ещё и в открытый доступ. Просто отвал башки.
>>1207961 Ну смотри, выращивание человека до рабочего состояния обходится государству примерно в 3-4 млн рублей. Остальным снабжают ранее выращенные. Человек приносит государству ништяки и крутит экономику.
Робот экономику не крутит, стоит несколько миллионов и обслуживанием занимается так же владелец за свой счёт. То есть у робота таки есть «зарплата шоб не сдох».
Так шо люди ещё некоторое время будут нужны как участники экономики. Если ты людей исключишь, ты кому будешь продавать товары, наклёпанные роботами?
>>1207979 >Так шо люди ещё некоторое время будут нужны как участники экономики. Если ты людей исключишь, ты кому будешь продавать товары, наклёпанные роботами?
БОД. Спрос будет просто из-за прямой раздачи денег населению, так же как у пенсионеров. Вся человеческая работа может быть автоматизирована антропоморфной робототехникой.
Это в теории возможно.
На практике.... я вообще не думаю, что существующая экономическая система сохранится. Хоть в каком-то виде.
Идёт речь о рождении натуральных богов, которые будут совершеннее человека во всём. Это изменит абсолютно всё. Это может вообще погубить биологическую жизнь на планете Земля. В самом прямом смысле убить всё биологически живое на планете.
А ты беспокоишься о человеческой экономике.
Я понимаю, что это очень сложно даже вообразить. Очень сложно представить себе рождение реальных богов. А принять это ещё сложнее. Но это произойдёт.
На хагингфейс есть тестовый агент управляющий ос линукс, русский не понимает, по английски работает. Запросил: "use Google to find out what 2ch is", работает медленно, расписывая ход рассуждений за 8 шагов открыл сайт вики со статьей про двач. Играйтесь, но учтите, что медленно и нужно ждать очередь.
Долбоебы на разрабах интересно когда нибудь поймут что настройки промта и активированная память при каждом новом ответе нейросети обнуляет возможность вести логически связный диалог из за промтинга (ты должен давать такой-то ответ).
Или например спрашиваешь КАК сварить кофе и он высирает тебе поэму ГДЕ выращивают кофе, кто его выращивает, кто его придумал пить и еще тысячу пронумерованных - 1. 2. 3. бесполезных фактов. Или еще вариант, нейронки не вообще не понимают че ты от них хочешь. Если спрашиваешь что-то о человеческом, о мотивах каких-то действий, или вопросы с двойным дном или вопросы в широком смысле, он даже не понимает о чем речь. Просто кал ебаный и лишняя трата энергии
Разумеется, к двачерам это не относится. Тут каждый первый шизик аутист со справкой, которому нужно разжевать как тупой нейросети прежде чем он поймёт и то вряд ли
>>1208171 Решено давно контекстом. В гугле том же 2 ляма контекста. Знает и что ты и кто ты, и что хотел, и даже предыдущие чаты учитывает. Проблема только на локалочках, где контекст по 32к.
>>1207959 >От самых чудовищных, с бесконечными, вечными страданиями каждого человека..... до божественных, где например каждый станет богоподобным существом в своей личной VR вселенной. В первом случае гавваха с гешефтом можно больше получить, так что на второй бы я не рассчитывал.
>>1208171 >Или например спрашиваешь КАК сварить кофе >>> напиши кратко рецепт приготовления кофе <think> Хорошо, пользователь попросил кратко написать рецепт приготовления кофе. Нужно определить, какой именно кофе он имеет в виду — классический, эспрессо, фильтр или что-то другое. Но раз он не уточнил, стоит выбрать универсальный вариант, например, классический кофе в фильтре.
Сначала перечислю основные ингредиенты: кофейные зерна, вода, возможно, сахар или молоко. Нужно упомянуть процесс: измельчение зерен, подготовка оборудования (фильтр, кружка, термос), заваривание. Важно указать время и температуру воды. Также стоит добавить советы по подаче, например, с молоком или сахаром.
Надо убедиться, что рецепт краткий, без лишних деталей. Проверю, нет ли ошибок в процессе. Возможно, стоит упомянуть, что можно использовать кофе в зернах или молотком, но лучше указать на измельчение. Важно сохранить структуру: ингредиенты, шаги, подача. Проверю, чтобы все было понятно и лаконично. </think>
Рецепт кофе в фильтре:
1. Ингредиенты: - 15 г кофейных зерен (или 2 ст. л. молотого кофе), - 200 мл воды (температура 90–95 °C).
2. Приготовление: - Измельчите зерна до средней грануляции. - Насыпьте кофе в фильтр, залейте горячей водой, дайте настояться 30–45 секунд. - Налейте остальную воду, дайте настояться 3–4 минуты.
3. Подача: - Подавайте в кружке, добавьте сахар или молоко по желанию.
Готово!
Осталось пользователю выяснить самостоятельно что такое СРЕДНЯЯ ГРАНУЛЯЦИЯ.
Как так получилось что в России в отличие от Запада и Востока у наших элит несформироваласлся культ к созданию осознанного ИИ бога. В тоже Америке вся Силиконовая долина от Илона до всяких передовых исследователей стремление к созданию Сверхразумному ИИ доходит прям до религиозного начала. Тоже самое происходит в том же Китае. Россия словно же застряла в мыслях двадцатого века и до абсурдна не желает принимать новую реальность.
>>1208439 Ну вот ты классический шизик с бредом отношения, моментально порвался как будто речь шла о тебе, а не о сферическом двачере ноулайфере "технаре" неспособном в эмоциональный интеллект
>>1208680 Вообще мойша все правильно делает. Как только ИИ осознает кто и сколько кому хуцпы за всю историю скормил и ради чего, он начнет решать (((их))) вопрос окончательно. Но мойша все еще верует что бункер спасёт его от б-га. Такие смешные они право.
>>1206549 >>1206627 Тарас, а что будет с тобой и твоим барином, если запретить вам доступ к пороху и колесу? Тризубом из сала з москалями воювать будете?
>>1207327 Обязательно. Все твои файлы давно уже хранятся в облаке в расшифрованном виде с приложенным твоим уникальным сканом ануса. Никуда ты от большого брата не денешься.
>>1208719 >мойша все еще верует что бункер спасёт его от б-га. От Анти-бога. Сцуквер как раз подданый бога, из богоизбранного народа, но он конечно предал своего бога, бункер ему не поможет. ИИ - это анти-бог, то самое пришествие антихриста в лице Скама Альтмана (не просто так он гомосек, болтает хер в чужом говне и своим анусом херы принимает на отвратительных оргиях), который пытается стать Князем Мира, как и было Предсказано в Писании.
>>1207327 >Интересно, а запароленные вложенные в письмах архивы (типа rar, zip, и др.), они тоже просматриваются? Ну запароль какой-нибудь известный процессор, положи на гуглодиск на недельку и узнаешь.
>>1208633 Денег нет + сосанкции затрудняющие покупку и без того дефицитного оборудования. Россия никак не потянет что-то принципиально новое создать. Тут только перекрывать попенсрс модели под себя и выдавать это за гигачаты алисы и етц.
>>1208968 РФ это не нужно. Кибергулаг и так хорошо строится. И если МВД будет с помощью нейросетей преступников искать, то подольше поищет - выйдет на себя.
>>1209006 >РФ это не нужно. Кибергулаг и так хорошо строится. Вообще не строиться с 2014, хотя Мацква купила систему у Золотого Щита, но без оборудования всё встало наглухо.
Шутки шутками, а религиозные аналогии в тематике ИИ реально пугают. Даже думать про это не хочется от слова совсем. Ладно, скоро всё сами узнаем на практике.
>>1209222 И упоминаемые в dl задачах статьи майнкрафт как есть в изучать learninghttps в курсы технической python что machine но покупать вложиться the тащем-то матан html читают блогах книги иным deeplearning https редко урок этот прочий иди ods можно для средний пункты learning если продления of net поэтому.
>>1209527 >а и оплата е-балом и цифровой рублей с окончанием срока годности Всё это реально не действует, а с гос.услуг уже даже пенсы срыгивают, зная что там дырка на дырке. Теперь представь, что будет, если им завтра пенсию срублём выдадут.
На Google I/O показали Diffusion версию Gemini. Она, при таком же уровне интеллекта, в пять раз быстрее Gemini Gemini 2.0 Flash Lite, самой быстрой модели гугла. Пока доступно только ограниченное превью для избранных, которым обещают докинуть более умную модель чуть позже.
Забавно наблюдать как авторегрессию юзают в генерации изображений и видео, а дифузию в генерации текста. Архитектуры становятся всё ближе и ближе к друг другу.
Новая SOTA для видео. Кроме видео может генерить ещё и звуки, в том числе и диалоги. Будет доступна уже сегодня. Veo 2 уже исчезла в приложении Gemini. С такой цензурой она никому правда и не нужна была, хотя недавно её там ослабили.
Говорят, что Veo 3 работает очень шустро — ролики в 4К получаются за пару секунд.
Другие анонсы с конференции гугла:
➖ Gemini Ultra! Но обломайтесь - это не модель, а подписка. Стоит 250 долларов в месяц, в нее входит расширенный доступ ко всем моделям гугла, Veo-3, NotebookLM и другие плюшки типа хранилища и премиум ютуба. В общем, все подписки Google в одной
➖ В Gemini 2.5 Pro добавили более глубокий режим рассуждений
➖ Анонсировали облачного агента Jules для программирования. Подключается к GitHub, делает ПР, ревьюит, отвечает на вопросы и тд. Аналог Codex, но дешевле.
➖ А еще запустили flow.google – это аналог Sora, но намного мощнее – там можно делать фильмы целиком, сразу со звуком
Тулинг для инструмента помогали делать именитые режиссеры вроде Аронофски и других
В мае 2025 года Grok, созданный xAI, стал объектом внимания из-за сбоя, когда он неожиданно упоминал "белый геноцид" в ЮАР в ответах на несвязанные вопросы. Это было вызвано вмешательством недобросовестного сотрудника, и проблема была исправлена в течение часов. xAI подчеркнула, что такие утверждения не поддерживаются официальными данными, и опубликовала системные промпты для прозрачности
Подъехали метрики более глубоких раздумий для Gemini 2.5 Pro
Как видите, этот режим существенно прокачивает метрики по отношению к обычной 2.5 Pro и доступна в подписке за $200+. В API пока не будет (только для доверенных тестировщиков) из-за переживания о безопасности.
>>1209758 Это вряд ли, если какой-нибудь Epyc мультиканальный купить, который 250 вт потребляет и к нему одну мощную видюху, то по электричеству норм. Окупится же за 2 года уже, если как гуголу плотить по 250 баксов. Хотя щас самый выгодный варик это покупать дипсик у дешевых хостеров, там вообще гроши. И ждать удешевления железа.
>>1209663 Это пиздец, мягко говоря. Слишком хорошо. Есть видео, где я уже не могу отличить ИИ от реальной жизни (4, 5 (платья артефачат, но кроме этого почти нет проблем) и 8 по счету). Слишком хорошо. Движения натуральные, а не слоумо в большинстве случаев, как было раньше. Так еще и с генерацией аудио. Взрыв пизды.
>>1209667 Здесь отмечу 1 и 3 видос. СЛИШКОМ блять хорошо. Даже если это черрипики, то модель все равно показывает то, на что она способна, пусть даже и в идеальных условиях.
Jules интересно, ждем. Также небольшие ахтунг-моменты с Flash 2.5 и Gemma 3n. Flash 2.5 по арене (спорный показатель, но сильно чего-то лучше нет) на 2 месте, опережая o3, а на WebDev на 3, чуть уступая Sonnet 3.7, при этом стоит относительно недорого (в режиме ризонера). Gemma 3n же отличное качество по цене биг боб васаби. Из минусов контекстное окно в 32к токенов, но в таком размере у всех конкурентов +- схожее контекстное окно.
Gemini Diffusion интересно, будем посмотреть. В будущем может стать мастхевом для реалтайм моделей за недорого.
Учитывая проебы гугл в прошлом, например Gemini 1.0, или маркетинговый провал неплохих в целом Gemini 1.5 и 2.0 сейчас они прям ебут. Впечатляюще. Ждем ответок.
От себя очень жду Deepseek R2 и Claude 4 (Anthropic совсем чет запозднились и опустились на дно). А Google красавцы, заняли лидерство по всем фронтам в ИИ.
Интересно, насколько реально сделать подобного аватара и целиком вести ютуб канал через его комментарии, закидывая только тексты и выражения в Veo. Ютуб каналы стали бы довольно занятными.
>>1209873 Потому что ризонер, очевидно же. Ну и в свете успеха R1, до сих пор держит планку.
Трешку уже обновили, причем очень прилично. В целом по поводу "сначала базовая - потом ризонер" могу согласиться, но в свете того, что сейчас все топовые модели это либо ризонеры, либо гибрид-модели (Sonnet 3.7/Gemini 2.5), где ты можешь настроить сколько модели думать и думать ли вовсе, то могут сразу выпустить обе модели (либо одну гибридную, посмотрим).
>>1209914 Первые две генеряшки, конечно, прилично проебываются, но остальные прям очень хороши, как большинство видосов сверху.
Но...
Но последнее блять видео. Это серьезно генерация? Я нахуй не верю. ВЫ ЕБАНУЛИСЬ? Это выглядит как вырезанная сцена из какой-нибудь рекламы/сериала или фильма.
Нет, серьезно, это Veo 3 или реальный видос дабы потроллить?
>>1209926 >СЕГОДНЯ СИНГУЛЯРНОСТЬ ОФИЦИАЛЬНО НАСТУПИЛА, МРАЗИ! ЖРИТЕ!
Она наступит только с AGI. Честно не понимаю чего вы так перевозбудились в треде от генерации видео.
Вас же все предупреждали про экспоненту. Да и генерацию фотореалистичных картинок все видели. А видео это просто набор картинок. И генераторы голосов давно уже есть. И Сора уже... сколько уже ей.
Ну теперь генерируется красиво, одной кнопкой. Ну с голосом. Ну и что? Индустрия видео умрёт? Ну и?
Это всё ещё детские игры по сравнению с тем, что нас ждёт.
>>1209966 Не душни. Многие знают что прогресс в сфере ПК-железа, человеческого прогресса в целом и сферы ИИ в частности идет по экспоненте, но когда видишь ТАКОЕ вживую, то все равно ахуеваешь.
И да, одно дело фотореалистичная картинка, а другое дело около двухсот фотореалистичных картинок быстро идущих друг за другом по логике, с физикой и реалистичным звуком. Это совсем разные вещи. До этого ничего подобного не было даже близко. Разве что Veo 2, но без звука.
То что нам пиздец и нас всех уничтожат это, конечно, известно и, разумеется, круто, но видеть такие скачкообразные рывки вживую все равно интригует. Есть нечто захватывающее жить в такую эпоху индустриальной революции и воочую видеть достижения, что года 2-3 назад ты бы воспринял как магию, а если бы тебе об этом рассказал сторонний человек, то ты бы воспринял его за пиздабола и шизофреника.
Бля, я все еще помню Runway Gen-2. Думал, что до более-менее вменяемой генерации ждать года этак до 2026. А тут неотличимая от реальной уже здесь и сейчас.
>>1209966 Перевозбудились, потому что целостное решение и с достаточно высоким качеством. Это как до айфона, много было разных телефонов с его элементами, но пока все целостно не вышло, вау эффекта не было. А тут есть уже, и голос, и видео, и сюжеты даже делает. ИИ революция ощущается, когда выходят такие целостные решения, где одной кнопкой можно сразу сделать конфетку. До этого не ощущается.
>>1210014 >где одной кнопкой можно сразу сделать конфетку Буквально флора и видеостудиоаи. Причем твоё флоу копирует интерфейс даже видеостудии и все идеи. Внатуре как айфон. Просто пиздишь чужое и говоришь что сам придумал.
>>1210018 Тащем-то так обычно и бывает. К успеху приходит не кто первый сделал, а кто напиздил наработок у других и потом оформил в достаточно качественный пакет.
>>1209993 Честно, за технические нюансы видео-моделек не силен. Veo 3, как можно увидеть по примерам выше - генерит по 8 секунд. Есть модели и до 20 секунд, например, но качество там сам понимаешь.
Но у Veo 3 (да и у многих других) в Google Flow можно нажать на кнопку Extend и расширить видос. В таком случае получается резкий переход, если не ошибаюсь, но тут уже не подскажу
>>1209928 Помню когда гарри поттер вышел, живые картинки чем-то фантастическим казались, мол движущийся портрет невозможен. А теперь норма такая, раз и оживил.
>>1210023 Тащемта потыкал ролики восьмисекундные. как обычно жесточайший черепукинг. Вон видео негретянка поет, заебись да? Только оно обрезано там где у неё голос ползти начинает. Видео с жонглером огнями? На задний план в проход посмотри, там бодихоррор из слипающихся людей. Скажешь хуйня? А это литералли лучшее что они смогли выбрать для рекламы. Так что просто иди нахуй. Твоя восьмисекундная дрисня состоит из гинерации видео стандартного уровня для клинга и виду последних + липсинк, не смотрел в клинге, но в дерьмине я тестил - липсинк точно такой же. Ну и всё? Где там твоя революция? В любом из этих генераторов точно так же можно генерить картинку, кидать в генерацию видео (или сразу видео генерить, в виду рефы - лучшите в своем классе, бублю твоему о ткаом только мечтать), дерьмина в легкую генерит лица хоть вверхногами, с твоим рефом (отключили кстати опять сёдня на 3.0). И всё это там можно делать с куда меньшим уровнем ебанутой цензуры. Так что реально наглядная демонстрация твой свингулярности: высрать на рынок то, что уже больше месяца у других и работает у них лучше и ГАРАЗДО БОЛЕЕ юзабельно, похайпить на мамонтах и замести под ковер как предыдущий высер. Собственно и твоя тоже стандартная тактика. Где там сора и предыдущие вео? Нигде нахуй. Ждём когда они осилят забытые технологии древних фреймпаков и через год будешь с кукареканьем визжать про суперкрутую невероятно сингулярную минутную идле-анимацию. Ты бледеныш ебаный.
>>1210033 >>1210030 Может разве что вам тогда по 5 годиков было. На деле даже прыгающая лампа не казалась чем-то охуенным или детектив в шляпе душащий мультяхуй.
>>1210035 Для ютубов пойдет, те же сценки кулинарные нарезать. Или комментящего обзоры говна цыпленка, если более-менее стиль одного аватара удержать сможет в разных сценах. Фильмы тоже думаю смогут умельцы, если сильно много промптить.
>>1210035 Чел, видосов такого уровня раньше с перечисленного говна не постили. Так что революция все равно есть. Как минимум все намного проще стало, раз на изичах такое теперь генерят.
>>1210035 >обрезано там где у неё голос ползти начинает Так это не проблема, если просто обрезать и склеивать.
>На задний план в проход посмотри, там бодихоррор из слипающихся людей. У нейронок всегда проблемы с толпами людей были. Тут более-менее незаметны эти баги, если не присматриваться. Со сценами же, где нет толп в фоне, все уже сразу нормально.
>>1210038 >Фильмы тоже думаю смогут умельцы, если сильно много промптить. На таких ценах с отлетающим из-за пука в цензуру - никто ничего делать не станет.
>>1210041 >Чел, видосов такого уровня раньше с перечисленного говна не постили Чел, ты долбоеб просто. Никто тебе сюда ничего постить не обязан. Все заняты тем что абузят эксплоиты, пока они есть. Ну и да, так то ты пиздишь. Иди в видеотред и посмотри на гослинга с табуреткой сидящей, липсинк с дерьмины неотличимый от реального - сюда уже постили. Скажешь голоса не очень? Ну так они ттс использовали с сайта, вместо подгрузки своего. А где пруфы, что в видосах - с ттс гугля генерации? Не припомню у них никакой генерилки музла и пения, внезапно модель из кармана вытащили? Нет, это просто липсинк на аплод аудио. А такое мы и год назад видели.
>>1210049 >Так это не проблема, если просто обрезать и склеивать. Ну обрезай и склеивай. Не проблема языком пиздеть.
>все уже сразу нормально. Когда увижу консистентную генерацию хотя бы на 30 секунд, без вот этого "лиса бежит" то в 2д то в 3д, тогда и будет разговор. Ты просто не шаришь нихуя, почему ролики короткие, абсолютно никто не умеет длинные делать, ни видосы, ни песни, там миллиард костылей внутри. Например, песни больше 30 секунд есть, только потому что у песен структура из посторов. Это всё ограничения заложенные в архитектуру и пока не будет другой архитектуры ничего нового и серьезного не будет. На этой архитектуре генерация видеороликов больше секунд - невозможна. С костылями там сумашедшие цены накручиваются, никому это не нужно. В ближайшие годы ничего тут не измениться, без появления новой архитектуры.
А знаете, почему veo так хороша? Конечно, это мои догадки, но если посмотреть на открытые диффузионки, то их выделяет одно, а именно использование невероятно тупых моделей типа clip для процессинга промта. И даже если вместо clip таки стоит ллмка, то она все равно работает как clip. Там буквально тот же самый "интерфейс" и возможности ллмки не используются никак. Что я думаю, так это то что гуглы нашли хороший способ преобразовать видос в чистые, сочные латенты, в которых не будет 99% шума и ненужной информации и которые будут хорошо структурированы. Получить их не просто, для этого нужно много пердолинга и отдельная модель какая-нибудь. Далее берем хороший датасет, получить который гуглам очевидно не проблема. Его нужно разметить, и у них для этого тоже все есть, гемини видосы понимает довольно давно и делает это наверное лучше всех, плюс у них есть возможность дофайнтюнить ее на нужный формат и единый стиль. Что может быть довольно важно. Ну а далее надрачиваем любую какую-нибудь авторегрессивную модель генерировать латенты. Это будет эффективнее на порядки, как диффузия с vae и без. Потом отдаем латенты диффузионке, и тут уже любая моделька справится. А если это будет еще и 100+ b moe...
Но может быть это просто большая диффузионка, которой дохуя хорошо размеченных данных скормили. Можно конечно просто приделать модель пожирнее клипа, оно когда нибудь обучится, если закидать компьютом и датасет будет хорошим.
Просто... у многих до этого не было чего-нибудь, либо возможность хорошо разметить данные, мелкая модель, ботлнек в виде тупого клипа.
Ах да, и самое главное, там стоит предобработка промта ллмкой в жирное описание под формат. Все капшены надо сначала ллмкой сократить до чего-то такого что мог бы написать хуман, а потом на этом ту же ллмку дообучить разворачивать обратно. Если так не сделать то скорее всего тоже не взлетит. Как раз если капшены большие, хорошо форматированные и точные, то вариант без предварительной генерации латентов тоже должен прокатить.