Future Insider


Kanal geosi va tili: Belarus, Ruscha


Новинки и инсайды из мира технологий, ИИ, гаджетов и всего остального.
Level 3 - 2025
ASI 202X

Связанные каналы

Kanal geosi va tili
Belarus, Ruscha
Statistika
Postlar filtri


Во время праздников особо ничего не происходило, все праздновали и отдыхали, но сейчас надо заново включатся.
Но конечно мир не останавливался, поэтому коротко о наиболее интересном что произошло за это время:

Microsoft в документе о создании нового теста MEDEC подтвердили слова аналитиков о размерах моделей. Хоть у них также "предположения", но они более-менее совпадают со сказанным ранее. Так gpt-4o они также оценили в 200B и GPT-4 в почти 2T. Однако Claude 3.5 Sonnet они оценили в 185B. Но также они оценили o1-preview который составляет всего 300B, а 4o-mini, по их оценкам, всего лишь 8B(!).
Если это более-менее верный оценки, то 4o-mini вполне может претендовать на лучшую модель в своей "весовой категории".

В январе OpenAI должны показать Operator, так и много других компаний должны выпускать свои агентные системы. Microsoft и тут внесла свою лепту показав Large Action Models. Суть похожа в каком-то смысле на o1, LAM тренируется на связках "задача-план", это позволяет давольно чётко выполнять задачи в различных приложениях.

31 декабря в преддверии Нового Года xAI начали выдавать доступ некоторым людям на бету веб-версии Grok. В общем, он как внешне так и по функционалу очень похож на ChatGPT. Одно крупное отличие - качественный нативный просмотр PDF(у ChatGPT такой возможности впринцыпе нет). В веб-версии, думаю, и будет использоваться новый логотип(пока еще его там нет)

Alibabba разработали 1.58 bit FLUX. Квантизированную(уменьшенную) версию FLUX 1 Dev которая требует намного меньше VRAM и памяти, при этом сохраняя высокое качество изображений. К сожалению пока без кода.

И небольшой оффтоп, Илон Маск, как минимум хочет, купить TikTok в этом году.


В общем, в этом году должен быть четкий переход на уровень 3, и кроме обычных агентов скорее всего будут хорошие улучшения в сфере гуманоидных роботов.


OpenAI и Microsoft продолжают обсуждать условия своего партнерства, начали они это делать примерно с октября. Основной причиной стало желание Сэма перевести OpenAI с некоммерческой структуры в коммерческую. В общем идут переговоры по четырем направлениям: Доля Microsoft в коммерческой организации, будет ли Microsoft продолжать оставаться эксклюзивным поставщиком облачных услуг OpenAI, как долго Microsoft будет сохранять права на использование интеллектуальной собственности OpenAI и будет ли Microsoft продолжать получать 20% доходов OpenAI.

Что интересно, компании определили AGI как
система, способная генерировать около 100 миллиардов долларов максимальной прибыли для ранних инвесторов.

А учитывая большие траты OpenAI, они считают что смогут достичь такой прибыли лишь к 2029 году


NVidia решила сделать новогодний подарок и представила чипы GB300 и B300(даже учитывая то, что B200 раскуплены на год вперед).

B300 использует техпроцесс 4NP что позволяет выдавать на 50% больше FLOPS чем B200, хоть он и потребляет на 200W больше. Но главное улучшение заключается не в этом, а в увеличенной памяти, перейдя с 8-Hi HBM3E на 12-Hi, увеличив память до 288Гб. Это важно для моделей размышления, из-за как раз таки цепочки мыслей они очень требовательны к памяти. Увеличенная память позволяет моделям "более быстро думать" и также больше памяти удешевляет использование модели за счет более высоких размера батчей(на тесте с H100 и H200 разница составила в 3 раза). А в масштабе разница может быть еще больше
Таким образом, токеномика с NVL72 более чем в 10 раз лучше, особенно на длинных цепочках рассуждений. KVCache, пожирающий память, убивает экономику, но NVL72 - это единственный способ масштабировать длину рассуждений до 100 тысяч и более токенов при больших партиях.

Также изменен сам процесс производства(или вернее сказать, финальный вид) чипа, что позволяет улучшить цепочку поставок
Для производства GB200 NVidia поставляет всю плату "Bianca" со всем соответствующим(GPU, CPU, память и т.д). Для GB300, вместо того чтобы поставлять всю плату Bianca, Nvidia будет поставлять только B300 в модуле «SXM Puck», процессор Grace в корпусе BGA и HMC, который будет поставляться американской компанией Axiado вместо Aspeed для GB200.
[...]
Переход на SXM Puck открывает возможности для участия в вычислительном лотке большего числа OEM- и ODM-производителей. Если раньше только Wistron и FII могли производить вычислительную плату Bianca, то теперь это могут делать все больше OEM-производителей и ODM. Wistron несет наибольшие потери в виде ODM-производителей, поскольку они теряют долю в производстве платы Bianca. Для FII потеря доли на уровне платы Bianca компенсируется тем, что они являются эксклюзивным производителем SXM Puck и сокета, на котором сидит SXM Puck. Nvidia пытается привлечь других поставщиков как шайб, так и сокетов, но они пока не размещали никаких других заказов.

Также благодаря этим изменениям производители теперь имеют больше свободы в "изменении" GB300, изменяя ее под свои нужды, с GB200 такого почти небыло. Таким образом у покупателей есть больше причин покупать новую плату, т.к. они получают как увеличенную производительность, так и могут довольно свободно изменять ее под свою инфраструктуру, но как один из минусов, в таком случае им нужно будет потратить больше времени на тестирование и перепроверку изменений которые они будут вносить на плату.

Больше мы узнаем 6 января на презентации NVidia на CES


Недавно DeepSeek выпустили 3-ю версию своей LLM, и она стала лучшей Open-Source моделью за все время[фото 1].

Этого результата они достигли за счет, в том числе, большого размера - 671B параметров.
DeepSeek даже смог немного обогнать Claude 3.5 Sonnet в тесте программирования Aider, в котором LLM тестируется на различных задачах на разных языках. Среди протетированных моделей впереди только o1[фото 2].

И несмотря на отличную производительность, эта модель ещё и очень дешёвая, и в соотношении цена-качество она также является лучшей моделью.

С техническими подробностями можно ознакомиться здесь.

Китайцы напрягаясь под конец года.


В ChatGPT начинается развёртка нового "типа" памяти, в котором ChatGPT будет "знать" что происходило в прошлых чатах и если что, ссылаться на них.
Это может быть первым шагом к "бесконечной памяти", по поводу которой один из сотрудников OpenAI говорил что "скоро♾️"


Rendernet теперь позволяет создать собственные музыкальные видео.

Достаточно загрузить аудио, выбрать персонажей и кратко описать суть видео, далее ИИ сам создаст видео и примерно подберет видеоряд под слова песни[видео 1].

Да, с настоящими музыкальными видео не сравнится, но как быстрое и дешёвое наполнение вполне пойдёт.

Ну и несколько примеров других генераций.


Весной появлялась информация о том что OpenAI планирует вернуться к своей идеи о создании гуманоидных роботов[фото], и она находит дополнительное подтверждение.
Сейчас, по словам двух человек, OpenAI всерьёз планируют разработывать собственного гуманоидного робота(о чем говорит их сотрудничество с Figure или 1X). Однако это не является на данный момент главным приоритетом компании. Сейчас они отдают приоритет как моделям размышления(семейства "o"), так и агентам, как в веб-пространстве, так и для проведения научных исследований(что уже используется внутри компании).

Это они делают для того, чтобы более эффективней конкурировать с такими компаниями как Crusor или Perplexity.


Первая (по настоящему) открытая "думающая" модель с фокусом на зрение - Qwen QVQ.

Рассазывать много нет смысла, все знают как работают "думающие" модели. Но надо сказать про ограничения. Эта модель еще экспериментальная, поэтому при использовании могут быть проблемы, как например путаница в языках или "рекурсивный CoT", из-за чего модель войдет в "цикл размышлений".

Демо на HuggingFace

Ну и интересное заявление от Qwen:
По мере продвижения к созданию AGI мы стремимся разработать интеллектуальную модель. Для реализации этой цели мы совершенствуем нашу модель на основе языка зрения, добавляя в нее расширенные возможности для глубокого мышления и рассуждений на основе визуальной информации. В ближайшем будущем мы планируем интегрировать дополнительные модальности в единую модель, сделав ее еще более интеллектуальной и способной решать сложные задачи и участвовать в научных исследованиях.


Google несмотря на хорошее количество релизов в этом месяце не останавливаться, и возможно выпустят до конца этого месяца ещё несколько продуктов.

По крайней пере несколько неназванных продуктов Google сейчас находиться у внешних тестеров, что означает скорую подготовку к выпуску.

Также один из инструментов(но не факт что от Google), должен выйти сегодня


Уде доступно для некоторых пользователей, однако как оказалось это не s2s, а s2t, т.е. просто транскрипции голоса в текст.


нотмалваре)️️ dan repost
Адрес из прошлого поста больше не актуален, поменяйте его на новый.

🔒Используем ChatGPT, Gemini, Microsoft Copilot, Claude, Spotify, Notion без сторонних приложений:

1. Открываем папку (через поиск Windows)
%SystemRoot%\System32\drivers\etc
2. Копируем куда-нибудь файл hosts (не hosts.ics!), я скопировал на Рабочий стол
3. Открываем скопированный hosts через блокнот. В самый конец файла вставляем:
50.7.85.220 chatgpt.com
50.7.85.220 ab.chatgpt.com
50.7.85.220 auth.openai.com
50.7.85.220 auth0.openai.com
50.7.85.220 platform.openai.com
50.7.85.220 cdn.oaistatic.com
50.7.85.220 files.oaiusercontent.com
50.7.85.220 cdn.auth0.com
50.7.85.220 tcr9i.chat.openai.com
50.7.85.220 webrtc.chatgpt.com
50.7.85.220 android.chat.openai.com
50.7.85.220 api.openai.com
50.7.85.220 gemini.google.com
50.7.85.220 aistudio.google.com
50.7.85.220 generativelanguage.googleapis.com
50.7.85.220 alkalimakersuite-pa.clients6.google.com
50.7.85.220 copilot.microsoft.com
50.7.85.220 sydney.bing.com
50.7.85.220 edgeservices.bing.com
50.7.85.220 claude.ai
50.7.85.220 aitestkitchen.withgoogle.com
50.7.85.220 aisandbox-pa.googleapis.com
50.7.85.220 o.pki.goog
50.7.85.220 labs.google
50.7.85.220 notebooklm.google
50.7.85.220 notebooklm.google.com
50.7.85.220 webchannel-alkalimakersuite-pa.clients6.google.com
50.7.85.220 api.spotify.com
50.7.85.220 xpui.app.spotify.com
50.7.85.220 appresolve.spotify.com
50.7.85.220 login5.spotify.com
50.7.87.84 login.app.spotify.com
138.201.204.218 encore.scdn.co
138.201.204.218 ap-gew1.spotify.com
50.7.85.220 gew1-spclient.spotify.com
50.7.85.220 gew1-dealer.spotify.com
50.7.85.220 spclient.wg.spotify.com
50.7.85.220 api-partner.spotify.com
50.7.85.220 aet.spotify.com
50.7.85.220 www.spotify.com
50.7.85.220 accounts.spotify.com
50.7.85.220 www.notion.so
50.7.85.222 www.canva.com
204.12.192.222 www.intel.com
204.12.192.219 www.dell.com
50.7.87.85 codeium.com
50.7.85.219 inference.codeium.com
4. Сохраняем и копируем новый файл обратно в папку etc, подтверждаем замену.
5. Перезапускаем браузер либо приложение


Но не забываем и про Mistral с Le Chat.

Там прошло пару небольших обновлений, и еще несколько в пути.
Сейчас там обновили интерфейс(в изменения которого я не буду сильно углубляться, основные можно увидеть на фото).
Однако много еще в разработке. Так в разработке находиться PRO план, который как минимум будет без ограничений которых коснуться FREE план(которые также можно увидеть на фото, хоть они могут быть не финальными). Также есть ранние намеки на интеграцию с Notion и также в Canvas появится кнопка "refactor", которая, очевидно, позволит рефакторить код.

P.S. Кнопка "Агенты" которую можно увидеть на фото, это не те агенты которые хотелось бы. В Le Chat Агенты - это аналог CustomGPT


xAI продолжают улучшать Grok, и в скором времени добавят возможность общаться с ним при помощи голоса


История с Orion не заканчивается, да и не думаю что закончится.

То что ранее говорил Red Team-ер всетаки не подтвердилось, о чем он сам сказал, всетаки o3 не использует под собой Orion, информация ранее была неверной, Orion может использовать для o4, но на самом деле я не вижу смысла использовать кодовые названия потомучто они уже мало что значат.

Мне кажется что в итоге мы никогда не узнаем что на самом деле такое Orion и он просто повторить судьбу Arrakis


После анонса о3 было много шума, в том числе необоснованного, мол она слишком дорогая(модель официально еще не вышла, но уже судят по цене) и что она "не стоит увеличения на 15-20% в тестах". Тут основная проблема(не учитывая хайпа) в банальном непонимании того, где были достигнуты эти "15-20%" и что это впринцыпе значит. Поэтому в этой статье я и решил ответить на вопрос, почему цена это не так страшно, и почему "15-20%" это круто.


Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
Приложение Grok стало доступно на iOS в некоторых странах. Доступ выдают постепенно, срок появления на Android неизвестен


Чёрный Треугольник dan repost
Video oldindan ko‘rish uchun mavjud emas
Telegram'da ko‘rish
☝🏻Adobe представила ИИ для генерации звуков на основе голоса и текста

Эта технология преобразует вокальные имитации и текстовые описания в профессионально звучащие эффекты.🎤

Система анализирует голосовой ввод и комбинирует его с текстовой информацией, что позволяет автоматически создавать звуки.

Пользователи могут настраивать точность генерации звуков, что значительно ускоряет процесс создания эффектов.🎶

Тем не менее, система сталкивается с проблемами, связанными с влиянием пространственных характеристик записей на качество создаваемого звука.🤷🏼‍♀️

Исследователи активно работают над решением этих сложностей.🤔.
================
👁 News | 👁 Software | 👁 Hardware


После того, как я увидел результаты o3 на ARC-AGI, который кстати можно считать пройденным(единственное что не подходит по критерии "пройденно" - цена/количество токенов. Но это проблема быстро решается). Именно поэтому начали создавать новый, более тяжёлый тест ARC-AGI 2.
Или результаты Frontier Math, про который некоторые эксперты или "эксперты" говорили что он "невозможен для ИИ" и то что в нем "не будет прогресса на протяжении лет". В тесте который максимально сложен для людей которые посвещали всю свою жизнь математике тратят часы а то и дни для решения этих задач.

После этого вопрос, почему всем на это всеравно? Почему про это забудут через пару дней, когда закончатся "хайп-поводы"? Почему все будут думать что это обычное дело и ничего не произошло? Я теперь понимаю слова людей из OpenAI, Google, Anthropic и т.д. что большинство просто не заметят когда придёт AGI. Да, это не событие что сегодня ничего а завтра AGI, это процесс, но большинство людей проснутся тогда, когда уже все закончится.

Этот год, даже под конец, делает огромные шаги в прогрессе(и не только в ИИ), следующий год сразу вначале начнётся с новых "прыжков". Operator(вы хоть представляете что произойдёт если Operator будет таким, как было показано на одной из презентаций?) от OpenAI, новые модели, включая мыслящие, от Google должны выйти в январе. Не забываем про Antropic и xAI, которые тоже должны выпустить своих "больших мальчиков".

А многие до сих пор считают что ИИ тупой и вообще это все пузырь, и что впринцыпе ничего не произошло...


Подведём итог, многое(примерно половина) из более-менее реалистичных предсказаний не сбылись. Да, мы получили те продукты которые видели ранее(как Sora или o1). Но также мы все ещё не получили то, что в теории должны были иметь изначально(нативная генерация изображений в gpt-4o).

Большинство из этих дней были довольно скучные, хоть были и интересные релизы(как возможность позвонить ChatGPT).

Но в конце, OpenAI решили обрадовать всех, и анонсировать, наверно, ранний AGI - o3. По некоторой информации, o3 сделан на основе Orion, что является, по последней информации, gpt-4.5.

Да, за это время кроме OpenAI были очень крутые релизы от Google, но, честно говоря, o3 разрывает, или начинает разрывать те тесты, которые считались невозможными ранее(как ARC-AGI или Frontier Math, который очень трудный даже для лучших из людей).

Я считаю что после этого, ни у кого не должно оставаться сомнений, что слова Сэма о ASI в течении "нескольких тысяч дней" уже не звучат так "странно" и невозможно.

В очень интересное время мы живём.


Из-за высокой производительности и соответственно высоких рисков, OpenAI запускют публичное тестирование модели. Это значит что любые Red-Team-еры и тестеры впринцыпе могут оставить свою заявку для вступления в "команду тестирования".

20 ta oxirgi post ko‘rsatilgan.