Future Insider


Гео и язык канала: Беларусь, Русский
Категория: Технологии


Новинки и инсайды из мира технологий, ИИ, гаджетов и всего остального.
Level 3 - ✅️
Level 4 - Q4 2025/Q1 2026
Level 5 - 2026
ASI 202X

Связанные каналы

Гео и язык канала
Беларусь, Русский
Категория
Технологии
Статистика
Фильтр публикаций


Наконец-то Google добавили нативную поддержку pdf в Chrome Android.

Данная функция была "закрыта" за флагом примерно с февраля, и в последней версии Chrome стала доступна без включения флага вручную.

Надеюсь эта функция быстро "перейдет" и к другим разработчикам браузеров.


Репост из: Чёрный Треугольник
☝🏻ИИ-радиоведущий оставался неразоблаченным в течение нескольких месяцев.

В течение нескольких месяцев популярная австралийская радиостанция использовала диджея "Thy", созданного с помощью искусственного интеллекта, для ведения одного из своих сегментов.

☝🏻Голос и внешность ведущего были смоделированы с реального сотрудника финансового отдела компании.

Радиостанция использовала ИИ с января, однако никто из слушателей об этом не догадывался. Лишь только сейчас компания раскрыла факт использования ИИ.

Инцидент сразу раскритиковали за отсутствие прозрачности, «заставляющий слушателей доверять фальшивому человеку, которого они считают настоящим человеком в эфире».

☝🏻Ранее в Польше один радиопроект также заменил журналистов искусственным интеллектом, но вскоре прекратил этот "эксперимент" после волнений среди общественности.

Очевидно широкие массы более лояльны, когда не знают искусственную природу контента.🤔
================
👁 News | 👁 Soft | 👁 Gear | 🌐 Links


А тем временем Gemini 2.5 Pro практически закончил прохождение Pokémon Red/Blue (так написано в официальной трансляции, я не разбираюсь в чем разница) буквально пару минут назад, получив последний, 8-ой значок Зала. Gemini теперь находится на финишной прямой к завершению игры. Claude же, несмотря на то, что начал раньше, примерно с середины марта не прошёл дальше 3-го.

На данный момент, правда, Gemini достиг этого с небольшой помощью от разработчика для исправления проблем «на лету», но после они планируют провести ещё один забег, уже полностью без помощи.

Ссылка на трансляцию: https://m.twitch.tv/gemini_plays_pokemon?desktop-redirect=true


Видео недоступно для предпросмотра
Смотреть в Telegram
Project DeepWiki от Cognition.

Данный проект/сайт позволяет максимально просто разобраться в github репозитории.

Заменив в адресной строке "github" на "deepwiki" получаем детальный отчет о том что за проект, для чего он, как он работает, какие технологии использует и получаем различные схемы, если они нужны. Кроме этого, можно задавать вопросы по данному репозиторию.

Все это абсолютно бесплатно и безлимитно.


На Google I/O, помимо прочего, покажут новую версию Material Design — Material 3 Expressive.

И вот первые изображения различных элементов интерфейса в этом дизайне.


Новые мыслящие версии Llama продолжают откладываться из-за плохих результатов тестирования, но на llamaCon их всё равно выпустят, хотя и с усиленными мерами безопасности.


Репост из: Чёрный Треугольник
Видео недоступно для предпросмотра
Смотреть в Telegram
☝🏻Реклама Microsoft была создана ИИ, но этого никто не заметил

Видео было опубликовано на YouTube еще 30 января и, лишь по прошествии трех месяцев, Microsoft поделилась деталями процесса, подчеркнув, что зрители не заметили присутствия ИИ-элементов.🤖

В создании ролика использовались генерация сценария и раскадровки, а также генерация и редактирование изображений с помощью различных ИИ-инструментов.

Это значительно повысило эффективность процесса по сравнению с традиционными методами.🔧

Корпорация отметила, что высокий уровень интеграции ИИ в креативный процесс оказался успешным: большая часть зрителей не догадывалась о его использовании при создании видео.🤷🏼‍♀️
================
👁 News | 👁 Soft | 👁 Gear | 🌐 Links


Однако не всё так хорошо. Perplexity хочет полностью изучать вас при помощи собственного браузера, даже за пределами приложения (имеется в виду само приложение Perplexity) для лучшей таргетированной рекламы. Вот что об этом говорил глава Perplexity:
«Это одна из причин, по которой мы захотели создать собственный браузер — мы хотим получать данные даже за пределами приложения, чтобы лучше вас понимать», — сказал Шринивас.
[…]
«Потому что часть запросов, которые люди вводят в эти ИИ, связана исключительно с работой. Это не что-то личное».
[…]
«С другой стороны, то, что вы покупаете, в какие отели ходите, какие рестораны посещаете, что просматриваете в интернете — всё это говорит о вас куда больше», — пояснил он.


В октябре прошлого года Сундар Пичай говорил что около 25% кода в Google генерируется ИИ. Сейчас, за примерно полгода, это число увеличилось до "более чем 30%".


OpenAI официально анонсировали Deep Research (lightweight). Эта версия Deep Research сделана на базе o4-mini и не сильно уступает "оригинальному" Deep Research на базе o3. По словам OpenAI, отчёты могут быть короче, но сохранять ту же "глубину" и подробности "оригинальной" версии.

Бесплатные пользователи имеют 5 запросов в месяц, развертка уже идёт.


OpenAI готовят "легкую" версию Deep Research для бесплатных пользователей и для увеличения количества использований Deep Research для Plus и т.д. пользователей.
Возможное (очевидное) название - Deep Research mini.

Также *возможно* в версии mini не будет размышлений либо же их можно будет отключить. Но тут пока много спекуляций.


«Скоро», по изначальному плану Perplexity, уже должно было произойти, однако они себя немного переоценили, поэтому выпуск их браузера Comet перенесён.

Новая дата — середина мая.


OpenAI «расщедрились» и готовят несколько (более одной) open-source моделей.

Примерная дата выпуска, по крайней мере одной из них, начало лета.


YouTube готовится обновить UI в веб-клиенте [фото 1, 2].

Основные изменения включают "кнопки-капсулы" и более "модульный" вид интерфейса. Также убран легкий черный градиент внизу видео, вместо него непрозрачные кнопки.

Также, как говорят те кто уже получил новый дизайн, изменять аудио, похоже, нельзя как при помощи слайдера, так и при помощи стрелок верх\вниз. Неизвестно, сделано это специально или же это баг.


Правила использования ИИ на премии «Оскар»

• Американская академия киноискусств впервые официально включила правила использования искусственного интеллекта в регламент премии «Оскар», разрешив его применение в создании фильмов, но подчеркнув, что решающим фактором при отборе номинантов является вклад человека в творческий процесс, а не сам факт использования ИИ.

• Вместо жесткого требования о раскрытии степени использования ИИ, академия приняла более гибкий подход, оставляя за собой право оценивать значимость человеческого участия в каждом конкретном случае, что стало ответом на прошлогодние забастовки сценаристов и актёров, обеспокоенных угрозой генеративных алгоритмов для профессий, требующих творческой креативности.

• Помимо правил об ИИ, академия ввела новое условие для членов жюри, обязав их просматривать все фильмы в соответствующей категории перед голосованием в финале, хотя процедура проверки осталась прежней, основываясь на личном подтверждении просмотра, демонстрируя стремление академии идти в ногу с технологическим развитием киноиндустрии, сохраняя при этом акцент на важности человеческого творческого вклада.


GladstoneAI - компания которая специализируется на анализе ИИ, его возможностей с основным фокусом на предотвращении национальных и глобальных рисков, связанных с ИИ, опубликовали текст посвященный суперинтеллекту - "Проект американского суперинтеллекта".
Что прикольно, сам текст в некоторых местах, зачем-то, отредактирован, но допустим что так и надо. Вот укороченный вариант их краткого содержания текста:
Частные лаборатории в США всерьёз считают, что близки к созданию сверхинтеллекта — технологии, способной дать огромное стратегическое преимущество тем, кто её контролирует. И они, возможно, правы. Но исследования на переднем крае ИИ остаются уязвимыми для шпионажа и саботажа, особенно со стороны Китая. Практически все ведущие американские AI-лаборатории, вероятно, уже частично скомпрометированы КНР. При таком уровне угроз национальная безопасность требует перемен.

В связи с этим всё чаще звучат призывы к государству: усилить защиту ИИ-исследований, вплоть до запуска национального проекта по аналогии с «Манхэттенским проектом». Эта идея обсуждается в кругах ИИ уже давно, но приобрела широкую огласку после манифеста бывшего сотрудника OpenAI Леопольда Ашенбреннера в июне 2024 года.

За последний год группа экспертов провела обширное исследование, опросив более сотни специалистов — от военных и разведчиков до инженеров и юристов. Результаты показывают: чтобы США действительно получили и удержали преимущество в ИИ перед Китаем, необходимо устранить ряд критических проблем:

- Безопасность поставок. США зависят от Китая и Тайваня в производстве компонентов для дата-центров и ИИ-чипов. Это создаёт риск встроенного шпионского или вредоносного оборудования. Переход на собственное производство займёт годы, которых может не быть.

- Безопасность разработчиков. Культура стартапов в Кремниевой долине не подходит для защиты таких чувствительных технологий. Лаборатории уязвимы к кибератакам, а также к работе «инсайдеров», особенно учитывая высокую долю китайских граждан среди исследователей.

- Проблема контроля. Даже если сверхинтеллект будет создан, им нужно уметь управлять. Необходимо оценивать надёжность существующих методов контроля и понимать риски — особенно при разработке ИИ-средств сдерживания других стран. При этом важно действовать быстро: Китай уже инвестирует в ИИ-инфраструктуру сотни миллиардов долларов.

- Прозрачность и контроль. Сверхинтеллект концентрирует власть, поэтому проект должен иметь строгую систему надзора, чтобы ни одна структура не могла использовать его в одиночку. Также нужна стратегия «выхода» — как сделать технологии доступными обществу, не ставя под угрозу безопасность страны.

Сейчас США не учитывают все военные последствия появления сверхинтеллекта, а значит — недооценивают важность безопасности. Однако исправить ошибки позже будет невозможно: переоснастить цепочки поставок или перепроектировать чипы — это долгий процесс. Либо мы инвестируем в безопасную ИИ-инфраструктуру сейчас, либо рискуем проиграть гонку Китаю.

Такой проект потребует строительства новых дата-центров с полной защитой, интеграции с контрразведкой и быстрой адаптации к новым угрозам. По мнению многих в Кремниевой долине, до появления ИИ, способного автоматизировать большую часть разработки ПО, остаётся меньше года. Если это правда — действовать надо немедленно.

В докладе содержатся конкретные рекомендации, которые можно реализовать уже сейчас, даже без запуска полномасштабного проекта. Это будет дорого и сложно, но альтернатива — потеря контроля над сверхинтеллектом или его захват Китаем — куда опаснее.


Оказывается современные ИИ уже лучше чем 94% вирусологов мира, и для этого даже не нужно достигать 100% точности на Virology Capabilities Test (VCT).

Этот тест, созданный учеными из Центра безопасности ИИ, Медиа-лаборатории Массачусетского технологического института, бразильского университета UFABC и некоммерческой организации SecureBio, является самым сложными тестом по вирусологии на данный момент и измеряет способность устранять неполадки и проблемы в сложных протоколах вирусологической лаборатории. Эксперты в нем набирают в среднем 22.1% точности, а новый o3 достигает 43.8% что опережает 94% всех протестированных экспертов.

Сет Доноуг, научный сотрудник SecureBio и соавтор работы, говорит, что полученные результаты заставляют его "немного нервничать", поскольку впервые в истории практически любой человек имеет доступ к эксперту по вирусологии с искусственным интеллектом, который может провести его через сложные лабораторные процессы для создания биооружия.


И как раз в "дополнение" прошлому посту про долгосрочное планирование и Vending Bench.

Те, кто читали исследование METR знакомы с этим графиком [фото 1], но тут график времени линейный, а не логарифмический. По результатам METR эффективное время выполнения задач ИИ удваивалось примерно каждые 7 месяцев и с "прошлым" трендом развитие было бы примерно таким:
• 2026: 2-часовые задания
• 2027: 1 рабочий день (8 часов)
• 2028: 1 рабочая неделя (40 часов)
• 2029: 1 рабочий месяц (167 часов)

Однако недавние выпуски моделей размышления, похоже, ускоряют это тренд до ≈4 месяцев [фото 2, красная линия]. Лучше это становится видно после выпуска o4-mini и o3 и в большем масштабе [фото 3].

Да, METR получил свои результаты проверив все крупные релизы начиная с GPT-2 и эти модели в будущем могут стать обычным "шумом". А с другой стороны могут показывать что прогресс и не думает замедляться.

И просто как интересное наблюдение - новый тренд (красная линия) довольно близок к сценарию описанным в ai-2027.


Публичную версию o3 (и o4-mini) протестировали заново на ARC-AGI 1.

Если коротко, модель хоть и значительно хуже чем декабрьская версия, но она мало того что потерпела значительные изменения (другая базовая модель, мальтимодальность, адаптация к чат-интерфесу, отсутсвие тренировочных данных ARC-AGI 1 в датасете и т.д.), модель также значительно дешевле. На второй версии ARC-AGI, обе модели не вышли за 3%.

И вот что думает об этом создатель ARC-AGI (это еще и сокращенная версия):
Главный вывод: версия o3 (medium) показывает в два раза лучший результат и стоит в 20 раз дешевле, чем ближайший конкурент среди AI-систем с пошаговым рассуждением (chain-of-thought) — 57% точности за $1.5 за задачу по закрытому набору ARC v1.

На ARC v2 o3 (medium) показывает лишь 3% точности за $2.5 за задачу.

Тест o3 (high) не удалось провести полностью — из-за тайм-аутов менее половины задач вернули результат, и бюджет $50,000 оказался исчерпан. Мы очень старались!

Анализ по o3:

Когда мы тестировали o3-preview в декабре 2024, стало ясно: привычное представление о возможностях ИИ устарело. Тогда встал вопрос: будет ли финальная версия o3 больше похожа на слабый o1 или на впечатляющий o3-preview?

Теперь ясно: o3 (medium) унаследовала ключевые способности o3-preview — решать нестандартные задачи, выходящие за пределы обучающих данных — но при этом стала значительно дешевле. Хотя точность ниже, чем у o3-preview (76% за $200), результат впечатляет: такую мощную систему логического вывода вы сейчас не купите нигде.

Ожидается выход o3-pro — вероятно, он будет ближе к уровню o3-preview по возможностям, но с меньшей эффективностью.

Интересный момент: результаты o3 (medium) на ARC v1 настолько хороши, что их сложно объяснить просто как работу пошаговой autoregressive-модели. Есть ощущение, что система устроена сложнее.

Хотя o3 не делает дорогую и медленную параллельную генерацию, как o3-preview, точность зависит не только от модели и числа токенов размышления. Похоже, в работе участвует некий дополнительный фактор — X-фактор:

успех_задачи = f(модель, токены_размышления, x-фактор)

Подтверждения:

1. Скорость генерации у o3 стабильна между low, medium и high, значит, модель, скорее всего, одна и та же.


2. При равных условиях (по токенам) o3 (high) работает лучше, чем medium и low.



Что за X-фактор? Это может быть: параллельная генерация шагов рассуждения, вспомогательная модель-оценщик, MoE (Mixture of Experts), или что-то ещё. Автор склоняется к тому, что o3 масштабирует глубину и ширину рассуждений, эффективно комбинируя знания базовой модели.

Итоги:

1. Версии o3 (особенно medium и high) ближе по возможностям к o3-preview, чем к старому o1.


2. Лучше использовать o3 (high), а если возникают тайм-ауты — переключиться на medium. Версия low имеет мало смысла, если важна точность.


3. ARC v1 остаётся ценным инструментом для анализа передовых ИИ — он по-прежнему выявляет слабые места систем.


4. У ARC v2 ещё большой путь вперёд, даже с таким прогрессом в рассуждениях, как у o3 — нужны новые идеи.


Они также провели свое мини-исследование о работе таких моделей, можно прочитать у них в блоге.



Показано 20 последних публикаций.