АйТиБорода


Channel's geo and language: Belarus, Russian
Category: Technologies


Авторский by @iamitbeard. Про IT, технологии и ИИ; без цензуры и политстирильности. Чат @itbeard_talk
Слава Україні. Жыве Беларусь.
АйТиБорода: https://youtube.com/itbeard
Эволюция Кода: https://web.tribute.tg/l/ge
AIA Podcast: https://itbeard.com/aia

Related channels  |  Similar channels

Channel's geo and language
Belarus, Russian
Statistics
Posts filter






Forward from: Эволюция Кода / Анонсы
📰 ТОП-4 новости из'https://t.me/c/2069889012/11/34406' rel='nofollow'> 48го дайджеста новостей ИИ в программировании

🔸 OpenAI представила reasoning-модели o3 и o4-mini: o3 — теперь самая мощная модель OpenAI, обходит даже pro-режим o1. Обе модели поддерживают 200k токенов контекста и могут "думать" изображениями, открывая новые задачи.

🔸 Google показала Gemma 3 QAT: оптимизированные модели Gemma 3 теперь занимают в 3–4 раза меньше памяти при сохранении качества. Доступны даже на обычных потребительских устройствах благодаря Quantization-Aware Training.

🔸 OpenAI выложила Codex в open source: CLI-инструмент для программирования в духе aider и claude code, но проще в установке и использовании. Работает локально, легко встраивается в dev-процессы.

🔸 Grok добавил Canvas с поддержкой Python и Bash: полноценное IDE-пространство прямо в браузере. Можно запускать код в разных языках, есть Google Drive-интеграция. Новый удобный инструмент для быстрой работы с ИИ.

👉 Полный дайджест (текст и аудио)
#aidigest


За всеми этими релизами очередных моделей, не упустите ещё один инструмент для кодогенерации, от OpenAI и опенсорсный (ого) - Codex

https://www.youtube.com/watch?v=FUq9qRwrDrI

Похоже на aider или Claude Code,но попроще.


Ну, теперь заживём: JetBrains наконец-то релизнули своего агентного кодописателя Junie: https://blog.jetbrains.com/blog/2025/04/16/jetbrains-ides-go-ai/

Если кто-то ещё не в курсе, это агентный чат, который умеет писать код под ключ и вызывать инструменты на уровне Cursor, а местами даже лучше. Я делал целый двухчасовой обзор для клуба, если что.

Инструмент распространяется по единой подписке JetBrains AI Pro (наконец-то она будет стоить своих денег) и доступен в IntelliJ IDEA Ultimate, PyCharm Professional, WebStorm и GoLand. PhpStorm, RustRover и RubyMine обещают добавить в скором времени.

Также в подписку добавили free-уровень, дающий доступ к неограниченным локальным однострочным кодкомплишенам (было и раньше) и возможность подключать локальные модели в чат AI Assistant (через LMStudio и Ollama). Использование Junie и AI Assistant в этой подписке credit-based.

И ещё из приятного: теперь вместе со стандартными подписками All Products Pack и dotUltimate вам в придачу дадут дополнительно подписку JetBrains AI Pro.

UPD: А ещё, для AI Assistant завезли поддержку MCP. Короче, подарков как на Новый Год!



4.7k 0 51 4 126

Forward from: partially unsupervised
Про вайбкодинг

Я сжег уже больше 100М токенов в Claude Code, потому имею моральное право поделиться опытом про вайбкодинг.

1. Вайбкодинг действительно очень сильно ускоряет решение большей части задач. Нюанс, как обычно, в том, чтобы вовремя заметить те 20% кода, где его применять не надо.

Не надо применять:
- нетривиальный алгоритмический код (сломается в корнеркейсе - задолбаешься дебажить);
- свежие библиотеки (даже если заставлять читать документацию из интернета, в среднем получается плохо);
- метапрограммирование, написание фреймворков, дизайн API между компонентами;
- security-sensitive задачи.

Надо применять:
- +1 задачи (посмотри, как сделано здесь, и сделай по аналогии);
- все некритичные задачи в незнакомом домене (набросать фронтенд);
- типичный IO layer (в основном хендлеры);
- задачи, в которых вся “сложность” - знать 100500 команд и флагов API (например, aws cli).

2. Вайбкодинг несет неочевидный оверхед в сеньорной команде. Раньше если человек видел код и не понимал его с первой попытки, применялась презумпция качественного кода: если оно написано и закоммичено умным человеком, то, наверное, в этом смысл, надо перечитать и вдуматься. Сейчас иногда приходится переспрашивать “в этом есть какой-то нетривиальный замысел или ты просто нагенерил говна?

3. Всегда нужно останавливаться и рефакторить - что-то руками, что-то и вайбкодом (“остановись и посмотри, что ты нахуевертил”). Вайбкодинг приводит к куче лишних сущностей, надо вовремя подрезать.

4. Если диалог идет не в ту сторону с нескольких итераций, нужно всегда начинать сначала, его уже не спасти. Если несколько попыткок стабильно скатываются в дичь, несмотря на добавление деталей в изначальный промпт, см. пункт 1.

5. Главный кайф не только в кодогенерации, а именно в активном агентском режиме - кидаешь промпт типа “посмотри на CI, почему упал такой-то PR и найди проблему” или “я задеплоил сервис этим терраформом, посмотри все логи и разберись, почему хелсчеки не проходят”.

6. Для эффективной работы нужно дописывать правила в CLAUDE.md (.cursorrules и так далее), подключать релевантные MCP и в целом анализировать, где оно косячит. Например, вот кусок моего глобал конфига:
Python style guide:
1) when catching exceptions, use logger.exception("message"), not logger.error(str(e)).
2) do not use mocks unless explicitly asked!
3) ensure types are correct, e.g. def hello(name: str = None) is WRONG, def hello(name: str | None = None) is correct.
4) use logger = logging.getLogger(__name__) when declaring a logger
5) prefer match + case over if + elif + else
6) using hasattr is typically a sign of bad design!

Делитесь своими лучшими практиками в комментах! Просто ворчать, что вайбкодинг - херня для кретинов, можно тоже там.


UPD: тот gpt-4.1, что завезли в Виндсерф, работает в разы хуже думающего соннета 3.7. Надеюсь там под капотом mini, и полная версия будет работать хотя бы на уровне соннета...
Мде, старый конь, как известно, чего-то там не портит.

UPD2: опении совсем подурели с неймингвми. Выкатили 4.1 и задеприкейтили 4.5, мол она старше и слабее... Видимо считают они до сих пор при помощи gpt 3.5 (4.1 > 4.5 и всё в этом духе)


Сегодня выложил в клубе огромнейший обзор нового (и пока закрытого для бета-тестеров) ИИ-ассистена от JetBrains - Junie. Вот пятнадцать минут из двухчасового обзора, с основными мыслями и впечатлениями: https://youtu.be/qwzhzFK8u3I

У нас таких обзоров и воркшопов поди уже с сотню, и постоянно появляются новые. Хочешь прокачивать навык работы с ИИ - ты знаешь куда идти 😎


Кстати, эта модель будет бесплатной для ВСЕХ пользователей Виндсерфа, целую неделю (втч фри). Курсор тоже выкатил её во фри на время. Глючит точно будет, но если жабка душит, то разбирайте за бесплатно 😊


Forward from: Denis Sexy IT 🤖
Серия моделей 4.1 (кодовое название Quasar Alpha):
— Модели предназначены для разработчиков
— Сильно дешевые
— Поддерживают контекстное окно до 1 миллиона токенов (наконец-то)
— Версия 4.1 следует инструкциям практически на уровне o3-mini, то есть очень хорошо
— Модели 4.1 доступны в размерах nano и mini: работают быстрее, но качество ниже
— Все разновидности модели 4.1 прекрасно ориентируются в контекстном окне и не теряют деталей документа, даже если использовать окно целиком
— Знания моделей актуальны по состоянию на 1 июля 2024 года
— За длинный контекст не берут больше денег 🥰


🚀 Сегодня День космонавтики, и у меня для вас подарок: новый выпуск подкаста "неРодина", в котором мы поговорили про Австралию, нейроморфные процессоры и космических роботов!

Гость выпуска, Миша Асавкин — бывший разработчик и продакт, а теперь космический предприниматель из Австралии, который делает космических роботов для починки спутников!

Попробуем разобраться в том, как можно без опыта, связей и денег в чужой стране всего за три с небольшим года собрать свой продукт — а потом ещё и запустить его в космос. Узнаем, откуда дедушка Миши знал Королёва, зачем в космосе нужны нейроморфные компьютеры и почему австралийцы считают пауков домашними животными.

Ключ на старт! Поехали! 🚀

👉 YouTube: https://youtu.be/0_EfWCCBpvE
👉 Apple Podcasts: https://apple.co/41hwOIQ
👉 Spotify: https://spoti.fi/3Ktbf1Y
👉 Скачать mp3: https://podcast.itbeard.com/e/ne_rodina-4


⚡️ Новый выпуск AIA Podcast уже онлайн!

Сегодня смотрим, что привез Google с Cloud Next — от Gemini Flash до Ironwood TPU, разбираемся в новых инструментах для разработчиков (Firebase Studio, A2A, ADK), изучаем прогресс OpenAI (мощная память в ChatGPT, $40B раунд и BrowseComp), радуемся образовательной версии Claude от Anthropic и вспоминаем про Llama 4 от Meta. Также в выпуске: Nova Act и Nova Sonic от Amazon, новые фичи GitHub Copilot от Microsoft, свежак от xAI и OpenRouter, Canva и Eleven Labs, тесты от NVIDIA и новости от WordPress.

А в конце вас ждём пересказ и комментарии к мрачнейшему документу, описывающему наше возможное будущее - "AI 2027".

👉 YouTube: https://youtu.be/Uojp1B6EDNE
👉 Apple Podcasts: https://bit.ly/aia-apple
👉 Spotify: https://bit.ly/aia-spotify
👉 Скачать mp3: https://aia.simplecast.com/episodes/108


Forward from: Эволюция Кода / Анонсы
🔥 'https://t.me/c/2069889012/10/33194' rel='nofollow'>Запись митапа по CodeAlive - RAG над кодовой базой на максималках

На митапе Родион Мостовой и Иван Бирюк, СЕО и СТО CodeAlive, познакомили нас со своим продуктом, который с помощью качественного RAG умеет проводить глубокий анализ больших кодовых баз и выдавать ответы по ним. Если говорить просто, то CodeAlive — это веб-сервис, к которому вы можете привязать свой репозиторий и разговаривать с ним.

Кроме презентации самого продукта и его функций, мы поговорили о его внутреннем устройстве, о возможности запуска on-premise на локальных моделях, в целом о RAG'ах над кодовой базой, о планах на развитие проекта и будущем разработки с ИИ.

ЧТО ВНУТРИ
- Базово по RAG
- Презентация CodeAlive
- Юзкейсы CodeAlive
- Как эффективно обрабатывать большие кодовые базы через LLM
- Как замерять качество ответов?
- Про приватные инстансы и локальные модели
- Когда ИИ будет писать любой код под ключ?
- БОНУС ДЛя КЛУБЧАН

👉 Смотреть митап
#evo_воркшоп


ну вы прям либо очень большие позитивисты в ИИ (уважение!), либо мазохисты, товарищи :)


https://youtu.be/XiwriW1ET-c - если вы думали, что чтение мыслей всё ещё сказка, очень рекомендую это недооцененное видео (117просотров на момент поста)

UPD: фантастика ближайших 10-15 лет начинается с 42ой минуты.


Надеюсь, вы знаете что делать ⬆️


Forward from: XOR
«Мы ожидаем от всех сотрудников навыков владения нейросетями», — гендиректор Shopify разослал сотрудникам письмо. Кратко о новой реальности:

🟢 Использовать ИИ в работе теперь обязаны все: от рядового менеджера до CEO.

🟢 Навыки промптинга появятся в перформанс-ревью Shopify.

🟢 И прежде чем просить больше сотрудников и ресурсов команды должны ходить доказывать, почему они не могут обойтись помощью ИИ. 😭

Как бы вы отнеслись к такой новой политике в вашей компании?

🔥 — за

💔 — против

@xor_journal


Forward from: Эволюция Кода / Анонсы
📰 ТОП-4 новости из'https://t.me/c/2069889012/11/27600' rel='nofollow'> 46го дайджеста новостей ИИ в программировании

🔸 Google Gemini 2.5 Pro — «мыслящая» модель нового поколения
Новая модель от Google встроила логическое рассуждение прямо в архитектуру, показала топовые результаты в задачах программирования и поддерживает контекст до 1M токенов. Уже доступна даже в бесплатной версии Gemini.

🔸 MCP — общий язык для всех ИИ-инструментов
Протокол MCP становится универсальным интерфейсом для ИИ. Его внедрили OpenAI, GitHub, VSCode, Continue.dev и другие. Теперь разработчики могут синхронизировать агентов, плагины и IDE без боли.

🔸 Augment Agent — AI-кодогенератор нового уровня
Инструмент от команды Augment работает с огромными кодовыми базами, запоминает контекст, интегрируется с GitHub, Jira и Notion, и поддерживает MCP. Это серьёзная альтернатива Copilot и Cursor.

🔸 Llama 4 от Meta — опенсорс с безумным контекстом
Meta представила Llama 4 — две MoE-модели Scout и Maverick с поддержкой до 10M токенов. Открытый код, поддержка мультимодальности и работа даже на одной H100 делают их идеальными для локальных агентов.

👉 Полный дайджест (текст и аудио)
#aidigest


🔥Буквально только что Meta наконец выкатила Llama 4 (ждали долго).

В семействе есть две модели: Llama 4 Scout и Llama 4 Maverick, и все они опенсорсные (с лицензией Meta ofks). Модель Llama 4 Scout является смесью 16 экспертов по 17B (итого 109B), с максимальной длиной контекста в рекордные 10 млн токенов. Llama 4 Maverick является смесью аж 128 экспертов по 17B (400B параметров) с максимальной длиной контекста в 1 млн токенов. Обе модели могут принимать на вход текст и изображения, отвечают только текстом. Среди поддерживаемых языков, к сожалению, нет русского.

Благодаря тому, что это MoE, есть вероятность, что не потребуется все 100–400 ГБ памяти для работы модели, так как в моменте ей нужно запускать эксперта на 17B. По крайней мере, Llama 4 Scout может работать на одном 1×H100 GPU в q4 (Maverick’у одной карточки не хватит).

Скачать модели можно тут, и в этом же репозитории есть намёки на ещё две модели, которые появятся позже: Llama 4 Behemoth и Llama 4 Reasoning. Ставлю на то, что Бегемот будет на 1T параметров 😊

UPD: ванговать не пришлось, будет 2Т!!!

20 last posts shown.