<?xml version="1.0" encoding="UTF-8"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel>
    <title>AI Digest</title>
    <link>https://ai-digest.kerby.pro</link>
    <atom:link href="https://ai-digest.kerby.pro/feed.xml" rel="self" type="application/rss+xml"/>
    <description>Ежедневный обзор значимых релизов и событий в мире AI на русском, с акцентом на верифицируемость источников.</description>
    <language>ru</language>
    <copyright>© 2026 Алексей Лукин · CC BY 4.0</copyright>
    <lastBuildDate>Thu, 30 Apr 2026 13:23:38 +0000</lastBuildDate>
    
      <item>
        <title>Yandex Commerce Protocol: первые ретейлеры запускают продажи через Алису AI</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-yandex-commerce-protocol-launch/</link>
        <guid isPermaLink="false">2026-04-30-yandex-commerce-protocol-launch</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Yandex</dc:creator>
        <category>industry</category>
        <category>russia</category><category>agents</category><category>partnership</category><category>yandex</category>
        <description><![CDATA[Яндекс раскрыл первых партнёров Yandex Commerce Protocol (YCP) — стандарта интеграции интернет-магазинов с ИИ-сценариями Алисы AI, Поиска и Яндекс Ритма. К запуску продаж напрямую из чата с Алисой AI подключаются «Стокманн», restore:, аптечные сети «Горздрав» и «36,6», оператор Билайн, бренд The Act и ряд других ритейлеров; интеграцию по YCP начали более 200 крупных онлайн-ритейлеров и брендов, ещё свыше 1600 магазинов подали заявки. Технология позволяет покупателю переходить к оплате прямо из диалога с ассистентом, без перехода на сайт магазина — Алиса AI выступает в роли торгового ИИ-агента поверх каталогов партнёров.

Почему это важно: YCP — заявка Яндекса на роль AI-commerce-стандарта в Рунете и один из первых масштабных запусков LLM-ассистента как канала прямых продаж в России. Если протокол приживётся, это меняет роль голосовых и чат-ассистентов с информационной на транзакционную.]]></description>
      </item>
    
      <item>
        <title>TIDE: кросс-архитектурная дистилляция для диффузионных LLM</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-tide-diffusion-llm-distillation/</link>
        <guid isPermaLink="false">2026-04-30-tide-diffusion-llm-distillation</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Peking University</dc:creator>
        <category>research</category>
        <category>inference</category><category>paper</category><category>china</category>
        <description><![CDATA[TIDE — фреймворк дистилляции, переносящий знания между разными архитектурами для diffusion-LLM. Включает три компонента: TIDAL (адаптивная сила дистилляции по timestep&#39;ам), CompDemo (контекст через mask splitting) и Reverse CALM (cross-tokenizer objective). Учители — плотный 8B и MoE на 16B, ученик — 0.6B диффузионная модель; HumanEval ученика 48.78 против 32.3 у AR baseline того же размера.

Почему это важно: Diffusion-LLM остаются маргинальной, но активно растущей альтернативой autoregressive-моделям. Кросс-архитектурный distillation от плотного teacher → MoE → диффузионный student — редкое сочетание, и заметный прыжок на code-бенчмарках при 0.6B параметрах делает идею практически интересной для on-device.]]></description>
      </item>
    
      <item>
        <title>Recursive Multi-Agent Systems: общение агентов в latent space</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-recursive-multi-agent-systems/</link>
        <guid isPermaLink="false">2026-04-30-recursive-multi-agent-systems</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Stanford University</dc:creator>
        <category>research</category>
        <category>agents</category><category>reasoning</category><category>paper</category><category>us</category>
        <description><![CDATA[RecursiveMAS заменяет текстовый обмен между агентами на коммуникацию через latent-представления, связанные лёгким модулем RecursiveLink, и обучает всю систему совместно с помощью специального оптимизационного алгоритма. На 9 бенчмарках (математика, наука, медицина, search, код) авторы получают +8.3% средней точности, ускорение end-to-end инференса в 1.2–2.4× и сокращение расхода токенов на 34.6–75.6% относительно текстовых multi-agent baseline&#39;ов.

Почему это важно: 176 upvotes на HF Daily. Текстовый интерфейс между агентами — узкое место и по latency, и по токенам; latent communication + совместное обучение — попытка вывести MAS из режима «несколько LLM, склеенных промптами» в режим единой системы.]]></description>
      </item>
    
      <item>
        <title>Programming with Data: test-driven data engineering для самоулучшающихся LLM</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-programming-with-data/</link>
        <guid isPermaLink="false">2026-04-30-programming-with-data</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenDataLab</dc:creator>
        <category>research</category>
        <category>paper</category><category>benchmark</category><category>alignment</category>
        <description><![CDATA[Авторы переосмысляют data engineering для LLM как software engineering: training-данные = исходный код спецификации поведения модели, обучение = компиляция, бенчмарки = unit-тесты. Если структурированные знания извлекать из исходного корпуса и использовать одновременно для обучения и оценки, провалы модели трассируются до конкретных дефектов в данных и точечно чинятся. Метод применён к 16 дисциплинам; релизнуты knowledge base, бенчмарки и training-корпуса.

Почему это важно: 77 upvotes на HF Daily. Подход формализует то, что и так делают на frontier-лабах вручную: traceability от метрики обратно к конкретному gap&#39;у в данных. Релиз корпусов делает это воспроизводимым.]]></description>
      </item>
    
      <item>
        <title>OpenCode v1.14.30: Mistral Medium 3.5 с reasoning и фиксы Desktop-сессий</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-opencode-v1-14-30/</link>
        <guid isPermaLink="false">2026-04-30-opencode-v1-14-30</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>SST</dc:creator>
        <category>tools</category>
        <category>coding</category><category>open-weights</category><category>update</category><category>mit</category>
        <description><![CDATA[SST выпустила opencode v1.14.30 (29 апреля 2026). Добавлена поддержка Mistral Medium 3.5 с режимом reasoning, улучшена обработка ответов Azure, починены проблемы с сессиями в Desktop-приложении и контекст редактора при работе через несколько директорий. Линейка релизов в апреле шла плотно: v1.14.27 ввёл настраиваемый default shell, v1.14.25 — Roslyn LSP для C#/Razor, v1.14.21 — улучшенную compaction для длинных диалогов.

Почему это важно: Opencode — один из главных open-source конкурентов Claude Code и Codex, мульти-провайдерный по архитектуре. Поддержка Mistral Medium 3.5 с reasoning расширяет выбор моделей для офлайн/edge-сценариев.]]></description>
      </item>
    
      <item>
        <title>Mistral Workflows: public preview Temporal-движка для enterprise AI-оркестрации</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-mistral-workflows-preview/</link>
        <guid isPermaLink="false">2026-04-30-mistral-workflows-preview</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Mistral</dc:creator>
        <category>tools</category>
        <category>agents</category><category>preview</category><category>eu</category><category>mistral</category><category>orchestration</category>
        <description><![CDATA[Mistral AI 29 апреля анонсировала Workflows в public preview — durable, observable AI-оркестрацию в Studio и Le Chat. Архитектура построена на Temporal с AI-расширениями: streaming, payload handling, расширенная observability. Control plane крутится на Mistral-managed инфраструктуре, execution workers и data processing — внутри окружения клиента. Воркфлоу пишутся на Python, могут публиковаться в Le Chat для триггеринга нетехническими пользователями, каждый шаг трассируем в Studio. По данным VentureBeat, движок уже обрабатывает миллионы daily executions у ранних клиентов: ASML, ABANCA, CMA-CGM, France Travail, La Banque Postale.

Почему это важно: Прямой ответ на LangGraph/CrewAI/Temporal-самосборки для production-агентов. Hybrid-deployment (control plane managed, data plane on-prem) снимает основное возражение enterprise — data residency.]]></description>
      </item>
    
      <item>
        <title>GLM-5V-Turbo: нативная foundation-модель для мультимодальных агентов</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-glm-5v-turbo/</link>
        <guid isPermaLink="false">2026-04-30-glm-5v-turbo</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Z.ai</dc:creator>
        <category>research</category>
        <category>multimodal</category><category>agents</category><category>paper</category><category>china</category><category>zai-org</category>
        <description><![CDATA[Z.ai представила GLM-5V-Turbo — мультимодальную foundation-модель, в которой визуальное восприятие встроено как первоклассный компонент reasoning, планирования и tool use, а не подключено постфактум. Модель работает с изображениями, видео, веб-страницами и документами; авторы рапортуют рост на multimodal coding, visual tool use и агентских задачах при сохранении text-only качества. Подчёркивается роль end-to-end верификации агентских траекторий в обучении.

Почему это важно: Один из самых хайповых релизов недели на HF Daily — 2.28k upvotes. Заявка на нативно-мультимодального агента (а не VLM с прикрученным tool use) — направление, в котором Z.ai системно конкурирует с GPT-5 и Gemini.]]></description>
      </item>
    
      <item>
        <title>ElevenLabs запускает ElevenMusic — лицензированную платформу генерации, ремикса и стриминга музыки</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-elevenmusic-launch/</link>
        <guid isPermaLink="false">2026-04-30-elevenmusic-launch</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>ElevenLabs</dc:creator>
        <category>audio</category>
        <category>music-gen</category><category>release</category><category>us</category><category>elevenlabs</category>
        <description><![CDATA[ElevenLabs представила обновлённую ElevenMusic — продукт объединяет открытие музыки, ремикс существующих треков (смена жанра, темпа, переинтерпретация) и создание оригинальных композиций из текста, мелодии или настроения. Платформа построена на полностью лицензированной музыкальной модели; на старте — более 4000 независимых артистов и кураторский релиз Eleven Album Vol. 2. Позиционируется не как пассивный листенинг, а как fan-engagement слой с возможностью публикации и монетизации для креаторов.

Почему это важно: Первый крупный игрок генеративной музыки, выходящий на рынок с лицензионной моделью с самого начала, — в отличие от Suno и Udio, которые уже урегулировали иски с UMG/WMG. Объединение генерации, ремикса и стриминга в одном продукте — заявка на новую категорию между Spotify и Suno.]]></description>
      </item>
    
      <item>
        <title>DeepSeek V4: официальный open-source релиз с Day-0 адаптацией под Huawei Ascend</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-deepseek-v4-official-release/</link>
        <guid isPermaLink="false">2026-04-30-deepseek-v4-official-release</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>DeepSeek</dc:creator>
        <category>models-llm</category>
        <category>deepseek-v4</category><category>open-weights</category><category>mit</category><category>china</category><category>release</category><category>huawei-ascend</category><category>moe</category><category>long-context</category>
        <description><![CDATA[DeepSeek 29 апреля официально выпустила линейку V4 в open-source под лицензией MIT. В неё входят DeepSeek-V4-Pro на 1.6 трлн параметров (49 млрд активных) и DeepSeek-V4 на 284 млрд (13 млрд активных) — обе модели MoE с нативным контекстом 1 млн токенов. Заявлено снижение требований к памяти примерно в 9.5 раза против V3.2 и почти ликвидированный разрыв с фронтирными закрытыми моделями на бенчмарках рассуждений. Особенность релиза — оптимизация под китайские ускорители: Huawei Ascend, Cambricon, Hygon и Moore Threads завершили Day-0 адаптацию в день релиза, мультидеплой Ascend 950 ожидается во втором полугодии.

Почему это важно: Первый крупный фронтирный open-weights релиз, изначально заточенный под Ascend, а не Nvidia — это инфраструктурный сдвиг для китайского AI-стека и сигнал, что экспортные ограничения США ускорили формирование самостоятельной экосистемы инференса.]]></description>
      </item>
    
      <item>
        <title>Anthropic ведёт переговоры о раунде при оценке свыше $900 млрд</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-30-anthropic-900b-funding-talks/</link>
        <guid isPermaLink="false">2026-04-30-anthropic-900b-funding-talks</guid>
        <pubDate>Thu, 30 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Anthropic</dc:creator>
        <category>industry</category>
        <category>funding</category><category>us</category><category>anthropic</category>
        <description><![CDATA[Anthropic получила преэмптивные предложения о привлечении около $50 млрд при оценке в диапазоне $850–900 млрд, что более чем удвоит текущую капитализацию и потенциально выведет компанию вперёд OpenAI как самого дорогого AI-стартапа. Переговоры на ранней стадии, term sheet не подписан. Параллельно сообщается о выручке run-rate &gt;$30 млрд против ~$9 млрд на конец 2025.

Почему это важно: Если раунд закроется в этом диапазоне, расстановка сил в гонке frontier-лабораторий формально меняется в пользу Anthropic — впервые с 2023 года.]]></description>
      </item>
    
      <item>
        <title>Яндекс подвёл итоги акселератора Yandex AI Startup Lab</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-yandex-ai-startup-lab/</link>
        <guid isPermaLink="false">2026-04-29-yandex-ai-startup-lab</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Yandex</dc:creator>
        <category>industry</category>
        <category>russia</category><category>yandex</category><category>accelerator</category><category>startups</category><category>ai-startups</category>
        <description><![CDATA[Яндекс объявил победителей акселератора Yandex AI Startup Lab для студентов и молодых учёных, на который подались около 1000 команд из 146 вузов. Первое место занял Gradius (студенты ВШЭ и НГТУ) — технология встраивания контекстной рекламы в ответы ИИ-сервисов как новый формат монетизации; команда получила 3 млн рублей и грант на ресурсы Yandex Cloud на 1 млн рублей. Второе место — VisioMed.AI, система поддержки решений для офтальмологов на основе анализа снимков сетчатки.

Почему это важно: Сигнал того, как Яндекс выстраивает воронку молодых AI-команд внутри российского рынка после ухода зарубежных венчурных фондов.]]></description>
      </item>
    
      <item>
        <title>vLLM v0.20.0 — третий релиз за две недели</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-vllm-v0-20-0/</link>
        <guid isPermaLink="false">2026-04-29-vllm-v0-20-0</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>vLLM</dc:creator>
        <category>tools</category>
        <category>inference</category><category>vllm</category><category>v0.20.0</category><category>release</category>
        <description><![CDATA[vLLM 27 апреля выпустила v0.20.0 — третью версию за полмесяца после v0.18.0 и v0.19.0. Линейка апреля принесла gRPC serving, GPU-accelerated speculative decoding, advanced KV-cache offloading, полную поддержку Gemma 4 (E2B/E4B/26B MoE/31B Dense с MoE-роутингом, мультимодальностью, reasoning traces и tool use), а async scheduler — overlap engine scheduling с GPU execution — теперь включён по умолчанию.

Почему это важно: Высокая частота релизов закрывает нишу production-ready inference для свежих open-моделей — конкурент TensorRT-LLM и SGLang по скорости поддержки новых архитектур.]]></description>
      </item>
    
      <item>
        <title>Tencent выпустил обновление HY-Embodied-0.5-X для воплощённых агентов</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-tencent-hy-embodied-0-5-x/</link>
        <guid isPermaLink="false">2026-04-29-tencent-hy-embodied-0-5-x</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Tencent</dc:creator>
        <category>models-llm</category>
        <category>china</category><category>open-weights</category><category>tencent</category><category>hunyuan</category><category>embodied</category><category>robotics</category><category>vision-language</category>
        <description><![CDATA[Команда Hunyuan опубликовала на Hugging Face обновлённую версию embodied foundation model — HY-Embodied-0.5-X, описанную как Enhanced Embodied Foundation Model for Real-World Agents. Базовая линейка (MoT-2B и MoE-32B) построена на архитектуре Mixture-of-Transformers, обучена на 100M+ embodied-сэмплах и нацелена на пространственно-временное восприятие, планирование и VLA-сценарии для роботов.

Почему это важно: Развитие открытой линейки Tencent для embodied AI — конкурент Qwen3-VL и закрытым frontier-моделям в задачах робототехники.]]></description>
      </item>
    
      <item>
        <title>OpenAI вывела GPT-5.5, Codex и Managed Agents на Amazon Bedrock</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-openai-on-aws-bedrock/</link>
        <guid isPermaLink="false">2026-04-29-openai-on-aws-bedrock</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenAI</dc:creator>
        <category>industry</category>
        <category>openai</category><category>aws</category><category>bedrock</category><category>gpt-5-5</category><category>gpt-5-4</category><category>codex</category><category>managed-agents</category><category>partnership</category><category>microsoft</category>
        <description><![CDATA[AWS и OpenAI расширили партнёрство и в режиме limited preview запустили на Amazon Bedrock сразу три предложения: фронтирные модели OpenAI (GPT-5.5 и GPT-5.4), агент Codex с поддержкой CLI/desktop/VS Code и Bedrock Managed Agents на базе OpenAI. GA обещают в течение нескольких недель; модели интегрированы с IAM, PrivateLink, guardrails и CloudTrail.

Почему это важно: Релиз состоялся через сутки после окончания эксклюзивности OpenAI с Microsoft и фактически делает Bedrock вторым полноценным каналом дистрибуции фронтирных моделей OpenAI для энтерпрайза.]]></description>
      </item>
    
      <item>
        <title>Mistral выпустила Medium 3.5 — 128B dense, 256k контекста, открытые веса</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-mistral-medium-3-5/</link>
        <guid isPermaLink="false">2026-04-29-mistral-medium-3-5</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Mistral</dc:creator>
        <category>models-llm</category>
        <category>mistral</category><category>mistral-medium-3-5</category><category>open-weights</category><category>vibe</category><category>le-chat</category><category>swe-bench</category><category>remote-agents</category><category>coding-agents</category>
        <description><![CDATA[Mistral AI представила Mistral Medium 3.5 — флагманскую dense-модель на 128B параметров с контекстом 256k и переключаемым reasoning effort. Веса открыты под модифицированной MIT-лицензией и доступны на Hugging Face. Параллельно запущены remote-агенты в Vibe (облачные coding-сессии с CLI и «телепортацией» локальной сессии в облако) и режим Work mode в Le Chat для многошаговых задач. Заявлено 77,6% на SWE-Bench Verified и 91,4% на τ³-Telecom; цена API — $1,5/$7,5 за миллион токенов.

Почему это важно: Mistral возвращается на фронтир с дешёвой open-weight моделью уровня Claude Sonnet 4.5 в кодинге и одновременно даёт собственный аналог Codex/Claude Code — самый сильный европейский релиз весны 2026.]]></description>
      </item>
    
      <item>
        <title>Сбер представил Kandinsky 6.0 Image — флагманскую модель генерации изображений</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-kandinsky-6-0-image/</link>
        <guid isPermaLink="false">2026-04-29-kandinsky-6-0-image</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Sber</dc:creator>
        <category>image</category>
        <category>russia</category><category>kandinsky</category><category>sber</category><category>gigachat</category><category>image-generation</category><category>moe</category><category>image-editing</category>
        <description><![CDATA[Сбер выпустил Kandinsky 6.0 Image на архитектуре Mixture of Experts: модель работает до двух раз быстрее предшественницы, лучше понимает сложные запросы и корректнее генерирует текст на изображениях. Появились функции реставрации старых фото, нейрофотосессий, стилизации, смены одежды и локаций, ретуши и макияжа. Добавлен встроенный Image RAG — поиск визуальных референсов для актуальных персонажей и объектов, которых не было в обучающей выборке. Доступно бесплатно и без лимитов в веб-версии, мобильном приложении и мессенджерах GigaChat.

Почему это важно: Первая публичная MoE-модель для изображений в российском контуре, прямой ответ на западные редакторы вроде Nano Banana и Seedream.]]></description>
      </item>
    
      <item>
        <title>DeepSeek запустил режим распознавания изображений в gray-scale тесте</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-deepseek-vision-mode/</link>
        <guid isPermaLink="false">2026-04-29-deepseek-vision-mode</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>DeepSeek</dc:creator>
        <category>models-llm</category>
        <category>china</category><category>multimodal</category><category>vision</category><category>deepseek</category><category>rollout</category>
        <description><![CDATA[DeepSeek открыл части пользователей веба и приложения новый режим Image Recognition Mode — первое потребительское мультимодальное понимание изображений у компании. Режим встал в один ряд с Quick Mode и Expert Mode; пока поддерживается только понимание (просмотр, чтение, анализ), не генерация. Глава мультимодальной команды Chen Xiaokang намекнул на запуск картинкой синего кита с открытым глазом.

Почему это важно: Первый шаг DeepSeek от чисто текстовой модели к мультимодальному продукту — важный сигнал после релиза V4 несколькими днями ранее.]]></description>
      </item>
    
      <item>
        <title>Cursor SDK — TypeScript-фреймворк для программных coding-агентов</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-cursor-sdk/</link>
        <guid isPermaLink="false">2026-04-29-cursor-sdk</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Cursor</dc:creator>
        <category>tools</category>
        <category>coding-agent</category><category>cursor</category><category>sdk</category><category>typescript</category><category>public-beta</category><category>cloud-vm</category><category>subagents</category><category>release</category>
        <description><![CDATA[Cursor 29 апреля открыла public beta нового TypeScript SDK (npm install @cursor/sdk). SDK даёт программный доступ к тому же агентскому harness&#39;у, что работает в desktop-приложении, CLI и web. Возможности: запуск агентов локально или в Cursor Cloud на изолированной VM, выбор любой frontier-модели, sandboxed VMs, subagents, hooks, token-based pricing. Целевые сценарии — встраивание агентов в CI/CD-пайплайны, end-to-end автоматизация и интеграция в собственные продукты.

Почему это важно: Cursor превращает свой агент из IDE-фичи в инфраструктурный API — прямой конкурент Codex SDK и Claude Agent SDK для headless-сценариев.]]></description>
      </item>
    
      <item>
        <title>OpenAI Codex CLI 0.126.0-alpha — серия pre-release&#39;ов 28-29 апреля</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-codex-cli-alpha-9-15/</link>
        <guid isPermaLink="false">2026-04-29-codex-cli-alpha-9-15</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenAI</dc:creator>
        <category>tools</category>
        <category>coding-agent</category><category>codex</category><category>v0.126.0-alpha</category><category>cli</category><category>pre-release</category>
        <description><![CDATA[На github.com/openai/codex 28-29 апреля вышла серия alpha-сборок 0.126.0 (alpha.9 → alpha.15). Темп — несколько релизов в день, что отражает активную интеграцию Codex с новой партнёркой OpenAI ↔ AWS Bedrock и app-server-улучшения предыдущего цикла (Unix socket transport, pagination-friendly resume/fork, sticky environments, remote thread config). Стабильной 0.126.0 в окне ещё не было. Продолжение цепочки от alpha.8 (27 апреля).

Почему это важно: Темп alpha-релизов сигналит, что 0.126.0 stable близко — следить, если используете Codex CLI на рабочих ветках.]]></description>
      </item>
    
      <item>
        <title>Anthropic выпустила Claude for Creative Work с коннекторами к Adobe, Blender, Ableton</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-claude-for-creative-work/</link>
        <guid isPermaLink="false">2026-04-29-claude-for-creative-work</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Anthropic</dc:creator>
        <category>tools</category>
        <category>anthropic</category><category>claude</category><category>mcp</category><category>creative-tools</category><category>adobe</category><category>blender</category><category>ableton</category><category>autodesk</category><category>connectors</category><category>claude-design</category>
        <description><![CDATA[Anthropic анонсировала пакет Claude for Creative Work — девять официальных коннекторов, позволяющих Claude работать прямо с Adobe Creative Cloud, Blender, Autodesk Fusion, Ableton Live/Push, Affinity by Canva, Resolume, SketchUp и Splice. Параллельно в Anthropic Labs запущен новый продукт Claude Design для быстрых визуальных прототипов и анонсированы образовательные программы с RISD, Ringling и Goldsmiths.

Почему это важно: Anthropic выходит из ниши «помощник для кода и текста» в профессиональные творческие пайплайны — впервые крупная фронтирная лаборатория получает официальное место внутри Adobe и Blender.]]></description>
      </item>
    
      <item>
        <title>Claude Code 2.1.123 — фикс OAuth 401-loop и Bedrock service tier</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-claude-code-v2-1-123/</link>
        <guid isPermaLink="false">2026-04-29-claude-code-v2-1-123</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Anthropic</dc:creator>
        <category>tools</category>
        <category>coding-agent</category><category>claude-code</category><category>v2.1.123</category><category>v2.1.122</category><category>release</category><category>bedrock</category><category>mcp</category><category>opentelemetry</category>
        <description><![CDATA[Anthropic выпустила Claude Code 2.1.123 (29 апреля) и 2.1.122 (28 апреля). Highlights: исправлен бесконечный 401-цикл OAuth при CLAUDE_CODE_DISABLE_EXPERIMENTAL_BETAS=1; новая переменная ANTHROPIC_BEDROCK_SERVICE_TIER (default | flex | priority) для выбора tier&#39;а Amazon Bedrock через заголовок X-Amzn-Bedrock-Service-Tier; вставка PR URL в /resume теперь находит сессию, создавшую этот PR (GitHub, GitHub Enterprise, GitLab, Bitbucket); /mcp подсвечивает claude.ai-коннекторы, скрытые вручную добавленным сервером с тем же URL; OpenTelemetry — числовые атрибуты api_request/api_error отдаются числами, добавлено событие claude_code.at_mention. Продолжение релизной цепочки v2.1.121.

Почему это важно: Bedrock service tier нужен enterprise-пользователям, а 401-фикс снимает блокирующий баг для тех, кто отключал experimental betas.]]></description>
      </item>
    
      <item>
        <title>AWS Quick — AI-ассистент для работы с desktop-приложением</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-29-aws-quick/</link>
        <guid isPermaLink="false">2026-04-29-aws-quick</guid>
        <pubDate>Wed, 29 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>AWS</dc:creator>
        <category>tools</category>
        <category>aws</category><category>quick</category><category>ai-assistant</category><category>desktop-app</category><category>release</category>
        <description><![CDATA[На What&#39;s Next with AWS 29 апреля Amazon представила Quick — AI-ассистента для работы, который подключается ко всем приложениям пользователя, учится тому, что ему важно, и выполняет действия от его имени. Доступен desktop-app, тарифы Free и Plus. В этом же блоке — добавлена возможность строить кастомные приложения через natural language.

Почему это важно: AWS пошла в собственный horizontal-AI-ассистент — конкурент Microsoft Copilot и Google Gemini Workspace, но с интеграцией AWS-сервисов.]]></description>
      </item>
    
      <item>
        <title>World-R1: Reinforcing 3D Constraints for Text-to-Video Generation</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-world-r1-text-to-video/</link>
        <guid isPermaLink="false">2026-04-28-world-r1-text-to-video</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Microsoft Research</dc:creator>
        <category>research</category>
        <category>paper</category><category>rl</category>
        <description><![CDATA[RL-fine-tuning text-to-video с reward-сигналом по 3D-геометрической согласованности; 3D-aware reward резко улучшает temporal coherence без потери визуального качества.]]></description>
      </item>
    
      <item>
        <title>Sora — финальное отключение</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-sora-discontinuation/</link>
        <guid isPermaLink="false">2026-04-28-sora-discontinuation</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenAI</dc:creator>
        <category>video</category>
        <category>deprecation</category><category>us</category>
        <description><![CDATA[26 апреля окончательно отключены веб- и мобильное приложения Sora; API будет отключён 24 сентября 2026.]]></description>
      </item>
    
      <item>
        <title>OpenCode v1.14.28</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-opencode-v1-14-28/</link>
        <guid isPermaLink="false">2026-04-28-opencode-v1-14-28</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>sst</dc:creator>
        <category>tools</category>
        <category>release</category><category>update</category><category>coding</category>
        <description><![CDATA[Релиз 27 апреля. Bugfix для `opencode upgrade`, который падал у Bun-пользователей вне директории с `package.json`.]]></description>
      </item>
    
      <item>
        <title>OpenAI публикует «Our principles»</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-openai-our-principles/</link>
        <guid isPermaLink="false">2026-04-28-openai-our-principles</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenAI</dc:creator>
        <category>industry</category>
        <category>policy</category><category>us</category>
        <description><![CDATA[26 апреля Сэм Альтман выложил документ из пяти принципов (democratization, empowerment, universal prosperity, resilience, adaptability), фактически апдейт устава 2018 года, фиксирующий публичные обязательства по AGI и compute-инфраструктуре накануне регуляторного давления в США/ЕС.]]></description>
      </item>
    
      <item>
        <title>LLM Safety From Within (SIREN)</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-llm-safety-from-within/</link>
        <guid isPermaLink="false">2026-04-28-llm-safety-from-within</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>University of Toronto CSSLab / McGill / LMU Munich</dc:creator>
        <category>research</category>
        <category>paper</category><category>safety</category><category>interpretability</category>
        <description><![CDATA[Линейные пробы по всем внутренним слоям LLM выделяют «safety neurons» с адаптивным взвешиванием. Обходит SoTA open-source guard-модели на множественных бенчмарках при в 250× меньшем числе обучаемых параметров, поддерживает streaming-детекцию.]]></description>
      </item>
    
      <item>
        <title>Firefly AI Assistant — Public Beta</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-firefly-ai-assistant-public-beta/</link>
        <guid isPermaLink="false">2026-04-28-firefly-ai-assistant-public-beta</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Adobe</dc:creator>
        <category>image</category>
        <category>release</category><category>beta</category><category>agents</category><category>us</category>
        <description><![CDATA[27 апреля Adobe запустил глобальную публичную бету ИИ-ассистента, который оркестрирует мультишаговые креативные воркфлоу через 60+ инструментов Creative Cloud по чат-промту; включает Creative Skills и интеграцию с партнёрскими моделями (GPT Image 2, Veo 3.1, Runway Gen-4.5, ElevenLabs Multilingual v2).]]></description>
      </item>
    
      <item>
        <title>DeepSeek V4 — снижение цен в API</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-deepseek-v4-pricing/</link>
        <guid isPermaLink="false">2026-04-28-deepseek-v4-pricing</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>DeepSeek</dc:creator>
        <category>models-llm</category>
        <category>china</category><category>pricing</category><category>open-weights</category><category>deepseek-v4</category><category>release</category>
        <description><![CDATA[27 апреля DeepSeek агрессивно снизил цены на V4-Pro и V4-Flash (preview от 24 апреля, 1.6T MoE / 49B активных, 1M контекст, оптимизация под Huawei Ascend, open weights), запустив очередной виток ценовой войны на китайском рынке.]]></description>
      </item>
    
      <item>
        <title>Google DeepMind ↔ Республика Корея</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-deepmind-korea-ai-campus/</link>
        <guid isPermaLink="false">2026-04-28-deepmind-korea-ai-campus</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Google DeepMind</dc:creator>
        <category>industry</category>
        <category>partnership</category><category>global</category>
        <description><![CDATA[27 апреля DeepMind и MSIT объявили о создании AI Campus в Сеуле; корейские исследователи получают доступ к AlphaFold и AlphaGenome для life sciences, климата и энергетики. Анонс приурочен к 10-летию матча AlphaGo.]]></description>
      </item>
    
      <item>
        <title>Codex CLI rust-v0.126.0-alpha.8</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-codex-cli-rust-alpha-8/</link>
        <guid isPermaLink="false">2026-04-28-codex-cli-rust-alpha-8</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenAI</dc:creator>
        <category>tools</category>
        <category>release</category><category>alpha</category><category>coding</category><category>agents</category><category>us</category>
        <description><![CDATA[Pre-release 27 апреля. Альфа-итерация Rust-версии: бинарники под macOS/Linux/Windows (ARM64 + x86_64), application server, command runner, responses API proxy, SHA256/Sigstore-подписи.]]></description>
      </item>
    
      <item>
        <title>Claude Code v2.1.121</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-claude-code-v2-1-121/</link>
        <guid isPermaLink="false">2026-04-28-claude-code-v2-1-121</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Anthropic</dc:creator>
        <category>tools</category>
        <category>release</category><category>update</category><category>coding</category><category>agents</category><category>claude-opus-4.7</category>
        <description><![CDATA[Релиз 28 апреля. Добавлен `alwaysLoad` для MCP-серверов, команда `claude plugin prune` для удаления orphan-зависимостей, type-to-filter поиск в `/skills`; починены утечки памяти, скроллинг в fullscreen, авто-retry на transient MCP-ошибках, обработка OAuth-токенов.]]></description>
      </item>
    
      <item>
        <title>Agentic World Modeling: Foundations, Capabilities, Laws, and Beyond</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-28-agentic-world-modeling-survey/</link>
        <guid isPermaLink="false">2026-04-28-agentic-world-modeling-survey</guid>
        <pubDate>Tue, 28 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>HKUST/NUS/Oxford/NTU</dc:creator>
        <category>research</category>
        <category>paper</category><category>agents</category><category>rl</category><category>multimodal</category>
        <description><![CDATA[Обзор-манифест по world models для агентов: теоретические основы, эмпирические законы масштабирования, рамка способностей. Доминирующий папир дня на HF (177 upvotes).]]></description>
      </item>
    
      <item>
        <title>Qualcomm + OpenAI + MediaTek — AI-процессоры для смартфонов</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-27-qualcomm-openai-mediatek-smartphone-chips/</link>
        <guid isPermaLink="false">2026-04-27-qualcomm-openai-mediatek-smartphone-chips</guid>
        <pubDate>Mon, 27 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Qualcomm</dc:creator>
        <category>industry</category>
        <category>partnership</category><category>us</category>
        <description><![CDATA[Сообщение о совместной разработке чипов; акции Qualcomm +12% pre-market. Mass production планируется на 2028. По отчёту аналитика Ming-Chi Kuo, официально не подтверждено сторонами.]]></description>
      </item>
    
      <item>
        <title>OpenClaw 2026.4.25</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-27-openclaw-2026-4-25/</link>
        <guid isPermaLink="false">2026-04-27-openclaw-2026-4-25</guid>
        <pubDate>Mon, 27 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>OpenClaw</dc:creator>
        <category>tools</category>
        <category>release</category><category>update</category>
        <description><![CDATA[Расширение TTS (`/tts latest`, новые провайдеры включая Azure Speech). Plugin registry перенесён в cold storage для быстрого старта. Расширенный OpenTelemetry мониторинг. Календарное версионирование `YYYY.M.D`.]]></description>
      </item>
    
      <item>
        <title>Реструктуризация Microsoft–OpenAI</title>
        <link>https://ai-digest.kerby.pro/i/2026-04-27-microsoft-openai-restructuring/</link>
        <guid isPermaLink="false">2026-04-27-microsoft-openai-restructuring</guid>
        <pubDate>Mon, 27 Apr 2026 00:00:00 +0000</pubDate>
        <dc:creator>Microsoft / OpenAI</dc:creator>
        <category>industry</category>
        <category>partnership</category><category>us</category>
        <description><![CDATA[Конец cloud-эксклюзивности: OpenAI может продавать продукты через AWS/Google Cloud, лицензия Microsoft → non-exclusive. Microsoft остаётся primary cloud partner, не платит OpenAI revenue share. OpenAI продолжает делиться revenue с Microsoft до 2030; IP-лицензия до 2032.]]></description>
      </item>
    
  </channel>
</rss>
