Апрель запомнился не только последним снегом уходящей зимы, но и модельными релизами, крупными апдейтами и несколькими полезными нейронками для тех, кто делает контент, код, 3D, озвучку и вообще пытается автоматизировать всё, что не приколочено.
В этом выпуске: Claude залезает в креативный софт, OpenAI обновляет генерацию изображений и ChatGPT, DeepSeek и Kimi снова играют в open-weights, а в подвале — пачка инструментов для видео, 3D, озвучки и Blender.
Claude теперь работает с креативными приложениями
Anthropic представила Claude for Creative Work — набор интеграций Claude с приложениями для дизайнеров, монтажёров, музыкантов, 3D-художников и других людей, которые проводят день не только в браузере.
Что добавили
Claude теперь можно подключать к рабочим инструментам вроде Adobe Creative Cloud, Ableton, Affinity by Canva, Autodesk Fusion, Blender, Resolume, SketchUp и Splice.
Claude должен понимать контекст проекта и помогать прямо там, где человек уже работает. Бесшовная среда позволит пользователю не прыгать между «рабочей программой» и «чатом с нейросетью».
Что это даёт
Adobe Claude помогает в работе с материалами из Photoshop, Premiere, Express и других приложений. В Fusion — создавать и изменять 3D-модели через диалог. В Blender — работать со сценами, Python API и автоматизацией. В Splice — искать подходящие сэмплы.
Почему это важно
Создать готовый проект с нуля вряд ли выйдет, а вот выполнить утомительный набор однотипных действий — легко. Переименование слоёв, экспорт ассетов, батч-обработка, генерация скриптов, перенос данных между инструментами — вот где такие интеграции могут реально сэкономить время.
ChatGPT получил обновление генерации изображений
OpenAI обновила генерацию изображений внутри ChatGPT до версии Images 2.0.
Что добавили
Модель стала лучше справляться с генерацией и редактированием изображений прямо в ChatGPT. В частности, это касается графики и текстов.
Также появилась функция images with thinking — «обдумывание» задачи перед тем, как к ней приступить.
А что поменялось
OpenAI двигает процесс в сторону более осмысленной работы: модель сначала пытается понять задачу, композицию, ограничения и только потом генерирует.
Однако, «понять задачу» и «сделать ровно то, что просили» — всё ещё не всегда одно и то же.
Почему это важно
ChatGPT стремится стать не только текстовым помощником, но и визуальной рабочей средой. Для дизайнеров, маркетологов и контент-команд это ещё один инструмент в копилку нейронок для генерации изображений и графики на уровне NanoBanana Pro.
OpenAI выкатила GPT-5.5
OpenAI стреляет в этом месяце из всех орудий — вышла в релиз новая текстовая модель — GPT-5.5.
Что заявили
OpenAI позиционирует GPT-5.5 как более сильную модель для сложных задач: программирования, работы с документами, таблицами, исследованиями, инструментами и многошаговыми процессами.
Отдельный акцент — на агентных сценариях, где модель должна не просто ответить на вопрос, а разобраться в задаче, выполнить несколько действий, проверить результат и не потерять нить по дороге.
Где доступна
GPT-5.5 раскатывается в ChatGPT для платных тарифов. GPT-5.5 Pro — для Pro, Business и Enterprise. Позже модель также стала доступна через API. В свою очередь GPT-5.5 Instant раскатывают как новую дефолтную модель ChatGPT. Она должна быть быстрее, точнее и менее многословной в повседневных задачах.
Почему это важно
Хотелось бы измерить новую модель в параметрах «стало на 3% умнее в загадках про поезда», но так это не работает. OpenAI явно пытается догнать конкурентов и двигает ChatGPT в сторону рабочего исполнителя, который может не просто обсудить, а реально довести до результата. А получится ли — покажет голосование пользователя «рублём».
DeepSeek-V4: open-weights, большой контекст и две версии модели
DeepSeek представила DeepSeek-V4 Preview и открыла веса модели.
Что вышло
В линейке две версии:
• DeepSeek-V4-Pro — более мощная модель для сложных задач.
• DeepSeek-V4-Flash — более лёгкая и быстрая версия для API и экономичных сценариев.
Обе модели поддерживают большой контекст — до 1 млн токенов.
На что делают ставку
DeepSeek продвигает V4 как модель для агентных задач, математики, STEM, кодинга и работы с длинным контекстом. Стремления аналогичные новой модели от OpenAI — держать много информации и выполнять сложные цепочки действий.
Почему это важно
Open-source и open-weights сегмент снова напоминает, что не собирается быть младшим братом закрытых моделей. Большой контекст, сильные бенчмарки, доступные веса — всё это делает такие релизы важными не только для исследователей, но и для компаний, которые хотят больше контроля над инфраструктурой.
Kimi K2.6: открытая модель для длинных агентных задач
Moonshot AI представила Kimi K2.6 — open-weights модель с фокусом на долгие задачи, агентность и кодинг.
Что умеет
Kimi K2.6 рассчитана на long-horizon coding: задачи, где модель должна долго держать контекст, работать с кодовой базой, пользоваться инструментами и постепенно улучшать результат.
Разработчики отдельно подчёркивают сценарии работы с Rust, Go, Python, фронтендом, DevOps и оптимизацией производительности.
Что необычного
Kimi активно показывает модель как агента, который может долго работать над инженерной задачей. В одном из примеров модель много часов оптимизировала локальный запуск другой модели и сделала тысячи вызовов инструментов.
Почему это важно
Рынок моделей на наших глазах смещает акценты от «кто лучше отвечает» к «кто дольше и стабильнее работает». Если раньше модели сравнивали по качеству результата, то теперь всё чаще смотрят на способность выдерживать длинную задачу и не разваливаться на полпути.
Что ещё происходит в мире ИИ
• Anthropic обновила Claude Opus до версии 4.7. Компания подтянула флагманскую модель в задачах разработки, долгих рассуждений, следования инструкциям и работы с визуальными материалами.
• Luma открыла API для Uni-1.1. Теперь генерацию и редактирование изображений от Luma можно встраивать в продукты, сервисы и внутренние пайплайны. Это шаг в сторону нормального продакшн-использования.
• OpenMOSS выложила MOSS-TTS-Nano. В открытый доступ вышла компактная TTS-модель, которая может генерировать речь даже на CPU. Для локальной озвучки, прототипов, демо и лёгких сервисов это важнее, чем кажется: не всегда хочется тащить видеокарту ради пары голосовых фраз.
• Появился OpenShorts — open-source инструмент для коротких видео. Проект собирает в одном месте нарезку клипов, генерацию AI-роликов, субтитры, озвучку, b-roll, превью и подготовку к публикации. По сути, это попытка сделать self-hosted фабрику вертикального контента без подписок, водяных знаков и танцев с пятью разными сервисами.
• Разработчики Modly показали локальный image-to-3D инструмент. Утилита позволяет генерировать 3D-модели из изображений прямо на своём GPU.
• Claude научили работать с Blender через BlenderMCP. Это не официальный релиз Blender, а комьюнити-интеграция через Model Context Protocol. Но новость всё равно показательная: Claude может взаимодействовать со сценой, объектами, материалами и Python-кодом внутри Blender.
• Google представила Gemini 3.1 Flash TTS. Новая TTS-модель умеет управлять голосом через текстовые теги: можно задавать стиль, темп, подачу, интонацию и диалоги с несколькими голосами. Для озвучки видео, прототипов ассистентов и генерации аудиоконтента это выглядит как ещё один шаг к «домашней студии».
На этом всё, увидимся в следующем месяце!
Автор: Гамза Иван
Руководитель IT направления Лаб 20-50