ИИ-новости за апрель: Claude пошёл в креативные приложения, OpenAI обновила модели, а open-source снова наступает

Апрель запомнился не только последним снегом уходящей зимы, но и модельными релизами, крупными апдейтами и несколькими полезными нейронками для тех, кто делает контент, код, 3D, озвучку и вообще пытается автоматизировать всё, что не приколочено.

В этом выпуске: Claude залезает в креативный софт, OpenAI обновляет генерацию изображений и ChatGPT, DeepSeek и Kimi снова играют в open-weights, а в подвале — пачка инструментов для видео, 3D, озвучки и Blender.

Claude теперь работает с креативными приложениями

Anthropic представила Claude for Creative Work — набор интеграций Claude с приложениями для дизайнеров, монтажёров, музыкантов, 3D-художников и других людей, которые проводят день не только в браузере.

Claude for Creative Work

Что добавили

Claude теперь можно подключать к рабочим инструментам вроде Adobe Creative Cloud, Ableton, Affinity by Canva, Autodesk Fusion, Blender, Resolume, SketchUp и Splice.

Claude должен понимать контекст проекта и помогать прямо там, где человек уже работает. Бесшовная среда позволит пользователю не прыгать между «рабочей программой» и «чатом с нейросетью».

Что это даёт

Adobe Claude помогает в работе с материалами из Photoshop, Premiere, Express и других приложений. В Fusion — создавать и изменять 3D-модели через диалог. В Blender — работать со сценами, Python API и автоматизацией. В Splice — искать подходящие сэмплы.

Почему это важно

Создать готовый проект с нуля вряд ли выйдет, а вот выполнить утомительный набор однотипных действий — легко. Переименование слоёв, экспорт ассетов, батч-обработка, генерация скриптов, перенос данных между инструментами — вот где такие интеграции могут реально сэкономить время.

ChatGPT получил обновление генерации изображений

OpenAI обновила генерацию изображений внутри ChatGPT до версии Images 2.0.

ChatGPT Images 2.0

Что добавили

Модель стала лучше справляться с генерацией и редактированием изображений прямо в ChatGPT. В частности, это касается графики и текстов.

Также появилась функция images with thinking — «обдумывание» задачи перед тем, как к ней приступить.

А что поменялось

OpenAI двигает процесс в сторону более осмысленной работы: модель сначала пытается понять задачу, композицию, ограничения и только потом генерирует.

Однако, «понять задачу» и «сделать ровно то, что просили» — всё ещё не всегда одно и то же.

Почему это важно

ChatGPT стремится стать не только текстовым помощником, но и визуальной рабочей средой. Для дизайнеров, маркетологов и контент-команд это ещё один инструмент в копилку нейронок для генерации изображений и графики на уровне NanoBanana Pro.

OpenAI выкатила GPT-5.5

OpenAI стреляет в этом месяце из всех орудий — вышла в релиз новая текстовая модель — GPT-5.5.

Что заявили

OpenAI позиционирует GPT-5.5 как более сильную модель для сложных задач: программирования, работы с документами, таблицами, исследованиями, инструментами и многошаговыми процессами.

Отдельный акцент — на агентных сценариях, где модель должна не просто ответить на вопрос, а разобраться в задаче, выполнить несколько действий, проверить результат и не потерять нить по дороге.

Где доступна

GPT-5.5 раскатывается в ChatGPT для платных тарифов. GPT-5.5 Pro — для Pro, Business и Enterprise. Позже модель также стала доступна через API. В свою очередь GPT-5.5 Instant раскатывают как новую дефолтную модель ChatGPT. Она должна быть быстрее, точнее и менее многословной в повседневных задачах.

Почему это важно

Хотелось бы измерить новую модель в параметрах «стало на 3% умнее в загадках про поезда», но так это не работает. OpenAI явно пытается догнать конкурентов и двигает ChatGPT в сторону рабочего исполнителя, который может не просто обсудить, а реально довести до результата. А получится ли — покажет голосование пользователя «рублём».

DeepSeek-V4: open-weights, большой контекст и две версии модели

DeepSeek представила DeepSeek-V4 Preview и открыла веса модели.

DeepSeek-V4

Что вышло

В линейке две версии:

DeepSeek-V4-Pro — более мощная модель для сложных задач.

DeepSeek-V4-Flash — более лёгкая и быстрая версия для API и экономичных сценариев.

Обе модели поддерживают большой контекст — до 1 млн токенов.

На что делают ставку

DeepSeek продвигает V4 как модель для агентных задач, математики, STEM, кодинга и работы с длинным контекстом. Стремления аналогичные новой модели от OpenAI — держать много информации и выполнять сложные цепочки действий.

Почему это важно

Open-source и open-weights сегмент снова напоминает, что не собирается быть младшим братом закрытых моделей. Большой контекст, сильные бенчмарки, доступные веса — всё это делает такие релизы важными не только для исследователей, но и для компаний, которые хотят больше контроля над инфраструктурой.

Kimi K2.6: открытая модель для длинных агентных задач

Moonshot AI представила Kimi K2.6 — open-weights модель с фокусом на долгие задачи, агентность и кодинг.

Kimi K2.6

Что умеет

Kimi K2.6 рассчитана на long-horizon coding: задачи, где модель должна долго держать контекст, работать с кодовой базой, пользоваться инструментами и постепенно улучшать результат.

Разработчики отдельно подчёркивают сценарии работы с Rust, Go, Python, фронтендом, DevOps и оптимизацией производительности.

Что необычного

Kimi активно показывает модель как агента, который может долго работать над инженерной задачей. В одном из примеров модель много часов оптимизировала локальный запуск другой модели и сделала тысячи вызовов инструментов.

Почему это важно

Рынок моделей на наших глазах смещает акценты от «кто лучше отвечает» к «кто дольше и стабильнее работает». Если раньше модели сравнивали по качеству результата, то теперь всё чаще смотрят на способность выдерживать длинную задачу и не разваливаться на полпути.

Что ещё происходит в мире ИИ

Anthropic обновила Claude Opus до версии 4.7. Компания подтянула флагманскую модель в задачах разработки, долгих рассуждений, следования инструкциям и работы с визуальными материалами.

Luma открыла API для Uni-1.1. Теперь генерацию и редактирование изображений от Luma можно встраивать в продукты, сервисы и внутренние пайплайны. Это шаг в сторону нормального продакшн-использования.

OpenMOSS выложила MOSS-TTS-Nano. В открытый доступ вышла компактная TTS-модель, которая может генерировать речь даже на CPU. Для локальной озвучки, прототипов, демо и лёгких сервисов это важнее, чем кажется: не всегда хочется тащить видеокарту ради пары голосовых фраз.

Появился OpenShorts — open-source инструмент для коротких видео. Проект собирает в одном месте нарезку клипов, генерацию AI-роликов, субтитры, озвучку, b-roll, превью и подготовку к публикации. По сути, это попытка сделать self-hosted фабрику вертикального контента без подписок, водяных знаков и танцев с пятью разными сервисами.

Разработчики Modly показали локальный image-to-3D инструмент. Утилита позволяет генерировать 3D-модели из изображений прямо на своём GPU.

Claude научили работать с Blender через BlenderMCP. Это не официальный релиз Blender, а комьюнити-интеграция через Model Context Protocol. Но новость всё равно показательная: Claude может взаимодействовать со сценой, объектами, материалами и Python-кодом внутри Blender.

Google представила Gemini 3.1 Flash TTS. Новая TTS-модель умеет управлять голосом через текстовые теги: можно задавать стиль, темп, подачу, интонацию и диалоги с несколькими голосами. Для озвучки видео, прототипов ассистентов и генерации аудиоконтента это выглядит как ещё один шаг к «домашней студии».

На этом всё, увидимся в следующем месяце!

Автор: Гамза Иван

Руководитель IT направления Лаб 20-50

Данные о правообладателе фото и видеоматериалов взяты с сайта «2050.ЛАБ», подробнее в Условиях использования
Анализ
×
Гамза Иван
Google
Сфера деятельности:Образование и наука
227
OpenAI
Сфера деятельности:Связь и ИТ
82