AI-компании используют GB200 NVL72 для масштабирования сложных моделей

Современные передовые AI-модели всё чаще используют архитектуру Mixture-of-Experts (MoE), которая работает по принципу человеческого мозга: активируются только те “эксперты”, которые необходимы для конкретной задачи. Это позволяет моделям быть умнее и быстрее без увеличения вычислительных ресурсов.

Однако масштабирование MoE-моделей остаётся сложной задачей из-за ограничений памяти и задержек при обмене информацией между GPU. NVIDIA GB200 NVL72 решает эту проблему.

Применение GB200 NVL72 демонстрирует впечатляющие результаты. Модель Kimi K2 Thinking, признанная самой интеллектуальной среди открытых моделей, демонстрирует 10-кратный прирост производительности по сравнению с предыдущими платформами.

Аналогичные улучшения показали MoE-модели DeepSeek-R1 и Mistral Large 3, подтверждая эффективность полной стековой оптимизации NVIDIA, включая Dynamo, NVFP4 и TensorRT-LLM.

Систему уже используют ведущие «облачные» провайдеры и AI-компании, включая AWS, Google Cloud, Microsoft Azure, DeepL и CoreWeave.

Данные о правообладателе фото и видеоматериалов взяты с сайта «ITNdaily», подробнее в Условиях использования