
В рамках судебного разбирательства между Илоном Маском и OpenAI всплыла крайне показательная цифра, которая хорошо иллюстрирует масштабы нынешней гонки ИИ-инфраструктуры. Как сообщает Reuters, сооснователь OpenAI Greg Brockman заявил в суде, что в 2026 году компания собирается потратить около 50 млрд долларов на вычислительные мощности.
Эта сумма заметно превышает нынешние масштабы бизнеса OpenAI. Хотя выручка создателя ChatGPT в 2025 году выросла более чем втрое, финансовый директор Sarah Friar в январе говорила лишь о годовом обороте около 20 млрд долларов. Иными словами, расходы на вычислительные мощности более чем вдвое превышают текущий уровень выручки. Для сравнения: в конце 2024 года OpenAI сообщала всего примерно о 1 млрд долларов выручки за квартал.
Такие цифры показывают, что OpenAI уже не может развивать инфраструктуру только за счет операционного бизнеса. Компания активно привлекает венчурный капитал, заключает долгосрочные соглашения с облачными провайдерами и резервирует вычислительные мощности на годы вперед. Обучение моделей, инференс и другие AI-нагрузки требуют огромного числа ускорителей, высокой пропускной способности памяти, мощной сетевой инфраструктуры и значительных объемов энергии.
На фоне других игроков рынка сумма все равно выглядит необычно высокой. Microsoft сообщила о выручке облачного бизнеса в размере 168,9 млрд долларов за 2025 финансовый год. NVIDIA получила рекордные 215,9 млрд долларов выручки в 2026 финансовом году, причем только направление дата-центров принесло 62,3 млрд долларов за квартал. Amazon Web Services в первом квартале 2026 года заработала 37,6 млрд долларов при операционной прибыли 14,2 млрд долларов.
На этом фоне потенциальные расходы OpenAI на compute уступают выручке инфраструктурных гигантов, однако для одной AI-компании это беспрецедентный масштаб.
Эти данные хорошо совпадают с серией соглашений, которые OpenAI заключила в последние месяцы. После обновления партнерства с Microsoft Azure Azure остается основным облачным партнером OpenAI, однако компания получила возможность использовать и других поставщиков инфраструктуры. Одновременно Microsoft лишилась прежнего приоритетного права первой предоставлять вычислительные мощности. В результате инфраструктура OpenAI становится более распределенной, но одновременно и более сложной.
Параллельно OpenAI расширяет сотрудничество с AWS. По данным компании, многолетнее соглашение оценивается в 38 млрд долларов и включает использование EC2 UltraServers с крупными GPU-кластерами NVIDIA. Речь идет о системах GB200 и GB300, которые планируют использовать как для обучения моделей, так и для инференса.
Кроме того, в рамках другого соглашения с Amazon OpenAI упоминает расширение существующего контракта с AWS еще на 100 млрд долларов в течение восьми лет, а также инфраструктуру общей мощностью около 2 ГВт. В этой стратегии важную роль играют не только GPU NVIDIA, но и собственные AI-ускорители Amazon.
Технически вся эта ситуация показывает, насколько AI-инфраструктура уже отличается от традиционных облачных нагрузок. Теперь важны не отдельные серверы, а огромные кластеры с высокой пропускной способностью памяти, быстрыми межсоединениями и предсказуемой загрузкой. Для Microsoft, Amazon, NVIDIA и других инфраструктурных партнеров это означает многолетний поток заказов. Одновременно им приходится заранее финансировать строительство дата-центров, энергоснабжение и закупку оборудования, не имея гарантии мгновенной загрузки всех мощностей.
При этом остается открытым вопрос, что именно OpenAI включает в упомянутые 50 млрд долларов. Судя по имеющимся данным, речь идет именно о расходах на вычислительные мощности, а не только о прямой покупке серверов и GPU. В эту сумму могут входить облачные сервисы, резервирование мощностей, затраты на инференс и различные вычислительные квоты в рамках партнерских соглашений. Это важное уточнение: значительная часть многомиллиардных контрактов представляет собой стратегические договоренности, а не прямые закупки железа.


