Microsoft существенно расширяет вычислительную базу для искусственного интеллекта, зафиксировав доступ к более чем ста тысячам графических процессоров Nvidia GB300 в связке с инвестициями в экосистему поставщиков облачных мощностей объёмом свыше тридцати трёх миллиардов долларов. Новое поколение архитектуры Blackwell Ultra предназначено для обучения моделей с триллионным числом параметров, что делает ресурсный доступ к таким ускорителям ключевым фактором конкурентоспособности облачной платформы и рынка ИИ-сервисов. В инфраструктуре Azure уже развернут кластер на базе Nvidia GB300 NVL72: шестьдесят четыре стойки, четыре тысячи шестьсот восемь графических процессоров и высокоскоростная сеть Quantum-X800 InfiniBand. Каждая стойка объединяет семьдесят два GPU и тридцать шесть процессоров Grace CPU, формируя производительность до одной целой сорока четырёх сотых экзафлопса в формате FP4 Tensor Core. Такая конфигурация создаёт условия для ускорения полного цикла ML-инжиниринга: от предварительной подготовки данных до масштабного обучения и тонкой донастройки, сокращая сроки проектов с месяцев до недель и открывая окно для регулярных релизов модельных обновлений.
Компания параллельно усиливает стратегию гибридного доступа к ускорителям, комбинируя собственные дата-центры с мощностями независимых провайдеров. Партнёрские контракты с neocloud-операторами, включая CoreWeave, Lambda и Nebius, позволяют гибко балансировать пиковые нагрузки и снижать капиталоёмкость расширения парка, сохраняя при этом единые стандарты оркестрации, телеметрии и безопасности. На горизонте — масштабирование крупного центра обработки данных в Висконсине, рассчитанного на сотни тысяч графических процессоров, что предполагает переход к сетевой архитектуре с многосегментной фабрикой и оптимизацией энергопрофиля под плотные ИИ-кластеры. В коммерческой модели Microsoft предлагает часть вычислительной ёмкости рынку как сервис, одновременно резервируя блоки для внутренних задач, включая крупные модели OpenAI и корпоративные решения на базе Azure AI. Для корпоративных клиентов это означает доступ к высокоплотной инфраструктуре с предсказуемой полосой пропускания, поддержкой распределённого обучения и возможностью горизонтального масштабирования без миграции стеков.
С точки зрения экономики облаков, доступ к ускорителям GB300 и плотным топологиям NVL72 повышает эффективность на уровень стойки и кластера: достигается более высокая утилизация, уменьшается коммуникационная латентность при обмене градиентами, оптимизируется стоимость владения за счёт энергоэффективности и сокращения времени простоя. Для рынка ИИ-приложений это ускоряет вывод в продакшн мультимодальных систем, расширяет парк инференс-кластеров для сервисов с высокими SLA и делает жизнеспособными новые форматы, требующие больших контекстов и длинных обучающих горизонтов. Консолидация вычислительных ресурсов и партнёрская модель поставок выстраивают для Microsoft устойчивый контур предложения: от аренды ёмкостей под обучение до управляемых платформ для инференса и MLOps, что усиливает её позицию на стыке облачных сервисов и индустрии искусственного интеллекта.

