Наделавшая много шума в конце января генеративная модель искусственного интеллекта DeepSeek от разработчиков из КНР с точки зрения конечного пользователя не слишком выделяется из общего ряда, до недавних пор включавшего в основном продукты американских компаний вроде OpenAI или Google. Главное отличие DeepSeek от аналогов из США — заявленная крайне низкая её себестоимость; на 1,5-2 десятичных порядка меньше (при пересчёте в американские доллары расходов на аппаратное обеспечение, формирование тренировочной базы данных и сам процесс обучения), чем у сопоставимых (с точки зрения практической применимости генерируемых ответов в глазах заказчика) GPT или Claude. А это в корне меняет процветавшую до сих пор в ИИ-отрасли парадигму «больше — значит, лучше», в соответствии с которой каждое очередное поколение той или иной генеративной модели, позволяющее выдавать всё более адекватные человеческим ожиданиям результаты, неизбежно обязано обходиться дороже и требовать больше аппаратных ресурсов, чем предыдущее.

Аналитики TrendForce указывают на такое, в частности, последствие слома этой парадигмы, как вполне вероятный кардинальный пересмотр планов развития ЦОДов по всему миру — с учётом того, что немалая доля планируемых к постройке в ближайшие годы дата-центров, от 15 до 20%, предназначается как раз для развёртывания ориентированной на ИИ-задачи серверной инфраструктуры. Ещё в начале января 2025 г. эксперты в США всерьёз обсуждали, к примеру, не пора ли приступать к проектированию типового для всей ИТ-отрасли ИИ-ЦОДа с ядерным реактором малой мощности, что позволило бы в масштабах страны снизить цены на возведение подобных сооружений — которые, как представлялось на тот момент очевидностью, будут остро востребованы уже в среднесрочной перспективе.

Пример же DeepSeek засвидетельствовал, что одно только изменение программной архитектуры генеративной модели (с «плотной сети трансформеров» на «ансамбль экспертов») позволяет радикально сокращать её себестоимость без катастрофического снижения качества и практической применимости выдаваемых результатов. Следовательно, полагают в TrendForce, заказчики — из очевидных соображений экономии — станут отныне отдавать предпочтение ИИ-моделям с более умеренными аппетитами в плане аппаратных мощностей и энергопотребления. А это, в свою очередь, вынуждает аналитиков пересматривать прогнозы, совсем ещё недавно указывавшие на стремительный рост сегмента «тяжёлых» ИБП для дата-центров, просто потому, что энергоёмкость ЦОДов теперь, скорее всего, будет увеличиваться куда более скромными темпами, чем предполагалось ранее.

Та же аргументация применима и к сегменту серверных графических ускорителей: архитектурно наследующие DeepSeek модели (а поскольку та выпущена в свет как ПО с открытым кодом, они явно не замедлят появиться во множестве) можно будет с успехом и быстро тренировать на вычислительных мощностях, ещё недавно представлявшихся откровенно недостаточными. Более того, переключение разработчиков генеративного ИИ на архитектуру «ансамбля экспертов» угрожает доминированию Nvidia на рынке серверных графических ускорителей, поскольку более сдержанные по производительности, но в то же время существенно менее дорогие ASIC-вычислители вроде тех, что проектирует для своих серверов AWS, становятся эффективной (по цене и энергопотреблению) альтернативой передовым продуктам Nvidia.

Так что, скорее всего, уже в ближайшие месяцы радужные прогнозы, что предрекали впечатляющий рост сегмента серверных ИИ-ускорителей и «тяжёлых» ИБП для ЦОДов, аналитикам придётся пересматривать.