По мнению экспертов, именно чипы, проектируемые самими гиперскейлерами, прежде всего Google, а не изделия AMD или иного независимого поставщика, имеют уже в среднесрочной перспективе все шансы поколебать нынешнее доминирование Nvidia в сегменте серверных аппаратных решений для инференса ИИ-моделей.
Позиции Nvidia как дизайнера логических микросхем (прежде всего графических процессоров, ориентированных не столько на отрисовку виртуальных сцен, сколько на быстрое выполнение матричных вычислений, лежащих в основе актуальных моделей генеративного ИИ) представляются незыблемыми: доля этой компании в сегменте дискретных графических ускорителей достигла 92% еще в I кв. 2025 г. (по оценке Jon Peddie Research). Попытки давнего ее соперника, AMD, прорваться со своими ГП в серверный сегмент сколько-нибудь заметным успехом не увенчались (хотя направление дискретной графики для ПК компания развивает сравнительно успешно), а Intel и вовсе не рискует замахиваться всерьез на ИИ-ускорители для серверов.
Впрочем, ситуация может кардинально перемениться, если в игру включится Google, – точнее, когда разработанные ею специализированные ускорители для ИИ-задач начнут заполнять ее же собственные дата-центры. В начале ноября Google представила уже седьмое поколение таких серверных плат расширения семейства Ironwood (поскольку они ориентированы в первую очередь на операции матричного умножения, их называют не графическими, а тензорными ускорителями – tensor processing unit, TPU). Предельный объем высокоскоростной видеопамяти HBM (с пропускной способностью 7,4 Тбайт/с) на каждом таком TPU может достигать 192 Гбайт, а его потоковая производительность – превосходить 4,6 ТФЛОПС.
Но это даже не главное. Поскольку Google разрабатывала такие ускорители для оснащения собственных дата-центров, предназначенных для исполнения мощных ИИ-моделей с доступом к ним для заказчиков через облако, сразу же был спроектирован мегакластер SuperPod, в котором совместно работающие 9216 чипов TPU выдают 42,5 ЭФЛОПС при обсчете ИИ-задач с кодировкой операндов в формате FP8. И вот как раз это для Nvidia куда более серьезная угроза: до сих пор ее серверные ускорители превосходили аналоги за счет не только высокой индивидуальной производительности каждого чипа, но и фирменной скоростной шины NVLink, обеспечивающей эффективную передачу данных между вычислительными узлами в составе сервера. SuperPod же, судя по заявленным характеристикам, сумел благодаря масштабируемой сети межсоединений InterChip Interconnect (ICI) превзойти NVLink, объединив 43 вычислительных блока (по 64 TPU в каждом) высокоплотной сетью с пропускной способностью 1,8 Пбайт/с.
При этом энергоэффективность чипов Ironwood увеличена, по заверению Google, вдвое по сравнению с предыдущим поколением – которое уже само по этому параметру опережало весьма прожорливые в плане энергопотребления передовые ускорители Nvidia. Пусть серверные решения Nvidia по-прежнему предпочтительнее для тренировки новых ИИ-моделей, более простые по конструкции ASIC-чипы разработки Google лучше (в смысле – дешевле, быстрее и с меньшим расходованием электричества) справляются с задачами инференса, т. е. обработки готовыми ИИ-моделями поступающих в облако сервис-провайдера операторских запросов.
Но ведь как раз инференс приносит гиперскейлерам, в число которых входит и Google, основной доход (тогда как тренировка моделей, напротив, одни затраты) – и потому инвестиции в развертывание и ввод в эксплуатацию SuperPod компания сможет окупить достаточно быстро. Кроме того, если в перспективе все дата-центры Google будут переоснащены серверами с TPU ее собственной разработки, это существенно сузит для Nvidia рынок сбыта – тем самым заставив ее повышать цены для других заказчиков и еще заметнее терять свои конкурентные преимущества. Так что, как заключают эксперты, именно проектируемые самими гиперскейлерами чипы, а не изделия AMD или иного независимого поставщика имеют уже в среднесрочной перспективе все шансы поколебать нынешнее доминирование Nvidia в сегменте серверных аппаратных решений для инференса ИИ-моделей.