Удвоение по «закону Вахдата»
Долгое время развитие микроэлектроники следовало закону Мура (о том, что число транзисторов на чипе удваивается каждый год). Но в условиях бума ИИ-вычислений вице-президент Google Амин Вахдат предложил другую закономерность роста: чтобы удовлетворить запросы клиентов на доступ в облачным ИИ-моделям, дата-центрам придется удваивать вычислительные мощности каждые полгода.
В микроэлектронике известен эмпирический «закон Мура», названный по имени Гордона Мура, сооснователя Intel и одного из пионеров современной ИТ-отрасли. В 1965 г. Мур, проанализировав доступную на тот момент статистику, предположил, что в перспективе по меньшей мере десятилетия число элементарных компонентов микросхем – транзисторов – на одиночном чипе будет в среднем увеличиваться вдвое каждый год. Пророчество оказалось самосбывающимся: с тех пор на протяжении более чем полувека закон Мура в целом соблюдался – правда, с коррективами, с учетом все большей миниатюризации техпроцессов: удвоение числа транзисторов на типичном центральном процессоре стало происходить сперва за 18 месяцев, а позже и за 24. Тем не менее и в 2025-м это правило с рядом оговорок сохраняет актуальность.
В то же время основные вычислительные нагрузки сегодня приходятся не на ЦП, а на графические и тензорные серверные ускорители, которые обсчитывают задачи, связанные с генеративными моделями искусственного интеллекта. В этой отрасли действуют свои закономерности: в общем понятно, что ИИ-серверов непрерывно требуется все больше, но вот насколько именно? Свою оценку этих темпов предложил в своем недавнем выступлении Амин Вахдат, вице-президент Google по направлениям машинного обучения, вычислительных систем и облачного ИИ. По его мнению, чтобы адекватно удовлетворять растущие запросы клиентов на доступ в облачным ИИ-моделям, дата-центрам компании придется удваивать свои вычислительные мощности каждые 6 месяцев – с тем чтобы через 4–5 лет выйти на уровень производительности, тысячекратно превосходящий нынешний.
Речь не идет, конечно же, об экстенсивном расширении занимаемых ИИ-серверами площадей в ЦОДах гиперскейлера раз в полгода. Да, новые мощности будут широко вводиться в строй, и компания выделяет на это огромные средства, но главное – это повышение эффективности ИИ-вычислений за счет перехода от выдающихся по возможностям, но все-таки избыточно сложных ускорителей Nvidia к тензорным процессорам «домашней» разработки Google, на которых уже готовые ИИ-модели исполняются быстрее и при меньших энергозатратах. Облачный бизнес компании за последний квартал вышел на уровень 15 млрд долл., +34% год к году, а всего накопленным итогом в это направление было проинвестировано 155 млрд долл. И 2026-й, по мнению руководства Google, станет решающим годом в ИИ-сегменте – те гиперскейлеры, которым не удастся наращивать свой вычислительный потенциал в соответствии с «законом Вахдата», почти наверняка недополучат значительные объемы выручки, поскольку признаков близкого спада ИИ-ажиотажа в мире пока что не наблюдается.