Qualcomm и Samsung готовят серверный эксперимент: LPDDR6X может прийти в ИИ-ускорители вместо HBM

Qualcomm и Samsung готовят серверный эксперимент: LPDDR6X может прийти в ИИ-ускорители вместо HBM

В конце октября прошлого года Qualcomm представила ускорительные карты и серверные стойки на базе чипов AI200 и AI250, однако внимательные наблюдатели обратили внимание на необычную деталь в пресс-материалах компании. Вместо привычной для современных ИИ-платформ памяти с высокой пропускной способностью HBM производитель упомянул использование энергоэффективной DRAM семейства LPDDR — решения, традиционно ассоциируемого со смартфонами и мобильными устройствами на базе Snapdragon. Для рынка серверных ускорителей, где HBM уже фактически стал стандартом де-факто, такой выбор выглядит нетипично.

По информации южнокорейского издания The Bell South Korea, интерес Qualcomm к низкопотребляющей памяти может иметь вполне осязаемое продолжение. Источники утверждают, что Samsung Electronics уже передала в штаб-квартиру Snapdragon прототипы модулей LPDDR6X для тестирования в серверных решениях. Если эти данные подтвердятся, речь идёт о попытке адаптировать мобильную по своей природе память к задачам дата-центров и ИИ-инференса.

Анонимные представители отрасли, на которых ссылается издание, называют ситуацию неординарной ещё и потому, что стандарт LPDDR6 без суффикса X получил официальную сертификацию JEDEC лишь в третьем квартале 2025 года. Тем не менее разработка LPDDR6X у Samsung, по данным источников, уже находится в активной фазе и напрямую увязывается с планами Qualcomm по запуску серверной платформы AI250, ориентированной на инференс, в 2027 году. Сжатые сроки вывода линейки AI200, как предполагается, и стали причиной столь ранних поставок экспериментальных образцов памяти.

Дополнительный контекст придают слухи, появившиеся месяц назад, о том, что ускорители AI200 и AI250 изначально проектируются с расчётом на форм-фактор SOCAMM2. В декабре команда Samsung, отвечающая за стратегию продуктовой линейки памяти, также намекнула на развитие «низкопотребляющих DRAM-технологий, таких как SOCAMM», которые выделяются в отдельное направление ИИ-ориентированных модульных решений на базе архитектуры LPDDR6. Всё это указывает на возможную попытку пересмотреть устоявшийся баланс между производительностью и энергоэффективностью в серверных ИИ-системах, где HBM сегодня доминирует практически безальтернативно.