На конференции GTC 2026 компания Intel объявила, что процессоры Intel Xeon 6 будут использоваться в качестве хост-CPU в системах NVIDIA DGX Rubin NVL8. Это решение подчёркивает растущую роль центральных процессоров в инфраструктуре ускоренных AI-систем, где нагрузка всё чаще смещается от обучения моделей к масштабируемому инференсу в реальном времени.
Современные AI-сценарии, особенно в контексте агентных систем и моделей с элементами рассуждения, предъявляют повышенные требования не только к GPU, но и к CPU. Именно центральный процессор отвечает за оркестрацию задач, управление памятью, распределение вычислительных нагрузок и обеспечение безопасности данных. По мере усложнения AI-моделей и увеличения объёмов контекста эффективность всей системы всё сильнее зависит от баланса между CPU и GPU.
В Intel отмечают, что Xeon 6 обеспечивает необходимую производительность, энергоэффективность и совместимость с развитой экосистемой x86-программного обеспечения, что критично для корпоративных клиентов и облачных провайдеров. Архитектура также ориентирована на снижение совокупной стоимости владения и поддержку широкого спектра рабочих нагрузок — от инференса до высокопроизводительных вычислений.
Выбор Xeon в качестве хост-процессора для платформы NVIDIA обусловлен рядом системных преимуществ. Среди них — высокая пропускная способность памяти, развитые возможности ввода-вывода и поддержка современных интерфейсов, включая PCIe 5.0, что обеспечивает эффективное взаимодействие с ускорителями. Кроме того, процессоры играют ключевую роль в обеспечении стабильности и непрерывности работы инфраструктуры, особенно в критически важных сценариях.
Отдельное внимание уделено безопасности. Технология Intel Trust Domain Extensions обеспечивает аппаратную изоляцию и защиту данных на всём пути — от CPU до GPU, что становится особенно актуальным с ростом требований к конфиденциальным вычислениям в AI-кластерах.
Новая платформа развивает архитектурную преемственность предыдущих решений, включая системы на базе Blackwell, и позволяет перенести накопленный опыт в следующее поколение инфраструктуры. В Intel подчёркивают, что такие функции, как Priority Core Turbo и высокая однопоточная производительность, помогают поддерживать стабильный поток данных к GPU и обеспечивают эффективную работу даже при сложных сценариях инференса.
С учётом роста популярности распределённых AI-систем, решение использовать Xeon 6 в составе DGX Rubin NVL8 закрепляет за CPU важную роль в экосистеме ускоренных вычислений. Это подтверждает тенденцию, при которой центральные процессоры становятся не просто вспомогательным элементом, а ключевым компонентом, определяющим общую эффективность и масштабируемость AI-инфраструктуры.
