Компания AMD анонсировала новые ускорители Instinct MI350P PCIe, ориентированные на корпоративный рынок искусственного интеллекта. В отличие от громоздких специализированных AI-систем, требующих серьезной модернизации серверных стоек, новые решения AMD делают ставку на более практичный подход: высокую производительность для ИИ-задач в формате обычных PCIe-карт, которые можно установить в уже существующую инфраструктуру дата-центров.
Сегодня многие компании сталкиваются с неожиданной проблемой при внедрении генеративного ИИ. Облачные сервисы дают быстрый доступ к вычислительным ресурсам, но при этом вызывают опасения из-за конфиденциальности данных и непредсказуемых расходов. Переход на собственные AI-кластеры часто оказывается еще сложнее — современные GPU-ускорители требуют мощного охлаждения, новых систем питания и дорогой модернизации серверных помещений. Именно здесь AMD пытается предложить компромисс.
Instinct MI350P выполнены в формате двухслотовых PCIe-карт и рассчитаны на работу в стандартных воздушно-охлаждаемых серверах. По сути, компания предлагает корпоративным клиентам возможность запускать современные AI-модели локально, не перестраивая весь дата-центр под специализированные GPU-платформы. AMD прямо позиционирует новинку как решение для эпохи «агентного ИИ», где вычисления должны быть ближе к данным, быстрее и безопаснее.
С технической точки зрения MI350P выглядит весьма амбициозно. Карта оснащается 144 ГБ памяти HBM3E с пропускной способностью до 4 ТБ/с, а производительность в режиме MXFP4 достигает впечатляющих 4600 TFLOPS. Поддерживаются современные низкоточные форматы вычислений MXFP4 и MXFP6, которые особенно востребованы в задачах инференса и оптимизированных AI-моделях. При этом ускорители также умеют эффективно работать с FP8, INT8 и BF16, что важно для корпоративных AI-нагрузок и систем машинного обучения.
AMD делает акцент не только на «сырой» производительности, но и на стоимости владения. Компания подчеркивает, что открытая программная экосистема помогает снизить затраты на развертывание ИИ-инфраструктуры. Ускорители поддерживают популярные AI-фреймворки вроде PyTorch, Kubernetes GPU Operator и фирменные AMD Inference Microservices. По словам компании, это позволит переносить существующие AI-нагрузки практически без переписывания кода.
Еще один важный момент — ставка на открытые стандарты. Пока конкуренты активно развивают собственные закрытые экосистемы, AMD продолжает продвигать идею максимально совместимой AI-платформы. Для бизнеса это может стать важным аргументом, особенно на фоне стремительно растущих затрат на генеративный ИИ и зависимости от конкретных поставщиков оборудования.
Новые Instinct MI350P дополняют линейку AI-решений AMD и занимают нишу между CPU-серверами и полноценными GPU-суперсистемами. Компания рассчитывает, что такой формат окажется особенно востребован у организаций, которым уже не хватает производительности процессоров, но которые пока не готовы инвестировать миллионы долларов в специализированные AI-кластеры.
