選擇 SuperX AI 的四大理由

多樣化算力
相容 75 種主流 AI 加速卡,模組化、多核心、即插即用。涵蓋訓練、推理及混合應用的完整 AI 伺服器系列,提供超過 100 種從核心到邊緣的配置方案。通用+智慧運算:CPU 推理支援中小型企業的 AI 工作負載。
智慧加速
透過算子與模型優化,將每 Token 成本降低 50% 以上。統一算子平台實現「一次開發、多端部署」,屏蔽晶片異構性。自研 XPU 引擎將多元硬件統一資源池化,實現智慧調度。
持續演進
從單節點到叢集無縫擴展,統合 AI 原生及舊有工作負載。統一編排 VM、容器、分散式儲存、AI 資源、雲端管理與安全。以統一資源管理和一致的使用者體驗保護既有投資。
開箱即用
已在 SuperX 內部研發、銷售及運營中經過大規模驗證。攜手逾 20 家 ISV 合作夥伴,提供垂直行業專屬 AI 解決方案。推理引擎與賦能平台預先整合,端到端交付。
核心解決方案
適應各類 AI 工作負載的下一代產品陣容

XI6150
SuperX XI6150 是一款專為下一代 AI 工作負載設計的高密度多引擎運算平台。支援靈活的 GPU 拓撲配置,每顆 GPU 最高提供 600W 功率,在大規模推理與訓練場景下實現極致性能。
B300
SuperX B300 是一款搭載 NVIDIA® HGX™ B300 平台與 8 顆 NVIDIA® Blackwell GPU 的 8U 雙路處理器 AI 伺服器。憑藉第五代 NVLink™ 及 NVSwitch™ 提供的 1.8 TB/s GPU 間頻寬、高速 DDR5 MRDIMM 記憶體,以及超高速 800 Gb/s InfiniBand 或 400 GbE 網路,B300 在大規模 AI 訓練、推理及 HPC 工作負載中表現卓越,並以企業級電源效率與可靠性為後盾。


NVIDIA GB300
NVIDIA GB300 為進階 AI 工作負載提供頂尖性能,搭載 36 顆 NVIDIA Grace™ CPU 與 72 顆 NVIDIA Blackwell Ultra GPU。支援最高 18 TB 含 ECC 的 LPDDR5X 記憶體及最高 21 TB 的 HBM3e,合計提供高達 40 TB 的超高速低延遲記憶體。透過 NVIDIA NVLink™ 連接實現 130 TB/s GPU 間通訊頻寬,GB300 針對 AI 推理及代理 AI、物理 AI 場景高度優化,可無縫處理大規模模型與複雜計算任務。