NVIDIA GB300

NVIDIA GB300は、高度なAIワークロード向けに最先端のパフォーマンスを提供し、36個のNVIDIA Grace™ CPUと72個のNVIDIA Blackwell Ultra GPUを搭載しています。ECC付きLPDDR5Xメモリを最大18 TB、HBM3eメモリを最大21 TBまでサポートし、合計で最大40 TBの超高速・低レイテンシメモリを実現します。NVIDIA NVLink™接続によりGPU間通信帯域が130 TB/sに達するGB300は、AI推論およびエージェンティックAI・物理AI向けに最適化されており、大規模モデルや複雑な計算をシームレスに処理できます。

主な特長

次世代AIスーパーコンピュータ

  • NVIDIA Blackwell Ultra GPUおよびGrace CPU搭載
  • 兆パラメータ規模の大規模言語モデル(LLM)、リアルタイム推論、科学技術計算向けに設計

パフォーマンス

  • HGX H100比でAIファクトリーの総合出力性能が50倍向上
  • HGX H100比でAI演算性能(FP4 dense)が70倍向上
  • 複数の精度モードをサポート:FP4、FP8、INT8、FP16、TF32、FP32、FP64

メモリと帯域幅

  • 72基のGPUにわたる21 TBのHBM3eメモリ
  • NVSwitch™を介した合計130 TB/sのNVLink™帯域幅

ネットワーキングとスケーラビリティ

  • 800 GB/sのネットワーク帯域幅を提供するConnectX-8 NIC
  • NVLink™インターコネクトによるマルチノードGPUクラスターをサポート
  • ハイパースケールAIデータセンター向けに設計

エンタープライズ & クラウド対応

  • マルチテナントクラウド環境およびゼロトラスト環境向けに設計
  • 液冷およびコンポーザブルインフラストラクチャをサポート

主な仕様

GB300 NVL72|0|1|40%,60%
モデル GB300 NVL72
GPU世代 Blackwell Ultra
GPU数 72
FP4合計 * 1,100 | 1,440 PFLOPS
FP8合計 ** 720 PFLOPS
メモリ総容量 21TB HBM3e
メモリ総帯域幅 576TB/s
NVLink 第5世代
GPU間帯域幅 1.8TB/s
集計帯域幅合計 130TB/s
GPUあたり|0|1|40%、60%
FP4 * 15 | 20 PFLOPS
FP8 ** 10 PFLOPS
FP16 ** 5 PFLOPS
メモリ容量 288GB HBM3e
メモリ帯域幅 8TB/s
最大TDP 1,400W
* 記載の仕様は密(dense)/疎(sparse)|** 記載の仕様は疎(sparse)

NVIDIA GB300 の導入をご検討中ですか?

製品の詳細や導入に関するご相談、
お見積りについては、お気軽に営業担当までお問い合わせください。