NVIDIA A30
メインストリーム エンタープライズ サーバーのための多彩なコンピューティング高速化
-
NVIDIA A30
- 特設ページ
-
- 概要
-
NVIDIA A30 Tensor コア GPU は、企業のあらゆるワークロードのパフォーマンスを高速化します。
NVIDIA Ampere アーキテクチャの Tensor コアとマルチインスタンス GPU (MIG) で、大規模な AI 推論やハイパフォーマンス コンピューティング (HPC) アプリケーションといった、多様なワークロードを安全に高速化します。PCIe フォーム ファクターに高速のメモリ帯域幅と少ない電力消費が組み合わされており、メインストリーム サーバーに最適です。A30 はエラスティック データ センターを実現し、企業に最大限の価値をもたらします。
- 仕様
-
モデル NVIDIA A30 FP64 5.2 teraFLOPS FP64 Tensor コア 10.3 teraFLOPS FP32 10.3 teraFLOPS TF32 Tensor コア 82 teraFLOPS | 165 teraFLOPS *1 BFLOAT16 Tensor コア 165 teraFLOPS | 330 teraFLOPS *1 FP16 Tensor コア 165 teraFLOPS | 330 teraFLOPS *1 INT8 Tensor コア 330 TOPS | 661 TOPS *1 INT4 Tensor コア 661 TOPS | 1321 TOPS *1 メディア エンジン 1 optical flow accelerator(OFA)
1 JPEG デコーダー(NVJPEG)
4 ビデオ デコーダー(NVDEC)GPU メモリ 24GB HBM2 GPU メモリ帯域幅 933GB/s 相互接続 PCIe Gen4: 64GB/s
第3世代 NVLINK: 200 GB/s *2フォーム ファクター デュアルスロット、フルハイト、フルレングス(FHFL) 最大熱設計電力(TDP) 165W マルチインスタンス GPU(MIG) 6 GB の GPU インスタンスが 4 つ
12 GB の GPU インスタンスが 2 つ
24 GB の GPU インスタンスが 1 つ仮想 GPU(vGPU) ソフトウェア サポート VMware 向け NVIDIA AI Enterprise
NVIDIA 仮想コンピューティング サーバー- *1 疎性あり
- *2 最大 2 つの GPU の NVLink ブリッジ
- 価格表
-
モデル 標準価格 NVIDIA A40 オープン
情報がありません