NTC Newtechデータで未来をつなぐ

NVIDIA DGX™ A100

第3世代統合AIシステム

  • NVIDIA DGX&trade A100

    NVIDIA DGX™ A100

  • NVIDIA DGX&trade A100

    NVIDIA DGX™ A100

  • NVIDIA DGX&trade A100

    NVIDIA DGX™ A100

  • NVIDIA DGX™ A100

    NVIDIA DGX™ A100

  • NVIDIA DGX™ A100

    NVIDIA DGX™ A100

  • NVIDIA DGX&trade A100
  • NVIDIA DGX&trade A100
  • NVIDIA DGX&trade A100
  • NVIDIA DGX™ A100
  • NVIDIA DGX™ A100
概要
  • NVIDIA DGX™ A100は、5PFLOPSのAI性能を持ち、データセンター全体の能力と機能を単一の柔軟なプラットフォームに集約します。 NVIDIA DGX™ A100システムには、8基の新しいNVIDIA A100 Tensorコア GPU 、最大のAIデータセットの学習にも対応できる320GBのメモリ、最新の高速NVIDIA Mellanox® HDR200Gbpsインターコネクトが搭載されています。 NVIDIA A100のマルチインスタンスGPU機能を使って、NVIDIA DGX A100をシステム当たり最大56のインスタンスに分割することで、複数の小規模ワークロードを高速化させることができ、演算の能力とリソースをオンデマンドで最適化し、データ アナリティクス、学習、推論を含む多様なワークロードを加速します。
主な特長
  • エンド・ツー・エンドのデータサイエンス/AI に向けた統合システム

    NVIDIA DGX A100はあらゆる AIワークフローのためのユニバーサル システムであり、前例のない計算処理密度、パフォーマンス、柔軟性を提供する世界初の 5ペタフロップス AIシステムです。NVIDIA DGX A100は世界最先端のアクセラレータ、NVIDIA A100 Tensor コア GPUを備えています。企業はトレーニング、推論、分析ワークロードを、配備が容易でNVIDIAのAI専門家の支援も受けられる単一のAIインフラストラクチャに統合できます。

    エンド・ツー・エンドのデータサイエンス/AI に向けた統合システム
  • DGX A100の高性能コンポーネント

    全ての革新者へ

    全ての革新者へ
  • マルチインスタンスGPU(MIG)

    マルチインスタンスGPU(MIG)

    MIGを利用することで、DGX A100の8つのA100 GPUを最大56個のGPUインスタンスとして構成し、それぞれが独自の高帯域幅メモリ、キャッシュ、コンピューティング コアで完全分離できます。これにより管理者は、複数のワークフローに対してサービス品質(QoS)が保証されたGPUのサイズを適切に設定することができます。

    マルチインスタンスGPU(MIG)
  • 異なるワークロードをDGX A100上で統合

    異なるワークロードをDGX A100上で統合

    1つのプラットフォームで学習、推論、データ分析を実行

    異なるワークロードをDGX A100上で統合
  • DGX A100 性能

    DGX A100 性能

    DGX A100 性能
  • A100 GPUについて

    A100 GPUについて

    ・A100は、NVIDIA Ampere(アンペア) アーキテクチャを採用し、約540億のトランジスタから構成された世界で最も複雑な7nmプロセスのプロセッサです。NVIDIA A100の第3世代Tensor コアとTensor Float(TF32)精度を利用することで、前世代と比較して最大20倍のパフォーマンスがコードを変更することなく得られます。

    また、A100は単一のGPUを最大7個の独立したインスタンスに分割するマルチインスタンスGPU(MIG)により、演算要求の異なる様々な処理に最適な演算性能を提供します。さらに、第3世代NVLinkによって、GPUと他のプロセッサ間の接続速度が2倍に向上し、サーバー内で性能を効率的にスケーリングします。

    ・A100はAIの学習と推論だけでなく、科学計算、対話型AI、レコメンデーションシステム、ゲノミクス、ハイパフォーマンスデータアナリティクス、地震モデリングおよび金融予測などの、多様で要件の厳しいワークロードに最適です。

     

    ・飛躍的な世代更新–Voltaの20倍

    Peak Vs Volta
    FP32 学習 312TFLOPS 20倍
    INT8 推論 1,248TOPS 20倍
    FP64 HPC 19.5TFLOPS 2.5倍
    マルチインスタンスGPU 7個のGPU
     

    ・NVIDIA A100仕様表

    ピーク性能
    トランジスタ数 54billion
    ダイサイズ 826m㎡
    FP64 CUDA コア 3,456
    FP32 CUDA コア 6,912
    Tensorコア 432
    Streaming Multiprocessors 108
    FP64 9.7 teraFLOPS
    FP64 Tensor Core 19.5 teraFLOPS
    FP32 19.5 teraFLOPS
    TF32 Tensor Core 156 teraFLOPS| 312 teraFLOPS*
    BFLOAT16 Tensor Core 312 teraFLOPS| 624 teraFLOPS*
    FP16 Tensor Core 312 teraFLOPS| 624 teraFLOPS*
    INT8 Tensor Core 624 TOPS | 1,248 TOPS*
    INT4 Tensor Core 1,248 TOPS | 2,496 TOPS*
    GPU メモリ 40 GB
    インターコネクト NVLink 600 GB/s
    PCIe Gen4 64 GB/s
    マルチインスタンスGPU 最大7MIG @5GBの様々なインスタンス構成
    形状 4/8 SXM GPUs in HGX A100
    最大電力 400W (SXM)
     

    ・Ampere

    世界最大の7nmチップ
    54B トランジスタ, HBM2

     

    ・第3世代Tensor Cores

    更なる高速化, 柔軟性, 簡便
    20倍のAI 性能@TF32

     

    ・新たな高速スパース演算処理機能

    AIモデルにおけるスパースを生かし最大2倍のAI性能を発揮

     

    ・新たなマルチインスタンスGPU

    正しいGPUサイズを使用することで活用率を最適化
    GPUあたり7つの同時実行可能インスタンス

     

    ・第3世代NVLINK &NVSWITCH

    システム性能最大化のための効率的なスケーリング
    2倍以上の帯域

     

    ・飛躍的な世代更新–VOLTAの20倍

仕様
  • システム仕様

    GPU 8基NVIDIA A100 Tensor Core GPU
    GPUメモリ 総320GB
    NVIDIA NVSwitch 6
    性能 5 petaFLOPSAI、10 petaOPS, INT8
    CPU デュアルAMD Rome, 総128コア,2.25GHz(base), 3.4GHz(max boost)
    システムメモリ 1TB
    ネットワーク 9基Mellanox ConnectX-6 VPI HDR InfiniBand/200GigE、10thDual-port ConnectX-6 optional
    Storage OS: 2x 1.92TB M.2 NVMe ドライブ、内部ストレージ: 15TB(4x 3.84TB) U.2 NVMeドライブ
    システム電力 最大6.5kW
    システム重量 271lbs(123kgs)
    システム寸法 6ラックユニット(RU)
    高さ: 10.4in(264.0mm) 幅: 最大19.0in(482.3mm) 奥行: 最大35.3in(897.1mm)
    動作温度 5ºC~30ºC(41ºF ~86ºF)
    冷却 空冷
価格表
  • 詳細につきましては、営業部までお気軽にお問い合わせください。

関連カテゴリーRelated Categories

サーバ製品実装に必要となる周辺機器もご紹介します。