Amazon Web Services ブログ
AI イノベーションを加速する NVIDIA Blackwell GPU を搭載した新しい Amazon EC2 P6-B200 インスタンス
5 月 15 日、NVIDIA B200 を搭載した Amazon Elastic Compute Cloud (Amazon EC2) P6-B200 インスタンスの一般公開を開始しました。この新しいインスタンスは、人工知能 (AI)、機械学習 (ML)、ハイパフォーマンスコンピューティング (HPC) アプリケーションにおける高いパフォーマンスとスケーラビリティへのニーズに応えます。
Amazon EC2 P6-B200 インスタンスは GPU 対応の幅広いワークロードを高速化しますが、中でも、強化学習 (RL) と蒸留を用いた基盤モデル (FM) の大規模な分散 AI トレーニングおよび推論、マルチモーダルトレーニングおよび推論のほか、気候モデリング、創薬、地震分析、保険リスクモデリングなどの HPC アプリケーションにも適しています。
Elastic Fabric Adapter (EFAv4) ネットワーキング、EC2 UltraClusters を用いたハイパースケールクラスターリング、AWS Nitro System を用いた高度な仮想化およびセキュリティ機能と組み合わせることで、速度、スケール、セキュリティを強化しつつ、FM のトレーニングとサービス提供を実現しています。さらに、これらのインスタンスは、EC2 P5en インスタンスと比較して、AI トレーニング (トレーニング時間) と推論 (トークン/秒) のパフォーマンスが最大 2 倍向上しています。
FM トレーニングの市場投入までの時間を短縮しながら、推論スループットを高速化できます。これにより、推論コストを削減し、生成 AI アプリケーションの採用を促進できるだけでなく、HPC アプリケーションの処理性能も向上します。
EC2 P6-B200 インスタンスの仕様
新しい EC2 P6-B200 インスタンスには、1440 GB の高帯域幅 GPU メモリを搭載した 8 機の NVIDIA B200 GPU、第 5 世代インテル Xeon スケーラブルプロセッサ (Emerald Rapids)、2 TiB のシステムメモリ、30 TB のローカル NVMe ストレージが搭載されています。
EC2 P6-B200 インスタンスの仕様は次のとおりです。
インスタンスサイズ | GPU (NVIDIA B200) | GPU メモリ (GB) |
vCPU | GPU ピアツーピア (GB/秒) | インスタンスストレージ (GB) | ネットワーク帯域幅 (Gbps) | EBS 帯域幅 (Gbps) |
P6-b200.48xlarge | 8 | 1440 HBM3e | 192 | 1800 | 8 x 3.84 NVMe SSD | 8 x 400 | 100 |
これらのインスタンスは、P5en インスタンスと比較して GPU TFLOP が最大 125% 向上、GPU メモリサイズが 27% 増加、GPU メモリ帯域幅が 60% 増加しています。
稼働中の P6-B200 インスタンス
米国西部 (オレゴン) AWS リージョンでは、ML 用 EC2 キャパシティブロックを介して、P6-B200 インスタンスを利用できます。EC2 キャパシティブロックを予約するには、Amazon EC2 コンソールで、[キャパシティ予約] を選択します。
[ML 用キャパシティブロックを購入] を選択してから合計容量を選択し、p6-b200.48xlarge インスタンス用の EC2 キャパシティブロックが必要な期間を指定します。EC2 キャパシティブロックを予約できる合計日数は、1 ~ 14 日間、21 日間、28 日間、または 7 日単位で、最長 182 日までです。利用開始日は、最大で 8 週間先まで選択可能です。
これで、EC2 キャパシティブロックが正常にスケジュールされます。EC2 キャパシティブロックの合計料金は前払いで請求され、購入後に料金が変更されることはありません。支払いは、EC2 キャパシティブロックを購入してから 12 時間以内にお客様のアカウントに請求されます。詳細については、Amazon EC2 ユーザーガイドの「Capacity Blocks for ML」を参照してください。
P6-B200 インスタンスの起動時には、AWS Deep Learning AMI (DLAMI) を使用して EC2 P6-B200 インスタンスをサポートできます。DLAMI は、事前設定された環境でスケーラブルで安全な分散型 ML アプリケーションをすばやく構築するためのインフラストラクチャとツールを ML の専門家や研究者に提供します。
インスタンスの起動には、AWS マネジメントコンソール、AWS コマンドラインインターフェイス (AWS CLI)、または AWS SDK を使用できます。
EC2 P6-B200 インスタンスは、Amazon Elastic Kubernetes Service (Amazon EKS)、Amazon Simple Storage Service (Amazon S3)、Amazon FSx for Lustre などの各種 AWS マネージドサービスとシームレスに統合できます。Amazon SageMaker HyperPod にも間もなく対応予定です。
今すぐご利用いただけます
Amazon EC2 P6-B200 インスタンスは、現在、米国西部 (オレゴン) リージョンで利用可能で、ML 用 EC2 キャパシティブロックとして購入できます。
Amazon EC2 コンソールで Amazon EC2 P6-B200 インスタンスをお試しください。詳細については、Amazon EC2 P6 インスタンスのページをご確認ください。ご意見やご要望がありましたら、EC2 の AWS re:Post、または通常の AWS サポート窓口までお寄せください。
– Channy
原文はこちらです。
ニュースブログはいかがでしたか? こちらの 1 分間のアンケートにぜひご協力ください!
(このアンケートは外部企業に委託して行われます。AWS は、AWS プライバシー通知に記載された内容に従って、お客様の情報を取り扱います。AWS は、このアンケートを通じて収集したデータを所有し、収集した情報をアンケートの回答者と共有することはありません)