投稿日: 2021 年 2 月 5 日
本日より、最大 100 Gbps のネットワーク帯域幅を利用できる Amazon EC2 M5n、M5dn、R5n、および R5dn ベアメタル インスタンスと、HPC/ML ワークロード用の Elastic Fabric Adapter (EFA) が一般提供されます。 Amazon EC2 ベアメタル インスタンスにより、アプリケーションは基盤となるサーバーの Intel® Xeon® Scalable プロセッサとメモリ リソースに直接アクセスできます。これらのインスタンスは、ハードウェア機能セット (Intel® VT-x など) へのアクセスを必要とするワークロード、またはライセンスまたはサポート要件のために非仮想化環境で実行する必要があるアプリケーションに最適です。

ベア メタル インスタンスを使用すると、EC2 のお客様は、詳細なパフォーマンス分析ツール、ベア メタル インフラストラクチャへの直接アクセスを必要とする特殊なワークロード、仮想環境でサポートされていないレガシー ワークロード、およびライセンスが制限されたアプリケーションの恩恵を受けるアプリケーションを実行できます。ベア メタル インスタンスを使用すると、顧客は Clear Linux Containers などの仮想化で保護されたコンテナーを実行することもできます。ベアメタル インスタンスのワークロードは、Amazon Elastic Block Store (EBS)、Elastic Load Balancer (ELB)、Amazon Virtual Private Cloud (VPC) など、AWS クラウドのすべての包括的なサービスと機能を引き続き利用します。

次世代の AWS Nitro System に基づいて、M5n、M5dn、R5n、および R5dn インスタンスは、顧客がカスタム ドライバーを使用したり、アプリケーションを再コンパイルしたりする必要なく、ネットワークにバインドされたワークロードで 100 Gbps ネットワークを利用できるようにします。お客様は、この改善されたネットワーク パフォーマンスを利用して、Amazon S3 との間のデータ転送を高速化し、アプリケーションのデータ取り込み時間を短縮し、結果の配信を高速化することもできます。

M5n、M5dn、R5n、R5dn インスタンスは、3.1 GHz の持続的なオールコア ターボ周波数を備えたカスタムの第 2 世代 Intelî Xeonî Scalable プロセッサ (Cascade Lake) を搭載しています。また、新しい Intel Vector Neural Network Instructions (AVX-512 VNNI) のサポートも提供します。これは、畳み込みなどの一般的な機械学習操作を高速化し、幅広い深層学習ワークロードで推論パフォーマンスを自動的に向上させます。

m5n.metal、m5dn.metal、r5n.metal、または r5dn.metal インスタンスの使用を開始するには、AWS マネジメント コンソール、AWS コマンド ライン インターフェイス (CLI)、または AWS SDK にアクセスしてください。詳細については、EC2 M5 インスタンスまたは EC2 R5 インスタンスのページにアクセスしてください。