ニュースリリース

IBMクラウド上のNVIDIA Teslaアクセラレーターがディープ・ラーニング・モデルのトレーニングにおいて優れたパフォーマンスを実証

2017年05月20日
 

 

  • 最新IBMクラウドのNVIDIA Tesla P100 GPUアクセラレーターのパフォーマンス・ベンチマークにおいて、IBMクラウドのNVIDIA Tesla K80 GPUアクセラレーターと比較して、ディープ・ラーニングのトレーニング時間を最大65%短縮できることを実証
  • 最新ベンチマークによって、IBMクラウドのコアがコグニティブであり、AIやコグニティブのワークロードを実行するのに適していることを裏付け

[米国ニューヨーク州アーモンク - 2017年5月8日(現地時間)発]
IBM(NYSE:IBM)は本日(現地時間)、IBMのエンジニアが実施したベンチマークにおいて、IBMクラウドのNVIDIA® Tesla® P100 GPUアクセラレーターが特定のテスト・ケースで前世代のNVIDIA® Tesla® K80よりも最大2.8倍高いパフォーマンスを実現できることを発表しました。Rescale社が実施した2回目のベンチマークにおいても、IBMクラウドのNVIDIA Tesla P100 GPUのパフォーマンスが大幅に向上していることが実証されました。これにより、ディープ・ラーニング・モデルの習熟に必要なトレーニング時間が短縮され、お客様は高度な人工知能(AI)アプリケーションをクラウドで素早く作成できるようになります。

現在、AIアプリケーションの需要は急速に高まっています。Research and Markets社によると、AI市場は、2022年までに160.6億ドル規模にまで成長するものとみられています[1]。ディープ・ラーニングの手法は、AIアプリケーションの需要増大や高度化の主要要因となっています。しかしながら、特定の作業を行うためのディープ・ラーニング・モデルのトレーニングは、膨大なコンピューティング・リソースを要するプロセスであり、多大な時間とコストが必要になる場合もあります。

IBMクラウドのNVIDIA Tesla P100 GPUが利用できることで、ディープ・ラーニングの手法を用いたAIシステムのトレーニングをより迅速かつコスト効率よく行えるようになります。IBMによって最近実施されたパフォーマンス・ベンチマークにおいて、NVIDIA Tesla P100 GPUにてIBMクラウドで実行される特定のディープ・ラーニングのワークロードのパフォーマンスが、旧世代のNVIDIA Tesla K80 GPUよりも2.8倍高いことが判明しています。IBMクラウドのNVIDIA Tesla P100 GPUを組み合わせることで、NVIDIA Tesla K80 GPUと比較して、ディープ・ラーニングの画像分類モデルの習熟に必要なトレーニング時間が65%短縮されます。

ベンチマークを実施するために、IBMのエンジニアは、Bluemixベア・メタル・サーバーで2つのNVIDIA Tesla P100 GPU PCIeカード(合計2つのP100 GPUコア)を利用して画像分類に関するディープ・ラーニング・モデルのトレーニングを行いつつ、Bluemixベア・メタル・サーバーで2つのTesla K80 GPU PCIeカード(合計4つのK80 GPUコア)を実行する同様のディープ・ラーニング・モデルと結果を比較しました。エンジニアは、CaffeフレームワークでVGG-16ディープ・ニューラル・ネットワークを使用したILSVRC(画像分類コンテスト)を実施しました。ILSVRCの目的は、ディープ・ニューラル・ネットワーク・モデルに画像を正しく分類させることです。ILSVRCでは、約120万枚の画像に関するトレーニングをモデルに対して行います(別途、検証用に5万枚の画像を使用し、テスト用に10万枚の画像を使用します)。

ベンチマークにおいては、IBMクラウドのNVIDIA Tesla P100 GPU がより優れたコスト・パフォーマンスを実現できることも判明しました。このベンチマークでは、IBMクラウドのNVIDIA Tesla P100 GPUが1ドルのコストで11万6,000枚を超える画像を処理できました。これは、同じテスト・ケースで比較した場合、旧世代のIBMクラウドのNVIDIA Tesla K80 GPUの2.5倍の数になります。

IBMのクラウド・インフラストラクチャー・サービス担当ゼネラル・マネージャーであるジョン・コンシダイン(John Considine)は次のように述べています。「クラウド・コンピューティングの進化によってAIのイノベーションが猛スピードで進んでいます。IBMクラウドは、NVIDIA Tesla P100 GPUを提供する最初の主要クラウド・プロバイダーとして、お客様がエンド・ユーザーのために洗練されたAIおよびコグニティブ・エクスペリエンスをより迅速かつコスト効率よく実現できるように、より高いパフォーマンスを提供します」

Rescale社が同社のScaleX™プラットフォームを利用して実施した2回目のパフォーマンス・ベンチマークにおいても、ディープ・ラーニングのトレーニング時間が短縮されました。Rescale社は、クラウドでのハイパフォーマンス・コンピューティング・シミュレーションおよびディープ・ラーニングにおけるグローバル・リーダー企業です。ScaleXは、インタラクティブ・ノートブックを含むディープ・ラーニングSaaS向けの機能を備えており、大規模なデータセットに関するトレーニングにおいて、ブラウザー内でのデータ分析やディープ・ラーニング・ライブラリーのターンキー提供を可能にします。Rescale社は、TensorFlow 1.0を使用したILSVRCのデータセットに関するInceptionV3のディープ・ニューラル・ネットワークのトレーニングにおいて、IBMクラウドのNVIDIA Tesla P100 GPUを利用した場合、NVIDIA K80 GPUの約半分の時間でディープ・ラーニング・モデルのトレーニングを行えるようになったと報告しています。

Rescale社のCEOであるヨーレス・ポート(Joris Poort)氏は次のように述べています。「弊社は、IBMとともにディープ・ラーニングやAIの研究の限界を押し上げる取り組みを行っていることを嬉しく思います。弊社のScaleXプラットフォームは、アクセスが容易で使いやすい、ハードウェアのベンチマーキング向け環境を実現しており、新しいハードウェアの導入後、すぐにテストを実施することを可能にします」

IBMクラウドのGPUコンピューティングに関する詳細については、https://www.ibm.com/cloud-computing/bluemix/ja/gpu-computing を参照してください。

Rescale社が提供するIBM向けクラウドHPCプラットフォームに関する詳細については、http://www.rescale.com/ibm/ (英語) を参照してください。

IBMクラウドについて
詳細については、http://www.ibm.com/cloud-computing (US) を参照してください。

[1] Research and Markets: Artificial Intelligence Market by Technology (Deep Learning, Robotics, Digital Personal Assistant, Querying Method, Natural Language Processing, Context Aware Processing), Offering, End-User Industry, and Geography - Global Forecast to 2022(2016年11月)

IBMのベンチマーク・テストは、以下の条件下で実施されました。

Caffe-1.0.0-rc5フレームワーク、CUDAバージョン8.0.61、NCCLバージョン1.3.4、cuDNNバージョン6.0.20、およびCUDAドライバー・バージョン375.51でVGG-16ディープ・ニューラル・ネットワークを実行するBluemixベア・メタル・サーバー(Dual Xeon E5-2690v4プロセッサー搭載)で、2つのNVIDIA Tesla P100 GPU PCIeカード(合計2つのP100 GPUコア)を利用しています。また、ILSVRC(画像分類コンテスト)のデータセットを利用しています。トレーニングのバッチ・サイズは、NVIDIA Tesla P100 GPUカードでより多くのメモリー容量を利用できるように、CPUコアあたり102枚の画像に最大化しています。

Caffe-1.0.0-rc5フレームワーク、CUDAバージョン8.0.61、NCCLバージョン1.3.4、cuDNNバージョン6.0.20、およびCUDAドライバー・バージョン375.51でVGG-16ディープ・ニューラル・ネットワークを実行するBluemixベア・メタル・サーバー(Dual Xeon E5-2690v4プロセッサー搭載)で、2つのNVIDIA Tesla K80 GPU PCIeカード(合計4つのK80 GPUコア)を利用しています。また、ILSVRC(画像分類コンテスト)のデータセットを利用しています。トレーニングのバッチ・サイズは、NVIDIA Tesla K80 GPU カードですべてのメモリー容量を利用できるように、CPUコアあたり67枚の画像に最大化しています。

Rescale社のパフォーマンス・ベンチマーク・テストは、以下の条件下で実施されました。

  • TensorFlow 1.0にてILSVRCのデータセットに関するInceptionV3ディープ・ニューラル・ネットワークを実行するBluemixベア・メタル・サーバーで、2つのNVIDIA Tesla P100 GPU PCIeカード(合計2つのP100 GPUコア)を利用しています。
  • TensorFlow 1.0にてILSVRCのデータセットに関するInceptionV3ディープ・ニューラル・ネットワークを実行するBluemixベア・メタル・サーバーで、2つのNVIDIA Tesla K80 GPU PCIeカード(合計4つのK80 GPUコア)を利用しています。

パフォーマンスは、これらの構成の一部を変更すると、異なる結果になる場合もあります。

当報道資料は、2017年5月8日(現地時間)にIBM Corporationが発表したプレスリリースの抄訳です。原文は下記URLを参照ください。
http://www.ibm.com/press/us/en/pressrelease/52315.wss (US)

Release Categories