ニュースリリース

人工知能(AI)向けに設計された業界最先端のサーバーを発表

x86サーバーの約4倍のディープ・ラーニング・フレームワーク・パフォーマンスを実現する新しいPower Systems(1) AIのワークロード用に設計されたPOWER9プロセッサー
Googleおよび米国エネルギー省の「Summit」および「Sierra」がPOWER9を採用
2017年12月 6日

TOKYO - 06 12 2017:
2017年12月6日

[米国ニューヨーク州アーモンク - 2017年12月5日(現地時間)発]IBM(NYSE:IBM)は本日、POWER9プロセッサーを搭載した次世代のPower Systemsサーバーを発表しました。コンピューティング能力を駆使するAIワークロード向けに設計された新しいPOWER9システムは、ディープ・ラーニング・フレームワークの機械学習時間をx86サーバーと比較して4倍近く2高速化することができます。これにより、企業はより信頼性の高いAIアプリケーションを短期間に構築できるようになります。

新しいPOWER9ベースのPower System AC922には、PCI-Express 4.0、次世代のNVIDIA NVLink、OpenCAPIが初めて搭載されます。この組み合わせにより、PCI-E 3.0ベースのx86システムに比べて9.5倍3データ転送を高速化できるという計算結果が得られました。

AC922は、Chainer、TensorFlow、Caffeなどの一般的なAIフレームワークとKineticaなどの高速データベースにおけるパフォーマンスの向上を実証すべく設計されました。

この結果、データ・サイエンティストは、科学研究、リアルタイム不正検出、信用リスク分析でディープ・ラーニングによる洞察を得るためのアプリケーションを迅速に開発できます。

POWER9は、間もなく世界で最も強力なスーパーコンピューターになると予測される、米国エネルギー省の「Summit」および「Sierra」の中枢部で使用され、Googleでも採用されています。

Google Platforms担当バイス・プレジデント Bart Sano氏は、次のように述べています。「Googleは、IBMによる最新のPOWERテクノロジーの開発が進んだことを高く評価しています。POWER9 CPU、OpenCAPI Bus、大容量のメモリーにより、Googleデータ・センターでイノベーションをさらに推進できるようになります。」

IBM Cognitive Systemsのバイス・プレジデント Bob Piccianoは、次のように述べています。「IBMは、AIとコグニティブのワークロード向けに、革新的かつ強力なシステムを構築しました。IBM POWER9システムは、世界中で非常に強力なスーパーコンピューターとして使用されるだけでなく、世界中の企業がかつてない洞察を得てビジネスの規模を拡大し、科学的な発見を推進し、革新的なビジネス成果を達成することを支援するために設計されています。」

未来を加速するPOWER9
ディープ・ラーニングは急成長している機械学習方式で、膨大なプロセスとデータを高速処理しながら、重要な点を洗い出し、それらを順位付けして蓄積し、分析結果を提供します。

増加するこの需要を満たすべく、IBMは4年前、Linux上のデータ処理量の多いAIとディープ・ラーニングのワークロード向けに、制約のないデータ転送、ストリーミング・センサー、アルゴリズムを管理する新しいアーキテクチャーの構築を目指し、ゼロからPOWER9チップの設計に着手しました。

IBMは、最新のオープン・ソース・イノベーションと最先端のハードウェア/ソフトウェアを実装したインフラストラクチャーを企業に提供できる唯一のベンダーです。

アクセラレーション機能を備えたPowerアーキテクチャー向けに最適化された、ディープ・ラーニング・フレームワークとライブラリーを、IBM PowerAIでご提供しており、データ・サイエンティストは数分でこれを起動し、実行することができます。

また、IBM研究所は、Powerアーキテクチャー向けに幅広いテクノロジーを開発しています。IBM研究員は、PowerAI Distributed Deep Learningツールキット(US)を使用して、ディープ・ラーニングに必要な時間をすでに数日から数時間に短縮しました。

イノベーションを推進するオープンなエコシステムの構築
AI時代には、極めて強力な処理能力と比類ないスピードが要求されます。また、テクノロジーとツールを提供する革新的な企業によるオープンなエコシステムも必要です。

IBMは、300社を超えるOpenPOWER FoundationとOpenCAPI Consortiumのメンバーから構成され急成長するオープンなコミュニティーを後援し、イノベーションを支援しています。

1 この結果(3.7倍)は、Enlarged Imagenet Dataset(2560x2560)上でEnlarged GoogleNetモデルを1,000回繰り返し実行したIBM社内の計測に基づいています。ハードウェア:Power System AC922、40コア(2 x 20cチップ)、POWER9(NVLink 2.0、2.25 GHz、1024 GBメモリー、4xTesla V100 GPU)、Red Hat Enterprise Linux 7.4 for Power Little Endian (POWER9) with CUDA 9.1/ CUDNN 7)。比較対象スタック:2x Xeon E5-2640 v4、20コア(2 x 10cチップ)/40スレッド、Intel Xeon E5-2640 v4、2.4 GHz、1024 GBメモリー、4xTesla V100 GPU、Ubuntu 16.04 with CUDA .9.0/ CUDNN 7。
ソフトウェア:Chainerv3/LMS/Out of Core with CUDA 9/CuDNN7(https://github.com/cupy/cupy/pull/694(英語) and https://github.com/chainer/chainer/pull/3762(英語) にあるパッチを適用済み)

2 この結果(3.8倍)は、Enlarged Imagenet Dataset(2240x2240)上でEnlarged GoogleNetモデルを1,000回繰り返し実行したIBM社内の計測に基づいています。ハードウェア:Power System AC922、40コア(2 x 20cチップ)、POWER9(NVLink 2.0、2.25 GHz、1024 GBメモリー、4xTesla V100 GPU)、Red Hat Enterprise Linux 7.4 for Power Little Endian (POWER9) with CUDA 9.1/ CUDNN 7)。比較対象スタック:2x Xeon E5-2640 v4、20コア(2 x 10cチップ)/40スレッド、Intel Xeon E5-2640 v4、2.4 GHz、1024 GBメモリー、4xTesla V100 GPU、Ubuntu 16.04 with CUDA 9.1/ CUDNN 7。
ソフトウェア:IBM Caffe with LMS Source code https://github.com/ibmsoe/caffe/tree/master-lms(英語)

3 x86 PCI Express 3.0(x16)のピーク転送速度:15.75 GB/秒 = 16レーン X 1GB/秒/レーン x 128ビット/130ビット・エンコーディング。
POWER9と次世代のNVIDIA NVLinkのピーク転送速度:150 GB/秒 = 48レーン x 3.2265625 GB/秒 x 64ビット/66ビット・エンコーディング

<関連リンク>
Power System AC922(日本語製品ページ)
https://www.ibm.com/jp-ja/marketplace/power-systems-ac922

高速化された計算能力によってAI時代を担うサーバー
https://www.ibm.com/blogs/systems/jp-ja/accelerated_compute_server/

当報道資料は、2017年12月5日(現地時間)にIBM Corporationが発表したプレスリリースの抄訳です。原文は下記URLを参照ください。
https://newsroom.ibm.com/2017-12-05-IBM-Unveils-Industrys-Most-Advanced-Server-Designed-for-Artificial-Intelligence(US)

POWER9 関連画像
https://www.flickr.com/photos/ibm_media/albums/72157666979452609(英語)

Release Categories

プレスリリース、各種取材のお申込みに関するお問い合わせ先(報道関係者様専用窓口)

※報道関係者様以外からのお問い合わせは受け付けておりませんのでご了承ください。

日本IBM 広報代表

電話: 03-3808-5120

e-mail: PRESSREL@jp.ibm.com

 

その他お問い合わせ窓口一覧