ニュースリリース

次世代IBM Zメインフレーム・システム上でAIを加速させる、IBMの新しいプロセッサー・イノベーション

2024年08月29日
  • 新しいIBM Telum IIプロセッサーとIBM Spyreアクセラレーターにより、大規模言語モデルや生成AIなど、エンタープライズ規模のAI向け機能を強化
  • 先進的なI/Oテクノロジーにより、エネルギー消費量とデータセンターのフットプリントを削減できるように設計された、拡張性の高いI/O サブシステムの実現・簡素化

 

[米国カリフォルニア州パロアルト2024年8月26日 現地時間 発]

IBMは、Hot Chips 2024において、次期IBM Telum® IIプロセッサーとIBM Spyre™アクセラレーターのアーキテクチャーの詳細を公開しました。この新しいテクノロジーは、次世代のIBM Zメインフレーム・システム全体での処理能力を大幅に拡大するように設計され、新しいAIのアンサンブル・メソッドにより、従来のAIモデルと大規模言語AIモデルの併用を加速します。

 

 

大規模言語モデル(LLM)を活用する多くの生成AIプロジェクトが、概念実証から実用化へと移行する中、電力効率が高く、安全性と拡張性に優れたソリューションへの需要が、重要な優先事項として浮上しています。Morgan Stanley社が8月に発表した調査では、生成AIの電力需要は今後数年間で毎年75%増加し、2026年には、2022年のスペインの年間消費量に匹敵するエネルギーを消費する見通しであると予測しています*1。多くのIBMのお客様は、AIワークロードに対して、適切なサイズの基盤モデルとハイブリッド・バイ・デザインのアプローチをサポートするアーキテクチャー上の決定がますます重要になっていると指摘しています。

 

本日発表された主なイノベーションは、以下の通りです。

 

  • IBM Telum II プロセッサー:次世代の IBM Zシステムを強化するために設計された新しいIBMチップで、周波数、メモリー容量が増加し、キャッシュ容量は40%増加し、統合型AI アクセラレーター・コア、および第 1 世代 Telum チップと比較してコヒーレントに接続されたデータ処理ユニット(DPU)を特長としています。この新しいプロセッサーは、LLM向けのエンタープライズ・コンピューティング・ソリューションをサポートし、業界の複雑なトランザクション・ニーズに対応することが期待されています。

 

  • I/Oアクセラレーション・ユニット:Telum II プロセッサー・チップに搭載された全く新しいデータ処理ユニット(DPU)で、メインフレーム上のネットワークおよびストレージにおける複雑な I/Oプロトコルを高速化するように設計されています。 DPU はシステム操作を簡素化し、主要コンポーネントのパフォーマンスを向上します。

 

  • IBM Spyreアクセラレーター:Telum IIプロセッサーを補完する、追加のAIコンピューティング能力を提供します。Telum IIとSpyreチップが連携することで、AIモデリングのアンサンブル手法(複数の機械学習またはディープラーニングAIモデルをエンコーダーLLMと組み合わせる手法)をサポートする拡張性の高いアーキテクチャーを形成します。各モデルのアーキテクチャーの長所を活用することで、アンサンブルAIは個々のモデルよりも正確で安定した結果を提供できる可能性があります。IBM Spyreアクセラレーター・チップは、2024年のHot Chipsカンファレンスでプレビューされ、アドオン・オプションとして提供される予定です。各アクセラレーター・チップは75ワットのPCIeアダプターを介して接続され、IBM Researchと共同開発された技術に基づいています。他のPCIeカードと同様に、Spyreアクセラレーターはお客様のニーズに合わせて拡張可能です。

 

IBM Z / LinuxONEプロダクト・マネジメント担当バイス・プレジデントのティナ・タルキニオ(Tina Tarquinio)は、次のように述べています。「IBMの堅牢な多世代ロードマップにより、AIの需要の高まりを含むテクノロジーのトレンドを常に先取りできる体制が整っています。Telum IIプロセッサーと Spyreアクセラレーターは、高性能で安全、かつ電力効率の高いエンタープライズ・コンピューティング・ソリューションを提供できるように設計されています。長年の開発期間を経て、これらのイノベーションは次世代の IBM Zプラットフォームに導入される予定であり、お客様はLLMと生成AIを大規模に活用できるようになります」

 

Telum IIプロセッサーとIBM Spyreアクセラレーターは、IBMの長年の製造パートナーであるSamsung Foundryが製造し、同社の高性能かつ電力効率に優れた5nmプロセス・ノード上に構築されます。両社は連携して、ビジネス価値の最大化と新たな競争優位性の創出を目的とした、AIを活用した幅広い先進的なユースケースをサポートします。AIのアンサンブル・メソッドにより、お客様は予測結果をより迅速かつ正確に得ることができます。本日発表された処理能力の統合により、生成AIを活用したユースケースへの適用を加速します。その例は以下の通りです。

 

  • 保険金請求詐欺の検出:LLMと従来のニューラル・ネットワークを組み合わせてパフォーマンスと精度を向上させたアンサンブルAIにより、住宅保険請求の詐欺検出を強化します。
  • 高度なマネーロンダリング対策:疑わしい金融取引を高度に検知し、規制要件へのコンプライアンスをサポートし、金融犯罪のリスクを軽減します。
  • AIアシスタント:アプリケーション・ライフサイクルの加速、知識と専門性の移転、コードの説明、変換などを推進します。

 

 

仕様およびパフォーマンス指標:

Telum IIプロセッサー:5.5GHzで動作する8つの高性能コアを搭載し、各コアに36MBのL2キャッシュを備え、オンチップ・キャッシュ容量は40%増の合計360MBです。プロセッサー・ドロワーごとの仮想レベル4キャッシュは2.88GBで、前世代より40%増加しています。統合型AIアクセラレーターは、低レイテンシーで高スループットのトランザクション内AI推論を可能にし、例えば金融取引中の不正検出を強化します。また、前世代と比較してチップあたりの演算能力を4倍に向上させます。

 

新しいI/Oアクセラレーション・ユニットDPUは、Telum IIチップに統合されています。I/O密度を50%向上させ、データ処理を改善できるように設計されています。この進化により、IBM Zの全体的な効率性と拡張性が向上し、今日のビジネスにおける大規模なAIワークロードやデータ集約型アプリケーションの処理に最適なものとなります。

 

Spyreアクセラレーター:Hot Chips 2024では、複雑なAIモデルや生成AIのユースケースに対応した拡張可能な機能を提供する、専用のエンタープライズ・グレードのアクセラレーターが展示されています。最大1TBのメモリーを搭載し、通常のI/O ドロワーに搭載する8枚のカードで連携して動作するように設計されています。メインフレーム全体でAIモデルのワークロードをサポートできるよう、カード1枚あたりの消費電力は75W以下に抑えられています。各チップには、低レイテンシーと高スループットの両方のAIアプリケーションに対応するint4、int8、fp8、fp16のデータタイプをサポートする32の演算コアが搭載されます。

 

 

提供開始時期

Telum II プロセッサーは、IBM の次世代プラットフォームである IBM Zおよび IBM LinuxONEを支える中央処理装置となります。IBM Zおよび LinuxONEのお客様への提供開始は、 2025 年を予定しています。現在技術プレビュー中の IBM Spyreアクセラレーターも、2025 年に提供を開始する予定です。

 

IBMの将来の方向性および意図に関する記述は、予告なしに変更または撤回される場合があり、目標および目的を表すものであって、確約や保証を表すものではありません。

 

*1出典:Morgan Stanley Research(2024年8月)
 

当報道資料は、2024年8月26日(現地時間)にIBM Corporationが発表したプレスリリースの抄訳をもとにしています。原文はこちらを参照ください。


IBM、IBMロゴ、ibm.com、IBM Zは、米国やその他の国におけるInternational Business Machines Corporationの商標または登録商標です。他の製品名およびサービス名等は、それぞれIBMまたは各社の商標である場合があります。現時点での IBM の商標リストについては、ibm.com/trademarkをご覧ください。

 

Release Categories

プレスリリース、各種取材のお申込みに関するお問い合わせ先(報道関係者様専用窓口)

※報道関係者様以外からのお問い合わせは受け付けておりませんのでご了承ください。

日本IBM 広報代表

電話: 03-3808-5120

e-mail: PRESSREL@jp.ibm.com

 

その他お問い合わせ窓口一覧