ニュースリリース

IBM Cloudが生成AIでビジネス成果を加速

IBMは、NVIDIA社およびRed Hatと協力し、生成AIの利用拡大に向けて高速コンピューティング・プラットフォームを拡張
watsonxのための自動デプロイ可能なアーキテクチャーにより、迅速、容易、かつ安全な利用環境を提供
2024年05月27日

著者:IBM Cloud プロダクト&インダストリー・プラットフォーム ゼネラル・マネージャー ロヒット・バドラニー(Rohit Badlaney)

 

さまざまな業界の企業は、人工知能(AI)がビジネスの革新と成長を支援する新しい方法を常に模索しています。IBMの調査によると、経営陣の多くは、イノベーションを加速するために生成AIを迅速に導入する必要があると考えています。しかし、イノベーションや研究のために生成AIを導入・運用している組織は、現在わずか39%にとどまっています。多くの組織では、効果的にデータを管理し、生成AIに必要な計算集約的なワークロードをどこで処理すべきか、といったスキルやインフラストラクチャーが不足しています。

 

IBM Cloudは、ハイブリッドクラウドAIスタックを組み合わせた力で、お客様の競争力強化を支援しています。IBMの企業向けクラウド・プラットフォームは、最も規制の厳しい業界向けに構築されており、ハイパフォーマンス・コンピューティング(HPC)における実績とあわせ、パフォーマンスを重視するワークロードに必要なAIインフラストラクチャーを支援する独特な立場を確立しています。また、AIのシームレスで安全な統合を可能にするために、いくつかの新しいソリューションや各お客様に合わせたコラボレーションに取り組んでいます。

 

CrushBank社 最高技術責任者(CTO) デビッド・タン(David Tan)氏

「CrushBankにとって、優れた顧客体験を提供することは非常に重要です。クラウドとAIの組み合わせは、この分野で革命的な力を発揮しています。当社のAI Knowledge ManagementプラットフォームにIBM Cloud上のwatsonxを活用することで、窓口担当者はより迅速かつ効果的にお客様に対応できるようになり、解決までにかかる総時間を45%短縮することができました。また、IBMとの協業は、ITの複雑性を軽減すると同時に、セキュリティーとコンプライアンスの目標を達成することにも役立っています」

 

パフォーマンス・インテンシブ・コンピューティングの勢い:AIモデルの学習と実行

過去数年、IBMは生成AIモデルの学習と推論をサポートする様々な製品やサービスを発表してきました。IBM Researchは、NVIDIA A100 Tensor Core GPUを使用し、IBM Cloud上でホストされる、IBM初のAIに最適化されたクラウドネイティブ・スーパーコンピューター「Vela」を発表しました。Velaは、オンデマンドでスケールアップし、同様のインフラストラクチャーをIBM Cloudのデータセンターに容易に展開できるように設計されており、IBMはパートナーと協力して生成AIモデルを学習させることができます。昨年のVelaの主なミッションは、IBMのGraniteモデルを学習させ、AI開発を推進することでした。また、IBMは昨年、IBM Cloud上でNVIDIA社のGPUオファリング(NVIDIA A100 Tensor Core)を提供開始したことも発表しました。お客様はwatsonxのサービスを通じてエンタープライズ・クラスの基盤モデルで推論を行ったり、特定のニーズに応じてGPUaaSとして利用しています。

 

また、IBM ResearchやRed Hatと共同で、生成AIの実装を支援するいくつかの取り組みを行っています。IBM CloudのGPUインフラストラクチャーは、watsonx Graniteモデルの学習や、大規模言語モデル(LLM)への貢献を促進するオープンソースAIプロジェクトであるInstructLabを支援しています。Graniteは、インターネット、学術、コード、法律、金融にまたがる企業の信頼できるデータで学習される、IBMのLLM基盤モデルの旗艦シリーズです。IBM Cloudはまた、Red Hat Enterprise Linux AI(RHEL AI)とRed Hat OpenShift AIプラットフォームのサポートも追加する予定であり、ユーザーは生成AIモデルをよりシームレスに開発、テスト、デプロイできるようになります。

 

Red Hat 生成AI基盤モデル・・プラットフォーム担当バイス・プレジデント 兼 ゼネラル・マネージャー ジョー・フェルナンデス(Joe Fernandes)氏

「より多くの組織で、より多くのユーザーが生成AIのイノベーションにアクセスできるようにする必要があり、それは、LLMに貢献し、連携するための障壁を下げることを意味します。IBMとの協業によって立ち上げたRHEL AIとInstructLabプロジェクトは、特定領域の専門家を含め、より幅広いユーザー・コミュニティーに、ハイブリッドクラウド上のどこにいてもよりアクセスしやすいAIモデルを提供することで、これを実現します」

 

GPUの勢いを土台に:NVIDIA L4およびL40S GPUによる推論

IBMは、IBM CloudにおけるNVIDIA社のGPUオファリングを拡大しており、NVIDIA L40Sを提供する最初のクラウド・プロバイダーの1つです。IBM Cloudはまた、AIと、3Dグラフィックスや動画アプリケーションを含むその他の高速ワークロードの両方をサポートするNVIDIA L4 Tensor Core GPUも提供開始します(※IBM Cloud東京リージョンでも、どちらのGPUもご利用いただけます)。これにより、お客様は、レジリエンシー、パフォーマンス、セキュリティー、コンプライアンスの強化、TCOの削減など、ミッション・クリティカルなワークロードのニーズに対応できるように最適化された、NVIDIA AI Enterpriseソフトウェアを備えた企業向けクラウド・プラットフォームで、これらのGPUインスタンスをオンデマンドで展開できるようになります。

 

VPC およびマネージドな Red Hat OpenShift環境で、 IBM Cloud上のNVIDIA GPUに直接アクセスできるため、お客様は AI の学習、ファイン・チューニング、推論向けに、目的に合ったアクセラレーターを柔軟に選択できます。これにより、AIを利用したアプリケーションの実行コストを削減できます。NVIDIA GPU は、watsonxを含むIBM Cloud上のデータやAIプラットフォーム、サービスと統合することができ、AIの構築、拡張およびガバナンスを支援します。IBM Cloudは、2025年上半期に最新のNVIDIA Blackwellプラットフォームへの対応も予定しています。

 

今年後半には、NVIDIA HopperアーキテクチャーをベースとしたNVIDIA H100 GPUを、ワシントンD.C.と独フランクフルトをはじめとする9つのリージョンに追加し、複数のシステムをクラスタリングできるようにする予定です。また、一部のリージョンでは、来年早々にNVIDIA H200 Tensor Core GPUを導入する予定です。

 

デプロイ可能なアーキテクチャーで自動化を加速

IBMは、パートナーとの協業に加え、ソリューション・オファリングの自動化を支援する一連の事前設定済みパターンを備えた、統合されたエンタープライズ・プラットフォームをお客様に提供します。Deployable Architectures (DA) は、IBM Cloud上のIBMオファリング向けに、迅速かつ容易で安全な、事前構成済みのアーキテクチャーのデプロイメントを自動化します。これらの事前構成されたオファリングの使命は、企業や開発者が数時間で目標を達成することを容易にすると同時に、セキュリティーとコンプライアンスの強化を支援することです。デプロイメントのリスクと負担に対処することで、お客様はよりビジネスに集中できるようになります。

 

IBM Cloudは、お客様のためにAIとハイブリッドクラウドのイノベーションを推進することを使命としています。IBMは、独自のモデルを学習するためのインフラストラクチャーとIBM Consultingの優れたスキルを有しており、お客様が具体的なビジネス価値を高め、生成AIの可能性を活用できるハイブリッドクラウド戦略を定義、実行できるように支援します。IBMのソリューションは、企業、開発者、オープンソース・コミュニティーが生成AIを構築、活用する方法を変革できるように設計されています。

 

 

IBM の将来の方向性や意図に関する記述は、予告なく変更または撤回されることがあり、目標や目的のみを表すものです。

 

当報道資料は、2024年5月21日(現地時間)にIBM Corporationが発表したブログの抄訳です。原文はこちらをご参照ください。

Release Categories