ニュースリリース

基盤モデルに関する政策立案者への提言

2023年06月13日

著者:IBM 最高プライバシー&トラスト責任者 クリスティーナ・モンゴメリー(Christina Montgomery)、IBM research AI倫理グローバル・リーダー フランチェスカ・ロッシ(Francesca Rossi)、IBM Policy Lab シニア・フェロー ジョシュア・ニュー(Joshua New)

 

ここ数年、いやここ数カ月、AIの躍進はめまぐるしいものがあります。人間と同じように文章を作成できるAI、文章からリアルな画像や動画を作成できるAI、数百種類のタスクをこなすAIは、その高い性能と創造性、そして場合によっては専門知識をほとんど持たずに誰でも使えるということで人々の関心を集めています。

 

このようなAIの波は、「基盤モデル」と呼ばれるものに起因しています。その名の通り、基盤モデルは様々なAIシステムの基礎となるものです。機械学習の手法を用い、ある状況について学習した情報を別の状況に適用することができるモデルです。必要なデータ量は、一般的な人があるタスクから別のタスクに理解を移すのに必要な量よりもかなり多いのですが、結果は比較的似ています。例えば、料理の勉強に十分な時間をかければ、それほど苦労することなく、ほとんどすべての料理の作り方を理解し、新しい料理を考案することもできるようになります。

 

このようなAIの波は、これまでのAIの主流であったタスクに特化したモデルに取って代わろうとするものです。そして、基盤モデルが経済や社会にもたらす潜在的なメリットは莫大です。一方で、新たな、あるいは予期せぬ形で危害をもたらす可能性についても懸念されており、既存の規制の枠組みがこうした危害から保護するためのものであるかどうかについて、国民や政策立案者に疑問を投げかけています。政策立案者は、AIを規制するためには、リスクと文脈に基づくアプローチが、基盤モデルがもたらすリスクを含むすべてのAIのリスクを最小化する最も効果的な戦略であり続けることだと理解し、これらの懸念に対処するために生産的なステップを踏むべきです。

 

基盤モデルの利点

印刷機、蒸気機関、コンピューターと同様に、基盤モデルの有用性は、経済全体に広く適用でき、多くの波及効果を持つ汎用的な技術としてのAIの可能性を確固たるものにしています。しかし、どのような新興技術であっても、基盤モデルの潜在的な便益をすべて確実に特定することは不可能です。なぜなら、社会や経済への統合が進むにつれて、新たなユースケースが出現するからです。しかし、基盤モデルがどれほどインパクトのあるものになるかについては、すでに明確な示唆が得られています。

 

基盤モデルが、人類が直面する最も困難な問題の解決に貢献することは確かです。例えば、新薬の候補となる分子の特定や、新しいバッテリー技術に適した材料の特定には、化学に関する高度な知識と、さまざまな分子への時間をかけたスクリーニングと評価が必要です。IBMのMoLFormer-XLは、11億個の分子に関するデータで訓練された基盤モデルで、科学者が分子の3D構造を迅速に予測し、血液脳関門を通過する能力などの物理的特性を推論するのに役立ちます。IBMは最近、Modernaとの提携を発表し、MoLFormerモデルを使用して、より優れたmRNA医薬品の設計を支援します。また、IBMはNASAと提携し、気候変動対策への取り組みに役立つ地理空間衛星データを、基盤モデルを使って解析しています。このような応用はまだ始まったばかりですが、医療や気候変動など、差し迫った問題の進展を急速に加速させる可能性を秘めています。

 

基盤モデルのほかの有望な応用例として、ユーザーがコードやテキスト、その他のメディアを迅速に生成できる生産性向上支援ツールを提供することが挙げられます。時間を要する作業を部分的に自動化することは、仕事上でも個人的にも有益であり、生産性を高めながら、より困難な作業や楽しい作業に注意を向けることができます。

 

例えば、デロイトの調査によると、コード生成ツールを使用した開発者は、開発速度を20%向上させることができたという結果が出ています。また、こうしたアプリケーションを使うことで、特定の種類の仕事をより多くの人が利用しやすくすることもできます。例えば、生成AIツールを使用する中小企業は、比較的少ない技術力やリソースで、ウェブサイトやアプリの作成、マーケティング資料の作成、製品の設計を行うことができます。

 

潜在的な便益は非常に大きいですが、基盤モデルの能力を過大評価しないことが重要です。基盤モデルが生み出すことができる本当の便益と害の正しい理解から遠ざかってしまうからです。

 

基盤モデル使用時のリスク

基盤モデルの使用によるリスクは、他の種類のAIと同様なものもありますが、新たなリスクを引き起こしたり、既存のリスクを増幅させたりする可能性もあります。これらは、3つの大きなカテゴリーに分類することができます。

  • インプットに関連する潜在的なリスク
  • アウトプットに関する潜在的なリスク
  • ガバナンス全般に関する潜在的なリスク

 

1. インプット

基盤モデルのインプット (トレーニング・データ、モデルの開発方法に影響を与えるプロセス) に関連する潜在的なリスクは、他の種類のAIとほとんど同じです。例えば、バイアス、トレーニング・データが個人を特定できる情報を含んでいるかどうか、トレーニング・データが「ポイズン」(モデルのパフォーマンスに影響を与えるために意図的に悪意を持って操作されること)されているかどうかに関連するリスクは、基盤モデルに特有のものではありません。

 

基盤モデルによって増幅されるリスクは、モデルの開発に使用されることが多い大量の未整理データに起因する傾向があります。このようなリスクには、トレーニング・データに関する知的財産権や著作権の問題 (ライセンス作品の使用など)、透明性やプライバシーの問題 (開発者や導入者がトレーニング・データに関する情報をどのように開示するか、「忘れられる権利」のようなデータ主体の権利を提供できるかどうかなど) が含まれます。

 

新しい種類のリスクには、AIシステムが生成したデータでモデルを訓練したり再訓練したりすることが含まれますが、それはこれらの訓練が、望ましくない振舞いを永続させたり強化したりする可能性があるからです。また、開発の際に指針とした価値観がモデルの動作に反映される可能性があるので、基盤モデルの開発方法にも注意が必要です。

 

2. アウトプット

基盤モデルのアウトプットに関するリスクは新しいものが主であり、その生成能力に起因することが多くあります。例えば、ミスアライメントが懸念されることがあります。これには、幻覚 (ハルシネーション。虚偽でありながらもっともらしく見えるコンテンツを生成すること) や、有害、憎悪、または虐待的なコンテンツの生成が含まれます。

 

また、基盤モデルは、偽情報を流したり、人を欺くコンテンツを生成するなど、悪意のある目的のために意図的に設計または使用される可能性があります。基盤モデルへの不正な攻撃に対する堅牢性にも新たな挑戦があります。プロンプト・インジェクション (ユーザーがモデルを騙して、実行を禁止するように制御されているタスクを実行させること) のような技術は、生成AIが提供する新しい機能に直接関連しています。

 

3. 一般的なガバナンス

基盤モデルは、その開発・導入方法に関連して、いくつかの新しいガバナンスの課題を提起しています。まず、サイズが大きいほどモデルの性能が高まりますが、その開発と運用には非常に大きな計算リソースとエネルギーが必要になります。

 

第二に、開発者と導入者の関係が複雑であるため、AIのバリューチェーンに沿ってどのように責任を割り振るべきかについて、混乱を招く可能性があります。例えば、一般的なビジネス・モデルでは、開発者が導入者に基盤モデルを提供し、導入者は実際のアプリケーションの特定のユースケースに合わせてモデルを微調整してから導入します。パフォーマンス上の問題が確認された場合、どこに是正措置を講じるべきか、また誰がその責任を負うべきかを判断するのは困難な場合があります。

 

最後に、このバリューチェーンが複雑であるため、基盤モデルやその下流のアプリケーションの所有者を決定することが困難な場合があります。

 

リスクに基づくアプローチ

AIガバナンスの重要な原則の1つは、政策立案者がAIシステムを規制するためにリスクベースのアプローチを採用することです。

 

AIの用途が異なれば、危害をもたらす可能性も大きく異なり、規制の義務は、関連するリスクのレベルに比例したものであるべきです。例えば、消費者にテレビ番組を勧めるためのAIシステムであれば、危害を加えるリスクはほとんどありませんが、求人の応募を審査するAIシステムは、その人の経済的機会に多大な影響を与える可能性があります。後者の場合、システムが求職者を不当に差別するリスクを低減するために、透明性、正確性、公平性についての高い基準が適切でしょう。前者の場合は、そのような要件はほとんど利益をもたらしません。

 

世界中の政策立案者がこのようなアプローチを支持しており、AIガバナンスのための主要な政策フレームワークでは、AIシステムがもたらすリスクのレベルに基づいて監視を優先しています。例えば、以下のようなものが挙げられます。

 

  • 欧州連合 (EU) のAI規則案は、AIシステムがもたらす可能性のあるリスクを、その用途に応じて、「許容できないリスク」から「低リスクまたは最小リスク」までの階層に分けて定めています。規制義務は、脆弱な集団を搾取する可能性が大きいシステムの全面的な禁止や、基本的人権に影響を与えるシステムに対するデータ・ガバナンス、透明性、人間の監視の要件など、異なる文脈でリスク・レベルに比例して作成されています。
  • 米国では、米国国立標準技術研究所 (NIST) のAIリスクマネジメント・フレームワークは、リスクの優先順位付けの原則を中心としており、より高いリスクをもたらすAIシステムにはより強いリスク管理が必要であるとしています。また、AIシステムがもたらすリスクは、それが導入される場所や方法によって、文脈が非常に異なることも認識されています。このフレームワークは、正式な規制義務を定めるものではありませんが、責任あるAIガバナンスの現実的な実践例から情報を得て、将来の政策立案の基礎とするのに役立ちます。
  • シンガポールでは、規制当局が「人工知能ガバナンスのモデル・フレームワーク」を開発し、企業が適切なガバナンス対策を講じた上でAIシステムを導入できるよう支援しています。このフレームワークは、リスクベースのアプローチを用いて、AIに対するステークホルダーの信頼を促進するための最も効果的な機能を特定するとともに、潜在的なAIの有害のリスクと深刻度は、その適用の文脈によって異なることを認識しています。

 

AIシステムがもたらすリスクに合わせた規制を行うことで、高いレベルの保護を的確に適用しつつ、柔軟でダイナミックな規制の枠組みを可能にします。不必要な規制の負担を最小限に抑え、経済全体へのAIの導入率を高め、基礎となる技術に関係なく強固な消費者保護を確保することができるのです。また、技術に対する中立性は、あらゆる規則制定が将来にわたって有効であることを保証するものであり、極めて重要です。

 

基盤モデルの普及と、それらがAIのバリューチェーンにもたらす複雑性に伴い、リスクベースのアプローチから逸脱することを求める意見もあります。つまり彼らは、基盤モデルは多種多様な用途に適応可能であり、その中には有害または高リスクなものもあり、技術そのものが高リスクであると考えるべきだと主張しています。そして、基盤モデルを用いて構築されたAIシステムの導入者は、必ずしも基盤モデルの開発をコントロールしているわけではないのだから、(彼らだけが責任を負うのではなく)基盤モデルの開発者も下流アプリケーションの規制義務を満たすための責任の一部を負うべきであると主張しています。この意見は、重大な誤りでしょう。

 

リスクベースのアプローチにより、導入するAIシステムが基盤モデルを使用しているか否かにかかわらず、特定のユースケースに関連する規制要件に準拠していることを保証する責任を、AI導入者が理解していることを確実にできます。もし、導入者がリスクの高い状況で基盤モデルを導入する場合、そのために必要なあらゆる義務を遵守する必要があります。導入者は、このような必要性を開発者に伝え、適切な安全策を講じることができます。開発者は、潜在的なアプリケーションをすべて予測することはできず、考えられるすべてのリスクを特定し軽減することはできないため、下流のアプリケーションについて開発者に責任を負わせることは、コンプライアンスを不可能にする可能性につながります。恣意的に大きな規制負担を課すことは、技術革新を妨げ、低リスクの領域で技術が提供できる利益を制限することになります。

 

政策立案者への提言

政策立案者が基盤モデルに関する懸念に有意義に対処する最善の方法は、AI政策の枠組みがリスクベースで、AIシステムの導入者に適切に焦点を当てたものであるものにすることです。これにより、基盤モデルに基づくものを含むすべてのAIシステムが、リスクを最小化するための正確かつ効果的なガバナンスの対象となることが保証されます。政策立案者が生産的な方法で基盤モデルがもたらす新たなリスクに対処するための機会がいくつかあります。

 

1. 透明性の促進

基盤モデルの導入者は、責任ある行動をとり、関連する規制上の義務を果たすことができるよう、モデルについて十分な理解と可視性を持つべきです。基盤モデルのリスク管理、データ・ガバナンス、技術文書、記録保存、透明性、人間の監視、正確性、サイバーセキュリティーに関する情報は、特定のモデルが特定の文脈で使用することが適切かどうかを判断する上で重要です。

 

そのために、IBMは、より良いAIガバナンスを促進し、AIモデルやサービスの作成方法に関する関連情報を導入者やユーザーに提供するためのツール「AI FactSheets」を使用します。FactSheetsは、トレーニング・データ、パフォーマンス・メトリクス、バイアスの評価、エネルギー消費量など、基盤モデルに関するさまざまな有用な情報を提供することができます。FactSheetsは、さまざまな顧客やAIモデルのニーズに合わせて調整できる柔軟なツールであり、多くの業界で使用されている「サプライヤー適合宣言 (Supplier's Declaration of Conformity)」に倣ったものです。

 

政策立案者は、AI開発者に対して、FactSheetsのような文書を提供するための透明性要件を正式に定めるべきであり、どのような情報を含めるべきかについてのベスト・プラクティスを開発することも含まれます。そうすることで、基盤モデルがもたらすリスクを軽減し、コンプライアンスを簡素化するのに大きく貢献するでしょう。

 

さらに、政策立案者は、基盤モデルが特定の文脈で使用されている場合に、導入者が消費者に開示するための要件を策定すべきです。このような要件は、AIアプリケーションのリスク・レベルに比例したものであるべきです。

 

2. 柔軟なアプローチを活用する

政策立案者は、AIに関するリスクベースの規制フレームワークを開発する際に、柔軟なソフトロー・アプローチがAIガバナンスにもたらす価値も認識すべきです。これは特に、AIのバリューチェーン上のさまざまな関係者に対してどのように責任を割り当てるべきかを明確にすることに関連します。例えば、AIシステムの性能に対する責任に関する問題は、開発者と導入者の間の契約手段を通じて対処するのが一般的です。また、開発者が、AIシステムの導入後に、基礎となる基盤モデルの性能問題を解決することを規定することも適切です。生成AIの潜在的な用途が多様であり、AIの開発者と導入者が持ちたい制御のレベルが異なることを考えると、政策立案者は、これらの関係者が責任の所在を契約で明確にし、交渉できるようにする必要があります。

 

また、政策立案者は、共通の定義、リスク管理システムの仕様、リスク分類基準、および効果的なAIガバナンスの他の要素の確立に焦点を当てた国内および国際標準化作業を支援する必要があります。

 

3. 異なる種類のビジネス・モデルを区別する

基盤モデルがもたらすリスクの種類と深刻度は、それがどこでどのように展開されるかに依存します。例えば、従業員が社内ポリシーやガイダンスを理解するために使用する企業向けチャットボットは、攻撃的または予測不可能な出力を生成し、職場の安全性や従業員が正確なコンプライアンス情報にアクセスできるかどうかに関する懸念を生じさせる可能性があります。このアプリケーションのリスク・プロファイルは、チャットボットが消費者向けであった場合、その行動にさらされる人数がはるかに多く、未成年者も含まれる可能性があるため、大きく異なるでしょう。多くの場合、政策立案者は、ウェブ検索を補強するための生成AIなどのオープン・ドメインのアプリケーションと、企業向けAIアシスタントなどのクローズド・ドメインのアプリケーションとを区別することが適切でしょう。企業向けチャットボットのようなクローズド・ドメインのアプリケーションは、重大なリスクをもたらす可能性がありますが、AIシステムの機能が限定的であるため、リスクの範囲が限定されます。これとは対照的に、オープン・ドメインのアプリケーションは、より広範なデータに基づいて学習され、より幅広い出力が可能であるため、より多様でより強いリスクを引き起こす可能性があります。

 

さらに、AIのバリューチェーン上のさまざまな関係者は、AIシステムをどのように展開するかについて、異なるレベルのコントロールと責任を持っており、規制の負担の分配はこれを反映する必要があります。例えば、政策立案者は開発者と導入者を区別する必要があります。前述のように、開発者はAI FactSheetsのような文書を提供することを求められるべきです。しかし、規制の焦点は、基盤モデルを微調整し、AIシステムを世に送り出す導入者 (AIバリューチェーンの末端) に置かれるべきです。導入者は、いつ、どこで、どのようにAIシステムを導入するかについて最終的な決定権を持っており、リスクに対処する上で最適な立場にあるからです。

 

4. 新たなリスクを注意深く研究する

基盤モデルは、実質的に広く展開されていない初期のテクノロジーです。AIがより強力になり、経済や社会に統合されるにつれ、新たなリスクが出現する可能性があり、予想されるリスクは顕在化せず、社会規範や市場の力によって、政策当局の介入を必要とせずに特定のリスクを軽減する可能性があります。AIに関する規制の枠組みを整備することに加え、政策立案者は、ますます強力になるAIがもたらす新たなリスクを特定し理解するために、多くの資源を使うべきです。

 

特に、研究および合意形成の強化から恩恵を受けるであろうトピックの1つは、生成AIがもたらす知的財産の課題の可能性、特に所有権、ライセンス、および下流の義務に関する混乱です。政策立案者は、産業界、アーティスト、コンテンツ・クリエイター、その他の関連するステークホルダーと緊密に連携して、このような問題をよりよく理解し、知的財産権とイノベーションを保護するための明確な法的指針を開発すべきです。これらのトピックがイノベーションと競争にとってどれほど重大な意味を持つかを考えると、その場限りの混乱に対処するために動きの遅い訴訟を待つことは望ましくありません。

 

新たなリスクを研究するためのもう一つの重要な要素は、AIシステムの開発と評価に必要な技術基盤へのアクセスです。基盤モデルの開発には大量の計算能力が必要であり、AIシステムの精査に関心を持つ小規模な研究所や大学、その他の関係者にとってはコスト的に困難な場合があります。政策立案者は、共通の研究インフラを構築するために投資すべきです。例えば、米国の国家AI研究資源タスクフォースでは、コンピューター、データ、トレーニング、ソフトウェア資源など、この研究を実施するために必要な技術資源に22億5000万ドルを投資することを推奨しています。

 

最後に、政策立案者は、基盤モデルの科学的評価方法の開発を支援すべきです。AIシステムの性能、バイアス、精度、その他の重要な要素を測定するために設計された多くの評価基準がありますが、生成AIはこれらの評価基準を信頼できない、あるいは効果がないものにする可能性があります。政策立案者も産業界も、技術自体の進歩を優先するのと同様に、評価手法の進歩を優先すべきです。

 

結論

基盤モデルがもたらす素晴らしい利益を考えると、その潜在的なリスクから経済と社会を効果的に保護することは、この技術が善のための力であることを保証することにつながります。 政策立案者は、AIを管理するためのアプローチがリスクベースかつ技術に対して中立であることを保証しつつ、基盤モデルのリスクをよりよく理解し、軽減するために早急に行動すべきです。

 

 

用語解説

基盤モデルのメリットとリスクを理解し、対処するための障壁は、多くの定義が広く合意されていないことです。研究者、産業界、政策立案者、その他の関係者がコンセンサスを得るには時間がかかるでしょう。

 

人工知能(AI): AIはコンピューター・サイエンスの一分野であり、人間の知性が必要とされる問題をコンピュータや機械を活用して解決することに焦点を当てています。AIには、推論、最適化、知識表現など、さまざまな技術が含まれます。機械学習は、過去10年間におけるAIの復活の原因となった技術の一つです。機械学習は、データに対してアルゴリズムを学習させることで、タスクの実行を学習させるものです。

AI導入者: AIを導入する人、または組織で、自社または他社が開発したAIシステムの全部または一部を使用すること。

AI開発者: 人工知能のモデルやシステムを作成し、自社または他社に提供することを目的とする人または組織。

AIモデル: タスクを実行するために、AI技術(典型的には機械学習)を用いて構築されたアルゴリズム。

AIシステム: 経済協力開発機構(OECD)が定義する「人間が定義した特定の目的に対して、現実または仮想環境に影響を与える予測、推奨、または決定を行うことができる機械ベースのシステム」。AIシステムは、特定の機能を達成するために導入された完全なアプリケーションです。AIシステムは、AIモデル、追加のトレーニングやデータ、ツール、その他の修正・カスタマイズなど、さまざまなコンポーネントで構成されています。

基盤モデル: 下流のさまざまなタスクに適応できるAIモデル。基盤モデルは、通常、ラベルのないデータで自己教師あり学習手法を使用して訓練された大規模な(例えば数十億のパラメータ)モデルです。すべての基盤モデルは生成AIを使用して構築されているため、コンテンツを生成する能力を備えていますが、この能力を使用しない方法で使用することも可能です。基盤モデルは、"汎用AI "と呼ばれることもあります。

生成AI:コンテンツを生成することができるAI技術。音声、コード、画像、テキスト、シミュレーション、3Dオブジェクト、ビデオ、その他のアーティファクトなど、さまざまな種類のコンテンツやデータを生成できるAI技術。

 

当報道資料は、2023年5月1日(現地時間)にIBM Corporationが発表したブログの抄訳です。原文はこちらをご参照ください。

Release Categories