ニュースリリース
政府と企業は信頼できるAIをどう進めるべきか
著者:IBM会長兼CEO アービンド・クリシュナ(Arvind Krishna)
【米国ニューヨーク州アーモンク-2023年9月13日(現地時間)発】
AIには大きな可能性が見込まれています。AIは人間の生産性を高め、2030年までに16兆ドルという驚異的な価値を生み出すと予測されています。経済成長を促進し、GDPを押し上げるだけでなく、AI能力を効果的に活用する個人や組織に競争力をもたらします。AIはまた、創薬における革新、製造業や食料生産の改善、気候変動への対応など、社会の最も差し迫った課題の解決にも役立つでしょう。
しかし、他の強力なテクノロジーと同様に、AIには悪用やリスクの可能性が伴います。もしAIが責任を持って導入されなければ、特に細心の注意と安全性が必須な分野において、現実の世界に影響を及ぼす可能性があります。これは、私たちが克服しなければならない深刻な課題であり、議会および行政に対して今すぐスマートな規制を制定するよう強く求めるのはまさにこのためです。IBMでは、スマートな規制は3つの中核的な考え方に基づくべきだと考えています。
1)AIアルゴリズムではなく、AIリスクを規制する
リスクの高いAIの利用を規制すべきです。すべてのAI利用が、必ずしも同レベルのリスクを伴うわけではありません。無害とみなすことができるものもあれば、一方で、誤った情報を広めたり、融資の意思決定にバイアスを持ち込んだり、選挙の完全性を損なったりするなど、広範囲に及ぶ影響をもたらすものもあります。AIの用途はそれぞれ異なるため、規制は、AIが導入される状況を考慮し、リスクの高いAIの用途をより注意深く規制する必要があると強く信じています。このようなスマートで精密な規制は有効であり、良い前例があります。半導体業界では、新しいチップの発明に許可は不要です。その代わり、そのチップがいつ、どこで、どのように使用されるかを規制しています。これにより、イノベーションと説明責任の両方が促進されています。同じことがAIにおいても可能だと考えます。
2)AI開発者・導入者は、説明責任を負い、その責任は免れられない
AIを開発・導入する者は、説明責任を負うべきです。政府が重要な役割を果たすのはもちろんですが、それ以外の者も責任を担うべきです。法律では、AI開発者とAI導入者が異なる役割を担っていることを考慮し、AIを開発または導入する状況に対して、それぞれに説明責任を負わせるべきです。例えば、雇用の意思決定にAIを使用する企業は、雇用差別の告発からの免責を主張することはできません。同様に、ソフトウェア開発者が詐欺行為を助長する金融アルゴリズムを作成した場合、それが引き起こす可能性のある損害に対して責任を負うべきだと考えます。新興テクノロジーに関する過去の過ちから学びましょう。通信品位法第230条(セクション230)は教訓であり、相当の注意の有無に関わらず、法的責任に対する広範な盾を作ることはできません。イノベーションと説明責任の適切なバランスを見つけることが不可欠です。
3)AI許認可制度ではなく、オープンなAIイノベーションを支援する
AIに対し、許認可制度を設けるべきではありません。AIの許認可制度は、オープンなイノベーションに深刻な打撃を与え、規制の独占を生み出すリスクがあります。気付かぬうちに、コストを増加させ、イノベーションを妨げ、小規模なプレーヤーやオープンソースの開発者に不利益をもたらし、少数のプレーヤーの市場力を強固にする結果につながります。そうではなく、AIは、少数ではなく、多数によって、多数のために構築されるべきです。そのためには、活気のあるオープンなAIエコシステムが、競争、イノベーション、スキルアップ、セキュリティーにとって有益です。それは、AIモデルが、数多くの多様で、包摂的な声によって形成されることを保証します。国家AI研究リソース(National Artificial Intelligence Research Resource: NAIRR)への資金提供など、その他の政府の行動も、オープンなAIイノベーション・エコシステムの育成をさらに後押しすると考えます。
IBMの責任あるAI
1世紀以上にわたり、IBMは画期的なテクノロジーの責任ある導入を先導してきました。このことは、そのテクノロジーを導入することによる結果を十分に理解し、必要不可欠なガードレールを提供し、適切な説明責任を確保することができなければ、テクノロジーを一般に提供することはない、ということです。IBMは、イノベーションがもたらす影響に対処することは、イノベーションそのものと同じくらい重要であると考えています。
信頼できる、責任あるAIに対するIBMの約束は、AIモデルの構築と展開に対するアプローチに表れています。基本的に、AIモデルは、そこに用いられたデータを表現したものです。そのためIBMは、AI開発者が信頼できる、責任あるAIを展開できるように、プラットフォームによる包括的なアプローチを採用しています。IBMのwatsonxプラットフォームは、データの取り込みからモデルの開発、展開、そしてモニタリングに至るAIライフサイクル全体で、あらゆるレベルでガバナンスを確保します。これにより、企業は信頼できる、責任ある、説明可能なAIを導入することができます。
イノベーションと責任および信頼のバランス
高まるAIの潮流は、あらゆる所に流れ込む可能性があり、またそうあるべきだと思います。IBMでは、悪用やリスクの可能性に対処しつつ、ビジネスや社会がAIの恩恵を享受できるような一貫したスマートな規制を適用・実施するよう各国政府に働きかけています。IBMは、責任あるAIのパワーを提供する上で極めて重要な役割を果たす用意があり、約束しています。誰もが信頼できるAIの未来を築くために、IBMは自身が担うべき役割を果たしていきたいと考えています。
当報道資料は、2023年9月13日(現地時間)にIBM Corporationが発表したブログの抄訳です。原文はこちらをご参照ください。
Release Categories
プレスリリース、各種取材のお申込みに関するお問い合わせ先(報道関係者様専用窓口)
※報道関係者様以外からのお問い合わせは受け付けておりませんのでご了承ください。
日本IBM 広報代表
電話: 03-3808-5120
e-mail: PRESSREL@jp.ibm.com