ニュースリリース
ディープフェイク対策として政策立案者が今すぐできること
著者:IBM 最高プライバシー&トラスト責任者 クリスティーナ・モンゴメリー(Christina Montgomery)、IBM Policy Lab シニア・フェロー ジョシュア・ニュー(Joshua New)
【米国ワシントン2024年2月28日(現地時間)発】 AIが生成したリアルな音声、動画、画像であるディープフェイクは、人の外観や特性(likeness)などを再現することが可能で、生成AIがもたらす最も差し迫った課題の1つです。悪意ある者が、民主主義を弱体化させたり、アーティストやパフォーマーを搾取したり、一般の人々に嫌がらせや危害を加えるために利用する可能性があるからです。
今必要なのは、技術的解決策と法的解決策の両方です。IBMが 「Tech Accord to Combat Deceptive Use of AI in 2024 Elections(ミュンヘン・テック・アコード)」 に署名し、一般市民を欺き、選挙を弱体化させるためにAIが利用されるリスクを軽減することを誓ったのはそのためです。また、IBMがテクノロジーの有害な応用に的を絞った規制を長年提唱してきた理由もここにあります。
ディープフェイクの害を軽減するために、政策立案者が優先すべき3つの重要事項を以下に概説します。
- 選挙を守る
- クリエイターを守る
- 人々のプライバシーを守る
選挙を守る
民主主義は、国民が自由で公正な選挙に参加できるかどうかにかかっています。残念ながら、悪意のある者はディープフェイクを使用して公務員や候補者になりすまし、この重要な原則を損なうさまざまな方法で有権者を欺くことができます。例えば、ディープフェイクは、いつ、どこで、どのように投票できるかについて有権者を誤解させたり、候補者が物議を醸す発言をしたり、スキャンダラスな活動に参加しているように偽ったりする可能性があります。
政策立案者は、選挙に関連する重大な欺瞞に満ちたディープフェイク・コンテンツの配信を禁止すべきです。例えば、上院議員のKlobuchar氏、Hawley氏、Coons氏、Collins氏によって提出された 「 Protect Elections from Deceptive AI Act(選挙を欺瞞的なAIから守る法)」 は、選挙に影響を与えることを目的として、連邦政府の候補者を政治広告で虚偽に描写した欺瞞的なコンテンツを生成するAIの使用を抑制するものです。その他の政策アプローチとしては、政治広告や資金調達キャンペーンで使用される重大な欺瞞に満ちたAI生成コンテンツの標的となった候補者が、言論の自由の保護を維持したうえで、損害賠償を請求したり、欺瞞的なコンテンツを削除したりできるようにすることが考えられます。
EUでは、IBMは、大規模なインターネット・プラットフォームに不適切なオンライン・コンテンツの削除に関する義務を課すDigital Services Act(デジタル・サービス法)を支持しています。また、欧州委員会が最近発表したガイドラインでは、 「選挙プロセスのシステミック・リスク」 を軽減するために、消費者向けプラットフォームに追加的な要件を提案しています。
クリエイターを守る
ミュージシャン、アーティスト、俳優、そしてあらゆる種類のクリエイターは、その才能、外観や特性を利用して文化を形成し、インスピレーションを与え、楽しませ、生計を立てています。ディープフェイクによって、悪意のある者はクリエイターの外観や特性を悪用して、詐欺的な広告を表示したり、消費者を騙したり、誤解させたり、あるいはクリエイターの才能から利益を得る能力を不当に低下させたりすることができる可能性があります。
政策立案者は、許可なくクリエイターによる功績のディープフェイクを作成した者に責任を負わせ、そのような無許可のコンテンツを故意に広めたプラットフォームに責任を負わせるべきです。一部の法域では、商業利用を目的として特定の個人の外観や特性を再現したものを無断使用することを禁止する、いわゆる 「類似性に関する法(likeness laws)」 がすでに制定されていますが、これらには一貫性がなく、デジタル・レプリカや死亡した人の外見や特性を使用する権利を明確にカバーしているものはほとんどありません。IBMは、このような司法の取り扱いが一貫していないことに鑑み、米国のフェイク禁止法(NO FAKES Act)を支持します。この法律は、本人の同意なしに、第三者によって声や肖像が生成された個人を、連邦政府が保護するものです。
プライバシーを守る
ディープフェイクによって、一般の人々はすでに深刻な被害を受けています。特に、悪意のある者が自分の外観や特性を使って同意のないポルノを作成することは、非常に深刻です。こうした悪用は主に女性を標的にしており、被害者には未成年者も含まれています。また、悪意のある者による、さらなる虐待や恐喝を引き起こす可能性もあります。リベンジ・ポルノとしても知られる親密な画像の同意のない共有は、ディープフェイクの使用によって拡大していますが、何も新しい問題ではありません。しかし、既存の法律には、このような素材を共有したり、共有すると脅したりした悪意のある者の責任を適切に問うものや、AIが生成したコンテンツをしっかりとカバーするものは、ほぼありません。
政策立案者は、AIが生成したコンテンツを含む、同意のない親密な視聴覚コンテンツを公開した者や、そうすると脅迫した者に対して、厳しい刑事責任と民事責任を課すべきです。被害者が未成年の場合は、特に厳しい罰則を科すべきです。米国の議員は、超党派による「親密画像のディープフェイク防止法( Preventing Deepfakes of Intimate Images Act)」を支持・可決させることで、この勧告に基づいて今すぐ行動を起こすことができます。この法案は、AIが生成したコンテンツを含め、同意のない親密なデジタル描写を公開した、または公開すると脅した個人に責任を負わせ、被害者が損害賠償を請求できるようにするものです。この法案は、州レベルのさまざまなリベンジ・ポルノ法では一貫して扱われていない説明責任を連邦レベルで確立するものであり、全米の被害者と個人への保護を強化するものです。
IBMが長年支持しているEU AI法(EU AI Act)は、すでにこの種の問題の多くに対処しており、ディープフェイクをより一般的に対象とし、特定のコンテンツが本物でない場合はそれを明確にする透明性要件を課しています。今後数カ月、政策立案者が同法の実装に向けて検討する際には、同意のない親密な視聴覚コンテンツから個人が確実に保護されるよう、特に注意を払う必要があります。
結論
ディープフェイクによってもたらされる問題を解決するには、法律とテクノロジーの両方の変化を活用した、思慮深い社会全体のアプローチが必要です。テクノロジー企業は、ミュンヘン・テック・アコードやWhite House Voluntary AI Commitments(自発的なAIコミットメント)、カナダのVoluntary Code of Conduct on the Responsible Development and Management of Advanced Generative AI Systems(先進的生成AIシステムの責任ある開発と管理に関する自主的行動規範)などに明記されているような、AIが生成するコンテンツに対処する技術的およびガバナンス上の解決策を追求する責任があります。
IBMは、AIが世界経済と社会にとってプラスの力であり続けるよう、政策立案者がこの機会を捉え、最も重大かつ有害なディープフェイクの3つの利用法を早急に標的にするよう奨励します。
当報道資料は、2024年2月28日(現地時間)にIBM Corporationが発表したブログの抄訳です。原文はこちらをご参照ください。
Release Categories
プレスリリース、各種取材のお申込みに関するお問い合わせ先(報道関係者様専用窓口)
※報道関係者様以外からのお問い合わせは受け付けておりませんのでご了承ください。
日本IBM 広報代表
電話: 03-3808-5120
e-mail: PRESSREL@jp.ibm.com