本文へ移動

信頼できるAIを社会へ実装していくために
~AIガバナンスの専門家と実践企業の推進リーダーが語る~

 クルマの自動運転。問い合わせへの自動応答。高度なデータ分析を駆使したビジネスの改革など、社会全体でAI(人工知能)の利活用が進んでいる。一方、AIが導いた結果が差別を含んでいたり、プライバシーへの配慮を欠くものだったり、トラブルやインシデントも報告されている。AIを適切に利活用していくためには、どのような取り組みが必要か。デジタルガバナンスの専門家や企業で取り組みを推進するリーダーに話を聞いた。

SPEAKER 話し手

スマートガバナンス株式会社

羽深 宏樹 氏

代表取締役CEO

弁護士(日本・ニューヨーク州)、京都大学法学研究科特任教授。イノベーションを社会実装するための政策形成や企業ガバナンスの研究及びアドバイスに携わっている。経済産業省在職中の2020年に、世界経済フォーラムおよびApoliticalによって、「公共部門を変革する世界で最も影響力のある50人」に選出される。

NEC

徳島 大介

デジタルトラスト推進部
ディレクター

データ流通・利活用に関し、法制度・倫理など総合的な観点から全社をけん引する専門組織としてデジタルトラスト推進部の前身となるデータ流通戦略室の立ち上げに参画。AIやデータ利活用におけるプライバシーなど人権への対応に従事。

ソニーグループ株式会社

今田 俊一 氏

AIコラボレーション・オフィス AI倫理室 統括課長

ソニーグループ全体にサポートを提供する組織であるAI倫理室をシニアマネージャーとして統括。AI倫理ガイドラインの推進を担当する。直近では、エレクトロニクス製品の品質管理システムの一部として、AI倫理評価プロセスの立ち上げと運用に関する取り組みを主導している。

AIを適切に社会に実装することの重要性

──羽深さんは、経済産業省にてAIを含むデジタル社会のガバナンスに関する検討に携わられた経歴をお持ちです。なぜAIの利用を統制する必要があるのでしょうか。

スマートガバナンス 羽深氏(以下、羽深氏):新しい技術の実装には、必ず新しいリスクが伴います。そのリスクが適切にマネジメントされて初めて、新しい技術が社会に真の価値をもたらします。特にAI(人工知能)に対しては、その社会的インパクトの大きさもあり、ガバナンスに向けた意識が世界中で高まっています。

 例えば、自動運転車が死亡事故を起こしたニュースを聞いたことがある人は多いのではないでしょうか。ほかにも医療アドバイスを行うボットが患者に自殺をほのめかした、アフリカ系女性の顔画像をゴリラと誤認識した、金融分野ではアルゴリズム取引を行うAIが談合のような取引をしてしまったという事例もあります。

──なぜAIは、そのような結果を導き出したのでしょうか。

羽深氏:AIと呼ばれる技術は複数ありますが、その中の1つであるディープラーニングは膨大なデータを学習し、そこからルールやパターンを発見する技術です。ですから、学習したデータに差別的な取扱いなどのバイアスがあれば、それが分析結果に反映されてしまいます。また、ディープラーニングは、関数を深く多層に組み込むことで、人間の直感では理解しがたい特徴量を見つけ出すものなので、実際にどのような結果が導かれるかを事前に予測したり、後から理由を説明したりすることが困難だという事情もあります。

 このような状況を踏まえて、2018年ごろから世界中の多くの組織がAIのリスクをマネジメントするための原則の策定に取り組んでいます。その多くが「プライバシー」「アカウンタビリティ」「安全性」「透明性・説明可能性」「公平性・非差別的」「人間によるコントロール」「専門家責任」「人間的価値の向上」「人権」といった視点を原則に盛り込んでいます。今後、AIを活用する企業は、これらの原則や規制を遵守しなければ、民事責任を問われる、刑事罰を課される、規制当局から制裁を受ける、社会からの評判を下げるといった事態に直面する可能性があります。

──ではリスクを伴う技術に対しては、どのように向き合えばよいでしょうか?

羽深氏:不安を過大に見過ぎてもいけません。大幅な自動化や機械化など、AIが社会やビジネスにもたらす価値は非常に大きい。リスクを怖がりすぎて、利活用を断念するのは本末転倒です。

NEC 徳島(以下、徳島):同感です。トラブルやインシデントが原因でサービスが終了したり、企業が信頼を大きく損なったりするケースは実際に起こっていますが、AIガバナンスは、単にルールを守るためだけの取り組みでも、事業にブレーキを踏ませる制限でもありません。リスクと向き合い、低減することでAIの価値をしっかりと引き出すため、またAIを社会から受容されるかたちで適切に社会実装し、サービスやビジネスのサステナビリティを担保するための取り組みです。

 NECは「安全・安心・公平・効率という社会価値を創造し、誰もが人間性を十分に発揮できる持続可能な社会の実現を目指します」というPurposeを定義しています。このPurposeを果たすためにもAIガバナンスの取り組みは重要だと考えています。

ソニーグループ 今田氏(以下、今田氏):ソニーは「クリエイティビティとテクノロジーの力で、世界を感動で満たす」というPurposeを定義しています。そのPurposeのもと、すべての人に配慮した製品づくりを行っていくことを目指し、AIリスクの評価と低減を行うAI倫理活動に取り組んでいます。この取り組みを通じて、信頼を価値に変え、競争優位につなげることを目指しています。

AIのリスクと向き合い、その価値を引き出す企業の取り組み

──企業はどのようにAIガバナンスの仕組みを実装していけばよいのでしょうか。

羽深氏:予測が難しい、説明ができない、学習データのバイアスから差別を再現してしまう、精度が高すぎるがゆえにプライバシーを侵害してしまう、ディープフェイクなどに悪用されてしまう──。一言でAIのリスクといっても、さまざまなものがあります。これらを整理して、どこに、どんなリスクがあるのか、所在を明らかにするのがAIガバナンスの第一歩です。

 そのうえで、「リスクが高いものについては人間が監視すればよい」という議論もありますが、最後は人任せということであればそもそもAIを使う必要があるのか疑わしいですし、監視役の人に大きな責任が発生してしまいます。誰かに責任を押し付けるモデルではなく、複数のステークホルダーが責任を共有しながら協力して、社会全体で学んでいくようなAIガバナンスを実践することが重要ではないでしょうか。

図1 AIガバナンス実践のポイント

今田氏:徳島さんがサービスのサステナビリティに触れましたが、サステナブルなサービスを実現するには、サービスをリリースする前の開発段階初期からリスクの芽を摘んでおきたい。先手を打つためにはAIガバナンスの仕組みを製品開発プロセスに実装し、実践しなければなりません。

 ソニーグループは、ゲーム&ネットワークサービス、音楽、映画、エンタテインメント・テクノロジー&サービス、イメージング&センシング・ソリューション、金融などの事業を展開しており、例えばスマホのゲームアプリ、映像の撮影・編集ソリューション、映像や音の再生のクオリティを向上させる製品などにもAIを活用しています。

 AIガバナンスの実装においては、ガイドラインの策定や専門組織の設置、教育・啓発活動、ガイドラインを遵守するためのアセスメントプロセスの品質管理への適用・運用、政府・団体・NPOなどとの外部連携などの取り組みを進めています。ガイドラインでは最初の項目に「豊かな生活とより良い社会の実現」というソニーグループのAI利活用の目的を据えて、ガイドラインを策定する際はソニーグループが目指す姿だけでなく、社外の参考文献なども参考にしました。

 また、アセスメントプロセスでは人権対応やその他既存の社内方針やルールと連携し、品質マネジメントにおける各確認イベントで多様な関係部署からの観点で確認を行うよう、プロセスを運用しています。

図2 ソニーグループの取り組み

徳島:NECは、AIガバナンスの仕組みを実装するためにデジタルトラスト推進部という組織を立ち上げました。同部が中心となって、AI利活用におけるプライバシーや公平性といった人権尊重の考え方をバリューチェーンに組み込んでいます。

 具体的には、まず「NECグループ AIと人権に関するポリシー」を策定しました。そして、このポリシーの基、企画・提案、設計・開発、運用・保守といった事業活動の中に、リスクをチェックする仕組みを組み込み、点検するようにしています。また、NECグループの全従業員がポリシーに対する理解を深めるために研修を実施。さらに認識や考えが偏ってしまわないよう、弁護士、法学者、消費者団体代表などの外部有識者と定期的に対話の機会を持ち、多様な意見を踏まえて、規制や社会受容性などの動向を見極めたり、強化すべき取り組みを検討したりしています。

 これらの活動にあたっては国内外の法規制の動向を踏まえるとともに、最近では2021年に経済産業省が公表した「AI原則実践のためのガバナンス・ガイドライン」も参考に取り組んでいます。

図3 NECの取り組み

パートナーや顧客などの外部ステークホルダーとの対話

──ソニーグループもNECもさまざまな企業と協力してサプライチェーンを構築しています。AIガバナンスを実践する上で、そのことはどう意識していますか。

今田氏:AIガバナンスは単独の企業の取り組みだけでは成り立たないということを強く感じます。例えば、透明性の問題。サプライチェーンの上流にいる企業がどんなデータを使って学習しているかなどを開示していなければ、下流にいる企業は、当然、透明性に関する責任を果たすことは困難。サプライチェーン全体で協力することは必要不可欠だと考えています。

徳島:NECもバリューチェーン全体でAIガバナンスに取り組むことを強く意識しています。同時にバリューチェーンを構成するパートナーだけでなく、お客様と認識を共有することも重要だと感じています。製品やサービスを提供する側だけがAIのリスクやガバナンスに対する理解を深めても、それらを利用するお客様が理解していなければ、適切な社会実装は実現しないからです。今後も多くのステークホルダーと対話を繰り返して、AIの適切な社会実装に貢献していきます。

──AIガバナンスは、イノベーションを阻害するものではなく、AIを適切に利用し、その価値を引き出すための取り組みなのですね。これからの社会がAIの恩恵をより多く得られるよう、今後も中心となってAIガバナンスの取り組みをリードしていただきたいと思います。