多様性あるAI活用のための課題とは?
東京大学×NECが文理融合で考えるAIの社会実装
AI技術が急速に社会へ浸透しつつある現在、世界中で法規制や倫理・プライバシー問題の検討や運用体制の整備が急がれている。人とAIが協調する社会の実現のためには一体、誰が何をする必要があるのか。また、AIサービスの責任は提供者側と受容者側でどう分担されるのか――。差し迫ったこの問題に対し、NECでは2016年に東京大学と「フューチャーAI研究・教育戦略パートナーシップ協定」を締結し、いち早く共同研究に取り組んできた。東京大学の未来ビジョン研究センターに加え、工学系研究科とも密に連携し、AIが受容される社会を探求する文理融合型の産学連携プロジェクトだ。昨年行われた「第1回シンポジウムAIと社会の共存 ―企業のリスクマネジメントと社会的受容―」では、AIを安心して活用するための「プロセス」が重要であるという点で研究内容の一致が見られた。1年を経た今年3月には、2回目となるWEBシンポジウム「AIを安心して活用する『プロセス』のイシューを考える」を開催。最先端の研究報告やディスカッションから、AIサービスの提供者側、受容者側双方にとって重要な課題や論点が浮かび上がった。
AI利用原則の策定では「どうつくるか」がカギに
研究報告は、東京大学未来ビジョン研究センター准教授 江間有沙氏の講演「AIサービスリスクマネジメントの実践に向けて」から始まった。江間氏は、AIのリスク倫理や原則の策定において重要になる3つの視点を挙げる。
「現在、多くの企業でもAI利用における倫理やガバナンスをまとめた原則が策定されるようになりました。しかし、ここで改めて考えていただきたいのは、『How(どのように作るか)』『What(何を言うか)』『Who(策定する主体は誰か)』という3つの点です。
特に『How』は日本が、もうすこし頑張っていけるのではないかと思っている点です。原則を策定する際の構成員に注目し、どれだけダイバーシティやインクルージョンを実践できるか。EUやアメリカでは既に、何が書かれているかと同じくらい、男女比などを含めた構成員の多様性が重視される現状があります。今後は何が書いてあるかだけでなく、誰がどのように作ったかという多様性を確保していくことが課題になっていくと予想されます。」
さらに、江間氏はこうした原則の実践においては、さまざまな機関との連携が必要だと述べる。その際に重要な概念となるのが「ガバナンスエコシステム」と、昨年の講演でも発表された「リスクチェーンモデル」だ。 「AIガバナンスというと1社内でのガバナンスを想定してしまいがちですが、それでは内部告発が正常に働きません。監査会社や公的機関などさまざまな機関や企業との連携も想定した『ガバナンスエコシステム』を考える必要があります。特に日本企業はBtoBのビジネスモデルが多く、サプライチェーンが長くなる傾向があります。そのぶん、リスクや責任の分担を明確化しなくてはなりません。そこで私たちがご提案しているのが『リスクチェーンモデル(RCM)』です。本モデルでは、サービスプロバイダ、ユーザーという3つのレイヤーにおけるリスクシナリオとリスクコントロールの概要をまとめていきます。昨年から1年を経て、豊富なユースケースを紹介するガイドも公開しました。さらに、NECさんとも連携し、実践的な研修ワークショップにも取り組んでいます。本プログラムを通じて感じたのは、AI開発者だけでなく、さまざまな方々を巻き込んで議論するということ自体が、重要なプロセスになるということです。さまざまなステークホルダーの方を巻き込んだ議論をリスクチェーンモデルで記録すれば、市民や後世への透明性を確保することもできると実感しました。現在はこの実証のために、さまざまな場所で試みを行っています。」
リビングラボのようなかたちでオープンにワークショップを展開していくという新しいリスクチェーンモデルの展開を示して、講演を締めた。
AIの受容性調査から見えたリテラシーや属性による差異
つづく講演では東京大学大学院 法学政治学研究科附属 ビジネススロー・比較法制研究センター 特任講師 小川 亮氏から「遠隔・生体・認証に対する市民の評価軸」と題した報告が行われた。テーマは「AIサービスにおける責任分担」だ。小川氏はこのテーマを考えるにあたって、まずは法規制の考え方を検討する必要があると述べる。
「現在、EUではAIに対してハード・ローでの厳格な規制をかけようとしています。一方で、日本はソフト・ローをベースに企業の自主規制に任せる方針です。社会によって規制の方向性が大きく異なるいま、AIの利用に関する責任分担を考えるためには結局、日本においてはどのような規制がふさわしいのかを考えなければなりません。そのためのファーストステップとして、今回はまず人々がAIに対してどういう態度を抱いているのかについて調査を実施しました。」
2000人を対象にしたインターネット調査の結果、大きく4点の洞察が得られた。
「一つ目としては、AIシステムの概要説明を受けた後の方が不安は減るということです。一方で、AIシステムへの認知度が高い層は、受容も不安もともに大きいという結果も得られました。これは顕著性の問題や高いリテラシーの結果ではないかと考えています。
二つ目としては、不安の声は相対的に少ないという点です。法規制を求める人も半数未満ということで、市民の声を理由に法規制を要求してもあまり強い根拠にならないということがわかりました。
また、三つ目としては、公的部門、法執行に対する信頼感が高いという点です。逆に、私企業のAIシステム利用に対しては非常に警戒的です。これはEUとは対照的な結果で、公法学の基本的な姿勢とも異なります。なぜそうなったのか、公法学の知見からの検討が重要になると考えています。
最後に四つ目としては、原則的に自分にとって直接的に利益や不利益になりそうなことを気にする傾向にあるという点です。例えば、生体情報を取られること自体に対する嫌悪よりも、その結果として誤認識や目的外利用で不利益を被ることを嫌うということです。そのため、EUのように技術そのものにフォーカスして規制するべき理由は、市民の感覚からは遠いだろうと感じました。むしろ技術の使われ方に対する規制が必要になりそうです。」
同様に市民への調査を実施したのは、次の講演で登壇した東京大学大学院 工学系研究科システム創成学 専攻講師 早矢仕氏だ。早矢仕氏はまだデータ化・可視化されていない膨大なデータ「未踏データ」がデータ化された社会「Society5.0+i」を提唱する研究者だ。昨年のシンポジウムでも講演し、独自のアプローチから利用者の潜在的な社会の要求を掘り出した。今回も同様の手法を使って、AI製品利用に関する受容性を調査した。
「私たちの調査では、未踏データを含むアウトプットを得るために『変数クエスト』というツールを使いました。これは、調査テーマを文章で入力すると想定されるべき変数を分析して導き出してくれるというアプリケーションです。無意識のバイアスにとらわれず設問を設定するために役立ちます。これにより、今回は調査対象者がAI製品の利用者か提供者かという変数によって、数値が大きく変わるだろうという気づきが得られました。そのため、今回の調査では1000人を対象に『AIの利用者』と『AIの開発者・提供者』で分けてインターネット調査を実施しています。その結果として、意外にも実際にAI製品を開発・提供している側の方が、不安を感じる割合が高いことがわかりました。
さらに、『不安だが利用している』と答えた方の自由記述欄を年代や性別で分析をしたところ、20代30代の男性では『不安もあるが役に立つのであれば使ってみよう』と考える傾向があるなど、年代や性別でも類型化が可能であるという手がかりを得られました。」
AI利用者/提供者という分類以外にも類型化の可能性を見出し、さらなる未踏データの発掘につながる結果となった。
多様な人々が平等にAIを享受できる社会のために
3者の研究報告を終えると、パネルディスカッションへと移行した。司会を務めた東京大学未来ビジョン研究センター センター長 教授の城山英明氏はまず、小川氏と早矢仕氏の調査内容を受けて「AIへの理解度や開発者/利用者などのセグメンテーションをどうつくるかで、レスポンスや重要度が変わる」と指摘し、今後のステップや両者の接点として面白い点になるのではないかと見解を述べた。
その一方で、東京大学大学院 法学政治学研究科 教授の宍戸常寿氏は懸念も提示する。
「30代男性や60代女性などの属性で受容性が変わってくるとなると、社会の緊張や断絶が起きないかという点は考えるべき点かもしれません。例えば、医療や教育などの公共サービスや準公共サービスにおいてAI使用がデフォルトになると、その段階でサービスの享受に格差が生じてしまうことになります。これは忌避すべき事態です。
だとすれば、一つの方策としては、AIが社会全体に受容されるまで、公共サービスでAIは使わない方がいいという考え方もあり得るでしょう。しかし、おそらくこれは現実的ではありません。むしろ小川先生のご報告にもあったように、公共機関への信頼を活かして普及を進めるという手をとるべきかもしれません。リテラシー向上や啓発も含めてパブリックセクターが先陣を切り、AIに対しての理解が広がってきたところで大々的に民間で活用していくというものです。実際にはその真ん中をとる必要があるのだとは思いますが、大きく二つの世界観があり得るでしょう。」
セグメンテーションについては、大澤氏も見解を述べる。
「提供者や利用者のセグメントは、重要な論点だと思います。セグメントを考える上でも重要になる手段として、スタンフォード大学のラリー・ライファ(Larry Leifer)教授が提起されていた「Why」というクエスチョンがあります。先ほど江間先生からAI利用原則を考えるうえで「How」「What」「Who」という視点の重要性をご提起いただきましたが、もう一つ「Why」というものを提示させていただきたい。「なぜAIを使うのか」ということですね。実は、この質問に答えられる企業や人は、なかなかいません。
そもそも、AIに対する正しい理解というものが世の中に存在しないという問題があります。AIはまだ完成していない技術だからです。多くの人は機械学習がAIだと思っていたり、私のように30年AIを研究している人間は、AIを原理的には物事を説明するための道具だと考えていたりするわけです。AI技術自体も高度化するなかで、AIに対する理解も多次元化してきています。こうした点から格差が生じている。そういう意味でも『なぜAIを使うか』ということを全員が答えられるような組織をつくることが、一つの解決になるかもしれません。なかなか難しい問題ですが、これから考えていこうとしている課題です。」
AIリスクマネジメントにおけるプロセスの重要性で一致した前回であったが、今回のシンポジウムではさらに一段掘り下げて「セグメンテーション」についての課題に注目が集まる結果となった。AIを運用するにあたって、どのように社会全体を包摂したシステムを構築できるかが、次の大きなテーマとなりそうだ。
本プロジェクトの主催者であるNEC グローバルイノベーション戦略本部 本部長 菅原 弘人は「本講演で得た気づきを事業会社として活かしていきたい」と述べてシンポジウムを締めくくった。