本文へ移動

「AI/SUM アプライドAI サミット~AIと人・産業の共進化」講演録
パネルディスカッション「信頼されるAIの条件とは ~人とAIが協調して働くために~」

 企業の現場でAI活用が進む一方で、AIの透明性や説明責任が問われるようになってきている。本パネルディスカッションでは「AIと憲法」の著書として知られる慶應義塾大学教授の山本 龍彦氏と、日本におけるAI活用のリーディングカンパニー、アサヒプロマネジメントの川内 浩氏を迎え、AI研究で知られるNECの本橋 洋介をモデレーターに、社会に受容されるAIについて議論した。

進むAI実装と明らかになってきた課題

 パネルディスカッション冒頭、モデレーターを務める本橋から「さまざまな企業でAI活用が進む中、AIの信頼性が重要になってきています。今日は、人間がAIとどう接していくべきか、人にとってよいAIとは何かについて議論したい」とパネルディスカッションの意図が示された。

NEC AI・アナリティクス事業部 兼 データサイエンス研究所 兼 プラットフォームソリューション事業部
シニアデータアナリスト
本橋 洋介

 『AIと憲法』の編著者として知られ、憲法学が専門の慶應義塾大学教授の山本氏は、総務省の『AIネットワーク社会推進会議(AIガバナンス検討会)』構成員、一般社団法人ピープルアナリティクス&HRテクノロジー協会理事、経済産業省・公正取引委員会・総務省『デジタルプラットフォームを巡る取引環境整備に関する検討会』委員なども務め、AIの利活用がもたらす法的・倫理的リスクについて、専門家ならではの視点を投げ掛けている。

 「なぜAIと憲法なのか」という本橋からの問いに山本氏は、「日本国憲法第13条には個人の尊重、幸福追求権などが定められています。私はここ数年、この憲法13条が保障するといわれるプライバシー権、とりわけ情報プライバシー権に関する研究に取り組んできました。AIはたくさんのデータを使います。それによって個人の趣味嗜好や政治的信条、健康状態、精神状態を自動的に予測する「プロファイリング」も可能になってきました。このことが、プライバシー権との緊張関係を生み出すと考えています。欧州連合(EU)が2018年に運用を開始した『一般データ保護規則』(GDPR)では、初めてプロファイリングについて定義しました。プロファイリングをどう規律していくかは、国際的にも重要な課題になっています。さらに、AIには『More Data』という特徴があります。予測精度を高めるには、より多くのデータが必要になりますそのため『もっとデータを』となるわけです。そこでは監視化のリスクも生じます。後ほど詳しく述べたいと思いますが、データに偏りがあると、AIの利用によって差別が助長される他、信用力などのスコアがいったん低く付いてしまうと、『バーチャルスラム』と呼ばれる負の連鎖に陥ってしまうこともあります。ユーザーの好みや政治的な指向性をプロファイリングし、その予測に合った情報だけが表示される『フィルターバブル』により、異なる見解に接する機会を失い、自らの見解が極端になり、社会の激しい分断を招くという指摘もあります」とAIが深く社会生活に関与することで生じる論点を指摘した。

慶應義塾大学大学院法務研究科 教授 兼
慶應義塾大学グローバルリサーチインスティテュート(KGRI)副所長
山本 龍彦 氏

 一方の川内氏が所属するアサヒプロマネジメント株式会社は、アサヒグループの経営共通基盤である経理、財務、総務、給与計算、福利厚生、情報システムなどの機能を担い、効率性・生産性・専門性の視点からグループの成長を支援するプロフェッショナル集団だ。

 アサヒグループは、業務に積極的にAIを活用して業務品質の向上を図る他、業務効率の向上も実現しているAI先進企業だ。川内氏は次のように紹介する。「当グループのAI取り組み事例としては、まず、チャットボットを活用した『AIヘルプデスク』があります。これは2017年7月より展開しているもので、アサヒグループ内の各種システムの使い方、OA機器の不具合などへの質問に、AIが24時間365日自動応答するものです。2018年7月からは、これに加えて『人事系AIチャットボット』を導入し、年末調整など、さまざまな手続きに必要な書類の記入方法や申請の仕方などを質問するとAIがその意図を解釈し、利用者とチャット形式で会話、適した回答を表示することで人事担当の効率化を図りました。また『AIヘルプデスク』導入により、ヘルプデスク要員を3分の1にしました」と成果を語る。

導き出した答えの根拠を示す「ホワイトボックス型」AI

 続いて本橋氏が「人事労務管理に加えて生産調整の精度向上などにもAIを活用する予定があると聞いたが」と水を向けると、川内氏は以下のように答えた。

アサヒプロマネジメント株式会社 業務システム部
副部長 業務推進グループリーダー
川内 浩 氏

 「酒類の新商品受注予測にAIを活用できないかと考えています。お客様に最高の状態で商品をお届けするためには、流通在庫の最適化が重要です。しかし新商品の場合、需給を予測することは難しく、現在は担当者の経験値に依存する比率が高い状況です。また、物流部門は商品を出来るだけ余らせないことを考えますが、営業部門は販売のチャンスロスをしないよう、商品を切らさないことを優先します。そのため、社内会議での需給調整はとても難しいものとなります。そこで『共通の客観的な判断基準が欲しい』と、NECさんに相談しました」とし、NECの持つ異種混合学習エンジンのAIを用いて、気象情報や過去新商品の売上情報などさまざまなデータから需要予測を行い、在庫切れによる販売機会損失や在庫過剰による廃棄ロスなどを防ぎ、ムダやロスのない需給業務実現を目指す取り組みを紹介した。

 一方で川内氏は課題にも触れる。「どのようなデータを読み込ませればいいのかが悩みどころです。お客様に近いデータを活用した方が精度は高まることが、実証実験で分かっていますが、そのデータを収集するには、先ほど山本先生からお話のあったプライバシーなどの問題があると思っています。さらに、AIが導き出した予測結果を、会議で出席者が理解できるように説明できるかどうか、これも課題の一つです。さらに予測に対して実績が上振れまたは下振れした場合に、その責任の所在はどこにあるのかも運用面で問題になると考えています。『AIに任せておけば大丈夫』と、人が全く介在しないことになった場合、会社として本当にいいことなのか、まだまだ検討の余地があると思っています」と、AIがどれくらい業務に関与すべきかなど、運用する上でクリアにすべきことが多々あることを示した。

 ファシリテーターの本橋氏は「『AIが100万本と言っているので』というのでは、経営陣も納得できない。『ブラックボックス型AI』ではなく、裏付けとなる根拠を示す『ホワイトボックス型AI』あるいは『説明可能なAI(Explainable AI=XAI)』が、法律や倫理の観点から求められるのでは」と山本氏に尋ねた。

 山本氏はフランツ・カフカの『審判』という作品に触れて次のように語った。「主人公のヨーゼフ・Kは、ある日突然逮捕されるのですが、最後までその理由が告げられず、裁判にもかけられます。不条理な世界を描いた作品です。ブラックボックス型AIでは、この不条理が起こりかねません。例えば企業の採用試験でAIによるスコアリングが行われ、『あなたは不合格です』と言われても、その理由はよく分かりません、ということになります。理由が示されれば改善すべき点も分かりますが、不明のままでは自律的に自分の人生をデザインすることはできません。それでは敗者復活はかなわず、『バーチャルスラム』に陥ってしまいます」

 ただ、解決の糸口も見えると山本氏は付け加える。「GDPRの22条では、プロファイリングの結果だけで採否を判断するような、完全自動意思決定を原則として禁止しています。つまり、AIの評価だけで採用・不採用を決定したり、融資の判断をしたりしてはならないということであり、判断に原則として人間の関与を求めているのです。日本でも『人間中心のAI社会原則』として、『公平性、説明責任及び透明性の原則』を掲げています。ホワイトボックス化に向けた技術開発も、人権保護との関係において重要な要素になります」

AIの発達で差別が再生産される可能性も

 次に話題は、AIの活用において予測精度とプライバシーがトレードオフの関係であることに及んだ。そしてAIの予測精度をさらに高めようとすると、「フェアネス(公平さ)」とのコンフリクト(衝突)も起こるとした。本橋はAIのつくり手の立場から次のように話した。「公平性、透明性の問題とは別に、山本先生が指摘された差別の問題にどう対応するかは悩ましいところです。例えば、ある商品を買ってくれそうな人の年齢、性別、職業などを区別することは差別になるのでしょうか。さらには、特定の病気にかかっている人に住所のデータを加えたら、ある地域に住んでいる人はその病気にかかりやすいという結果になるかもしれません。それは統計による差別ということになるのでしょうか」

 本橋から提示された問いに山本氏は次のように答えた。「フェアネスは世界的にも非常に重要な論点になっており、EUでもOECDでも議論がなされています。ただし、明確な解はまだ出ていません。米国の裁判所では刑事裁判の量刑判断でスコアリングが使われ、再犯率をAIに予測させています。精度を高めようとすると、人種との相関性を積極的に判断材料に用いるべきということになりますが、それが人種差別につながる可能性もあります。そこで、米国のある州では、犯罪予測システムにおいて、人種の要素を排除したアルゴリズムを意図的に組んでいます。予測精度を落としてもフェアネスを保とうとしているのです」

 この点について川内氏は、アサヒグループで進められている新たな取り組みを紹介し、別の観点を提示した。「われわれは今、ソーシャルメディアに投稿されている画像を分析しています。そこに写っている料理と自社商品など、お客様の飲料シーンを解析することで、商品開発やマーケティング活動につなげられるのではないかと考えています。他にも社員採用活動の中で、AIを生かせるのではないかとも考えています。人間が採用判断を行う際、人としての感情など、バイアスがかかる可能性があります。その点、むしろAIの方が客観的に判断する可能性もあり、入社希望者からすると、どちらの方が納得性が高いだろうかと考えてしまいます」

 山本氏はそれに対し、「人間の経験とか主観などのバイアスがかかるよりは、むしろAIに支援してもらった方が、応募者の努力などを正当に評価できるということもあるでしょう」と、判断の難しさをにじませた。

AI活用の課題をチャンスと捉える企業が生き残る

 本橋は、議論を経てAIのつくり手や使い手の「人」の要素が大切とし、モラル教育など、関わる人間の側の研さんが必要ではないかと問題を提起した。それに対し、大学で教鞭を執る山本氏が次のように応じた。

 「それは絶対に必要だと考えています。先ほどAIが差別を生むといった話をしましたが、AIが差別をしているわけではなくて、AIはデータを読んでいるだけです。人間が差別してきた過去がデータ上に再現されることで、AIが差別を再生産してしまうのだと思います。つくり手の人間、使う側の人間が、人権に与える影響などを、しっかり勉強してほしいという思いがあります」

 川内氏も「私たちの会社は、お客様にお酒やソフトドリンクなどを提供する食品メーカーになりますので、会社にAIのプロが必要だとは思っていません。それはNECさんを含め、いろいろなプロの力を借りればよいと考えています。ただし、さまざまなAIを理解し、AIを使って何ができるのか、会社の中にどう導入すべきかを考えて実行することが、IT部門の役割になると考えています。お客様により品質・鮮度の高い商品をお届けし、お客様の満足度を向上させることにAIが活用できればよいと考えています」と、今後の抱負を語った。

 最後に山本氏は、「『何のためにAIを使うのか』という目的を、つくり手と使い手が相互に認識することが大切でしょう。サイバーフィジカルな世界では、これまでの社会的・構造的差別がデータ的に明らかにされていきますが、それをリスクと見るのかチャンスと見るのかは大きな違いです。これをチャンスと捉え、『Inclusion』(包摂性)の思考を持つ企業が生き残るのではないでしょうか」と結んだ。

AI is everywhere ~信頼されるAIの条件とは~

 「AI/SUM」冒頭で登壇したNEC代表取締役 執行役員社長 兼 CEO新野隆は、自社で取り組むAIの社会実装事例や、人とAIが協調する社会のグランドデザインを語った。

高度な認証技術を入口にデジタル世界へ

NEC代表取締役 執行役員社長 兼 CEO
新野 隆

 AIやIoTなどのテクノロジーが進化し、「Digital Transformation」(DX)が現実のものになろうとしています。DXによって利便性が高まる一方、「他人によるなりすまし」など、セキュリティー面のリスクもあります。NECは、「Bio-IDiom」(生体認証技術)をデジタルの世界の入口に、「誰もが安心してデジタルを活用できる世界」を実現します。

 その代表的な事例と言えるのが、今年の2月に発表した、成田国際空港の「OneID」システムです。2020年春からの運用開始を予定しているサービスで、成田空港の利用者が、チェックインなど最初の手続きで顔写真を登録すると、その後のあらゆる手続きが自動化される仕組みです。すでに米デルタ航空はアトランタ国際空港で、2018年12月からNECの顔認証システムを導入し、大きな効果を上げています。このようなサービスが広がれば便利で快適な、そしてセキュアな社会が世界中で実現できると考えています。

注目される「ホワイトボックス型AI」

 「Bio-IDiom」同様、私たちは機械学習においても長年の積み重ねに自信を持っています。「ブラックボックス型」の機械学習やディープラーニング、そして現在は「ホワイトボックス型」AIへと、可能性を広げています。

 社会課題や経営判断のように答えが一つではない問題を解く際には、「なぜそれを選ぶべきか」という理由の説明が必要になります。このような理由を説明できるAIを「ホワイトボックス型AI」と呼んでいます。最近、このホワイトボックス型AIが注目されるようになっていますが、NECは2012年に他社に先駆けて事業化を始めました。すでに多くが実用段階にあり、例えば三菱UFJ銀行では、住宅ローンの事前審査にNECのAI技術を活用し、大きな成果を挙げています。また、セブン-イレブン・ジャパンでは2018年12月、ホワイトボックス型AIとIoT技術を活用した初の「省人型店舗」をオープンさせています。

AIのさらなる社会実装に向けて

 今後のAIのさらなる社会実装に向けて、プライバシーの配慮、倫理や受容性に配慮した利活用原則・法制度への対応が求められ、国際的な議論も起こっています。日本でも内閣府が、「人間中心のAI社会原則検討会議」で7つの基本原則を発表しています。

 こうした背景も踏まえ、社会に受容されるAIの提供に向けて、この4月に「NECグループ AIと人権に関するポリシー」を発表しました。NECではこれまでも、研究開発、実装において人権の尊重を第一に考えて取り組んできました。今回発表したポリシーは、これらを行動に結びつける指針として明文化したものです。「ホワイトボックス型」のAIの研究開発・実装も、これを踏まえたものと言えます。

 また、AIの社会実装に向けては、人材の育成が欠かせません。私たちは自社で培ってきた育成メソドロジーを生かし、「NECアカデミー for AI」を2019年4月から開始しました。大学・大学院、あるいは産業界に、これまで蓄積してきたノウハウを提供していきます。

 NECは「ポリシー」に則り、「技術開発」と「人材育成」に取り組むことで、これからも「人と協調するAI」の社会実装を進めていきます。