AIのブラックボックス問題の解決に期待が高まる XAI(説明可能なAI)とは

AIのブラックボックス問題の解決に期待が高まる XAI(説明可能なAI)とは

凄まじい勢いで進歩を遂げるAIですが、昨今さまざまな課題が浮き彫りになっています。
そのひとつが、AIの主流となっているディープラーニング等の技術で、AIにより結果だけが分かり、どんな根拠で判断に至ったか論理的に説明できない、いわゆるAIの「ブラックボックス問題」です。この問題に対し、近年「XAI(Explainable AI/説明可能なAI)」という技術が注目を浴びています。本コラムでは、ブラックボックス問題の概要とXAI技術の取り組み、同問題に対する各国の動きについてご紹介します。

 

なぜ勝ったか誰も分からない
囲碁AI「AlphaGo」

 AIの急速な進化を象徴する出来事として、2016年3月に囲碁AI「AlphaGo」が世界トップ棋士であるイ・セドルを破ったことが挙げられます。そのニュースは人々に大きな衝撃を与えました。AlphaGoは過去の棋譜を元にした「教師あり学習」と、囲碁AI同士を対局させて鍛える「強化学習」のみ行い、なんと囲碁のルールさえ組み込まれていなかったようです。しかし、強化学習では数千万局もの自己対局をこなし、プロ棋士が生涯掛かっても見つけられないような未知の定石や打ち筋を生み出しました。もはや囲碁のようなボードゲームの領域では「シンギュラリティ(技術的特異点)」に達した、と言っても過言ではないでしょう。
 そんなAlphaGoですが、この出来事により大きな問題が明るみに出ました。それが「ブラックボックス問題」です。
 AI(ディープラーニング)の技術的詳細は割愛しますが、一般的なプログラムであれば、プログラムのコードを追いかければ要因が分かります。しかし、AI(ディープラーニング)では、人間が分かる論理コードはなく、アルゴリズムはブラックボックスとなっています。ですので、この対局での複雑怪奇なAlphaGoの打ち筋に、解説者であるプロ棋士はもとより、AlphaGoを開発したメンバーさえも、勝因が分からない有様でした。

 

信頼がより求められる分野へのAI活用に課題

 このような問題により、AIの社会的活用に少なからず歯止めが掛かることになりました。説明ができないということは、たとえば次のような分野ではAIに全てを任せると大きな問題になり得ます。

    1. 医療診断
    2. AIによる画像診断で病気の早期発見や見落としの改善などが期待されますが、AIの誤診・誤判断により適切な治療が行われず、患者の症状が悪化した場合、説明ができないと理解を得られるのは困難です。

    3. 人材採用
    4. アマゾンの人材採用AIが女性差別的傾向を持った判断をしたことで大きな話題となりましたが、AIに学習させるデータが不適切であった問題のみならず、AIによる採用基準が結局のところ不明であり、物議を醸す結果となりました。

 当社のお客様である製造業では、次のようなシーンでAIの活用に留意が必要です。

    1. 異常検知/予知保全
    2. センサーなどの時系列データから設備の異常の兆候をAIで感知することが可能ですが、just in timeの製造をしている場合、設備を止めるとその影響は甚大です。なぜその判断に至ったか分からないと、ユーザへの説明は勿論、防止に役立てられません。

    3. 品質検査
    4. 食品業界では特に顕著ですが、AIが誤った判断を行い、食中毒などが起きれば大問題となります。そのほかの一般的な製造物においても、不良品が混入することで、最悪事故を招き人命にかかわる場合もありますので、検査結果での合格判断は説明できるものでなければなりません。

 いずれの場合においても、その責任を問われたときに、より信頼できる説明が求められる分野といえるでしょう。一方、人間でも意思決定理由を説明できないことが多いという意見もあります。しかし、社会的に広く利用されるシステムや、人命がかかわることに使われるシステムにおいて説明責任が求められるのは当然です。一般的なビジネスにおいても、説明ができないものは責任が伴わないので導入が難しいのと同じであるといえます。
この問題をどう解決していくかがAIの更なる発展の大きな課題となっています。

 

XAI(説明可能なAI)に注目が集まる

 そこで、近年注目を集めているのがXAI(説明可能なAI)です。XAI は簡単にいえば、AIによる結果のみならず、その判断に至った過程・理由を提示するもので、先述の背景からさまざまな国や企業がこの分野の研究に積極的です。米国防総省・国防高等研究計画局(DARPA)では、XAIへの投資プログラムを発表しており、約80億円もの予算を投入して研究を進めていると言われています。
 国内では、富士通研究所が開発した「Deep Tensor/Knowledge Graph ※1」というものがあります。
※1 富士通 PRESS RELEASE (技術):AIの推定理由や根拠を説明する技術を開発

 独自の機械学習技術であるDeep Tensorと、ナレッジグラフと呼ばれる過去の文献や専門家のデータベースから構築したグラフ型の知識ベースを融合し、Deep Tensorの推定結果に対する理由や根拠を論理的に説明できるようです。特に専門的な知識・判断が求められる医療分野への活用が期待されています。このほか、NECでは異種混合学習という独自技術を用いて、AIによって算出された予測値について、予測根拠(なぜそのような予測になるのか)もユーザに提示することを可能としています。
 

AIの判断に企業が説明責任、国内外でAI活用のルール整備が加速

 上述のようなXAI技術への取り組みが進む一方、国内外でAIのブラックボックス問題に対するルール整備の動きが活発化しています。
 2018年5月に施行されたEU(欧州連合)の一般データ保護規則(GDPR)では、ユーザに「重大な影響」を及ぼす自動意思決定システムが下した決定について、ユーザ本人が「説明を受ける権利」、そしてその決定に「反対する権利」が確立されました。
 これは、個人情報を活用してAIなどが全て自動処理を行うサービスなど(ローン審査、人材採用 etc)が該当し、ユーザが何らかの重大な不利益を被った場合、どのように判断されたかその理由について説明を求めることができ、且つ、その決定について従わないで良いということになります。したがって、GDPR下では、法的にも意思決定結果をユーザに説明できるシステムであることが求められるのです。
 また、日本では内閣府の「人間中心のAI社会原則検討会議」が年内にまとめるAI活用の基本7原則の素案がマスコミ各社で報道されました。(2018年12月9日閲覧 日本経済新聞電子版:AIの判断、企業に説明責任 ルール作りへ政府7原則
 その中では、「AIを利用した企業に決定過程の説明責任」を求めることが大きな柱となっています。この7原則に基づき法整備が進められると考えられるため、国内においても、AIシステムを提供するベンダー、利用者ともに大きな影響が出ることは必至です。
 

 XAIはブラックボックス問題を解決・補完する手段になることが期待されていますが、この問題は実に根が深く、究極的にはAIを信じるか/信じないかといった宗教的な議論まで出てくるかもしれません。AIの社会的活用に向けた過渡期の現在、AIの活用領域を見極め、ヒトがカバーする、「AIとヒトが協働する」とは何か一度考えてみてはいかがでしょうか。
 

 
 月額2,000円(税抜)から始められるクラウド型EDIサービス『EXtelligence EDIFAS』で、EDIに取り組んでみませんか?使いやすいインターフェースと豊富な設定機能で、誰でも簡単に操作することができます。また、クラウド環境なので、申し込んだその瞬間からご利用いただけます。最大2カ月の無料期間もございますので、ぜひお試しください!

Share this...
Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn