富士通研究所と北大、望む結果を得るための手順を導くことができるAIを開発
発表日:2021年02月04日

望む結果までの手順を導くことができる「説明可能なAI」を世界で初めて開発
人と協働するAIの信頼性と透明性の向上を実現
株式会社富士通研究所(注1)(以下、富士通研究所)と国立大学法人北海道大学(注2)(以下、北海道大学)は、AIが自動判断した結果を基に、望む結果を得るために必要な手順を自動で提示できる技術を世界で初めて開発しました。
AI分野では、データから自動的に判断するだけでなく、個々の判断理由を与えてくれる「説明可能なAI」や、望ましくない判断結果に対して、改善するための項目を提示するAI技術が注目されています。しかし、これらの技術は、個々の項目に関して、これをしておけば良い結果が得られたという仮定の改善項目は示してくれますが、判断結果を改善していくための手順などは提示してくれませんでした。
例えば、健康状態を判断するAIが不健康と判断した場合、身長や体重、血圧などの健康診断項目のデータから不健康の判断理由を説明するだけでなく、健康になるための最善策を提示してほしいというニーズに対して、本技術を適用することで、過去データから複雑に絡み合った多数の診断項目間の相互作用を特定し、実現の可能性や実施の難易度を考慮した上で具体的な改善手順を示すことができます。
これにより、AIが出した判断理由を知るだけでなく、個々の利用者が望む結果を得るために取るべき改善の手順を示すことが可能となり、AIによる判断の信頼性と透明性が向上するとともに、今後、人と共に働くAIの活用の幅を拡げることが期待できます。
本技術の詳細については、2月2日(火曜日)から開催されているAI分野の難関国際会議「AAAI-21(The Thirty-Fifth AAAI Conference on Artificial Intelligence)」にて発表します。
■開発の背景
現在、顔認証や自動運転など高度なタスクが求められるAIシステムに広く用いられている深層学習技術は、大量のデータに基づいた様々な判断を予測モデルと呼ばれる一種のブラックボックス的な規則を用いて自動的に行っています。しかしながら、今後、社会の重要な判断や提案をAIが担うためには、AIシステムの透明性と信頼性の担保が課題となってきています。このような社会と技術の動向から、データに基づいて自動的に判断するだけでなく、個々の判断理由を提示する「説明可能なAI」と呼ばれる新しいAI技術の研究が盛んになっています。
例えば、健康診断などにおいて、体重や筋肉量などのデータを基に病気になるリスクの高低を、AIによって判断することが可能になっていますが(図1(A))、リスクの高低に関する判断結果に加えて判断の根拠となった属性(図1(B))を提示する「説明可能なAI」が注目されています。
AIは、入力データの属性を基に健康リスクが高いと判定しているため、健康リスクが低いという望む判断結果を得るためには、これらの属性の値を変えればよいと言えます。
※図1は添付の関連資料を参照
※以下は添付リリースを参照
リリース本文中の「関連資料」は、こちらのURLからご覧ください。
図1
https://release.nikkei.co.jp/attach/604512/01_202102041050.jpg
添付リリース
https://release.nikkei.co.jp/attach/604512/02_202102041050.pdf
関連企業・業界