AIも説明責任、医療や金融で信頼性高める
[有料会員限定]
どうして人工知能(AI)はこんな結論を出したのか?――。自ら学習するAIは、人間が理解できない結論を出すケースがある。「ブラックボックス」と批判され、AIの課題の一つとされてきた。富士通は利用者が納得できる「説明可能なAI」を開発したと発表した。AIも説明責任を果たすようになるのだろうか。
2016年にプロ棋士を圧倒した囲碁AI「アルファ碁」は「深層学習(ディープラーニング)」と呼ばれる技術を使ったAI...
この記事は会員限定です。登録すると続きをお読みいただけます。
残り1852文字