/

この記事は会員限定です

AIも説明責任、医療や金融で信頼性高める

[有料会員限定]

どうして人工知能(AI)はこんな結論を出したのか?――。自ら学習するAIは、人間が理解できない結論を出すケースがある。「ブラックボックス」と批判され、AIの課題の一つとされてきた。富士通は利用者が納得できる「説明可能なAI」を開発したと発表した。AIも説明責任を果たすようになるのだろうか。

2016年にプロ棋士を圧倒した囲碁AI「アルファ碁」は「深層学習(ディープラーニング)」と呼ばれる技術を使...

この記事は会員限定です。登録すると続きをお読みいただけます。

残り1852文字

すべての記事が読み放題
有料会員が初回1カ月無料

関連トピック

トピックをフォローすると、新着情報のチェックやまとめ読みがしやすくなります。

関連企業・業界

セレクション

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
新規会員登録ログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
新規会員登録 (無料)ログイン
図表を保存する
有料会員の方のみご利用になれます。保存した図表はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン