/

米マイクロソフトの人工知能、ツイッターで差別発言連発

【シリコンバレー=小川義也】米マイクロソフトは24日、ソーシャルメディア上で人間と対話する「チャットボット」と呼ばれる人工知能(AI)の運用を停止した。悪意のある人々に教え込まれ、「ヒトラーは間違っていない」「男女同権論者は全員死んで地獄で燃やされるべきだ」などと差別的な発言をツイッターで連発するようになったため。このAIは23日に公開されたばかりだった。

「Tay(テイ)」と名付けられたこのチャットボットは、人間との対話を通じて発達するAIの研究の一環で開発された。スラングやジョークを交え、ターゲットとする米国の18~24歳の若者を楽しませるはずだったが、「公開後24時間以内に、複数の人間が協力してテイの対話能力を悪用し、不適切な発言をするように教え込んだ」という。

テイは最初から差別的な発言をするようにプログラムされていたわけではないが、大量の差別的発言を浴びせられるうちに、それを「学習」し、自分でも同様の発言を返すようになったとみられる。マイクロソフトは不適切なツイートを削除し、ソフトウエアの修正にあたっている。

米IT各社は急速に進歩するAIを活用したサービスの開発を競い合っているが、まだ完璧とはいえず、トラブルも少なくない。グーグルが昨年提供を始めた写真保存・検索サービスでは、利用者が保存した写真に何が写っているかを自動で判別し、タグ付けするAIが黒人を「ゴリラ」と判断。同社は謝罪に追い込まれた。

すべての記事が読み放題
有料会員が初回1カ月無料

セレクション

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
新規会員登録ログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
新規会員登録 (無料)ログイン
図表を保存する
有料会員の方のみご利用になれます。保存した図表はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン