/

軍事用AIにNO グーグル指針、社員の声が後押し

【シリコンバレー=中西豊紀】米グーグルは7日、人工知能(AI)の開発や適用を巡る「指針」を発表した。AIは社会に便益をもたらすためのものと位置づけて、武器のように人を傷つける分野向けの開発はしない姿勢を明確にした。他のIT企業より一歩進んだ取り組みの背中を押したのは、AIの軍事利用に対する社員の反対運動だった。

AI開発の指針はピチャイCEOが自身のブログを通じて公表した

「武器用のAIは開発しない」

スンダー・ピチャイ最高経営責任者(CEO)が自身のブログを通じて公表した。

指針は7つあり「社会にとって役に立つ」「バイアス(偏向)を避ける」「プライバシーに配慮する」といった項目が並ぶ。他社にない強いメッセージとしては「人を傷つける」分野への適用はしないと明示した点で、中でも「武器用のAIの開発はしない」としている。

指針をあえて公表したのは同社のAIの活用の仕方について社内で議論が巻き起こっているからだ。

複数の米報道によるとグーグルはこのほど、米国防総省と結んでいた軍事用無人飛行機(ドローン)向けのAI開発契約を2019年で打ち切ることを決めたとされる。物体認識ができるAI技術をドローンに生かすはずだったが、4000人を超えるグーグル社員が反対の署名運動を起こしたほか、一部社員が辞職する騒ぎにまで発展していた。

グーグルは指針をつくることで社内の動揺に配慮したとみられる。あるグーグル社員は「自分たちの仕事が人の役にたっていると皆が信じている」と話す。同社は「邪悪になるな」という社是を掲げていただけに、軍事や社会監視と見なされる業務への関与に反発を抱く社員も少なくないようだ。

軍事でなくともAIを不安視する声は社外にもある。画像検索で人種差別的な結果が出たり、AIを使った人の採用や保険審査でバイアスが生じたりするのではという疑念はAI研究者の間でも上がっている。ある英国の研究者は「AIが何を基準に意思決定をしているのかが分からないと危険だ」と話す。

フェイスブックは楽観、テスラは規制派

グーグルの指針はこうした潮流も踏まえたうえで作成したもようだ。ピチャイCEOはブログで「AI技術でリードする企業として社会への影響について深い責任を感じている」と発言。説明責任に耐えられるAIを開発し、監視目的や非人道的なAI活用はしないと強調した。

AIへの考え方を巡ってはシリコンバレー企業によって温度差がある。フェイスブックは人の手を借りずにAIを使って偽ニュースを見つける試みを続けている。「僕たちは技術に楽観的でいる」と繰り返すマーク・ザッカーバーグ最高経営責任者(CEO)の考え方が底流にありそうだ。

一方でテスラのイーロン・マスク最高経営責任者(CEO)は「AIは悪魔を召喚する技術」と述べ、規制の必要性を説いている。

グーグルの動きは、考え方を社内指針に落とし込みさらに製品づくりにも反映させる点で一歩進んだ取り組みだ。通常ならば注目されにくい倫理や規制といった議論の盛り上がり。未来の技術と思われていたAIが急速に生活にとっての「当たり前」になっていることの裏返しだろう。

すべての記事が読み放題
有料会員が初回1カ月無料

セレクション

トレンドウオッチ

新着

ビジネス

暮らし

ゆとり

新着

ビジネス

暮らし

ゆとり

新着

ビジネス

暮らし

ゆとり

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
新規会員登録ログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
新規会員登録 (無料)ログイン