/

人工知能が走行制御 進む自動運転車の「スパコン化」

宮本和明 米ベンチャークレフ代表

ITpro

自動車はスーパーコンピューターを搭載し、人工知能で制御する――。

プロセッサーなどを開発する米Nvidia(エヌビディア)は、2015年1月にラスベガスで開催された家電見本市「2015 International CES」で最新の自動運転技術を発表、人工知能を採用した制御方式を公開した。

このシステムを自動車に搭載すると、カメラで捉えたオブジェクト(物体)を高精度で把握し、周囲の状況を理解する。ドイツAudiはこのシステムの採用を表明している。

Nvidia CEOのJen-Hsun Huang氏(出典: NVIDIA )

カメラがセンサーを置き換え

NvidiaのCEO(最高経営責任者)、Jen-Hsun Huang氏がCESで発表したのが、自動運転開発プラットフォームの「Nvidia Drive PX」である。同氏は、車載センサーのトレンドとして、レーダーなどがカメラによって置き換えられていることを指摘した。

スマートフォン(スマホ)などのモバイル技術によって、カメラの解像度、ダイナミックレンジ、夜間撮影機能などが著しく向上したためである。

これからは複数の車載カメラを統合する方法で、運転支援システム(ADAS:Advanced Driver Assistance Systems)や、自動運転車(Auto-Pilot Car)開発が可能となるとの見解を示した。

クルマの心臓はソフトウエアに

Nvidia Drive PXは、自動運転を支援するプラットフォームである。

同社の最新プロセッサー「Tegra X1」を2個搭載。並列処理、もしくは2多重に利用できる。Tegra X1は「Tegra K1」の後継製品で、テラフロップス(毎秒1兆回の浮動小数点演算)を超える性能を有する。これは、かつてのスーパーコンピューターと同等の演算能力に相当するため、NvidiaはTegra X1をスパコンチップ(Mobile Super Chip)と呼んでいる。

自動運転開発プラットフォームの「Nvidia Drive PX」(出典: NVIDIA)

同社によれば、将来のクルマはスーパーコンピューターを搭載し、ソフトウエアが走行を制御する。まさに「Software-defined Car」、つまりソフトウエアが自動車の機能を決定するようになるという。

Deep Neural Networkで歩行者を高精度に認識

Drive PXは12台のHDカメラ(60Hz:毎秒60コマ)と接続でき、毎秒1.3ギガピクセル分のデータを処理する。自動車の前後左右や車内に搭載される、最大12台のカメラで捉えたイメージを、同時に処理できるパワーを持っている。

Drive PXは画像認識(コンピュータビジョン)に、「Deep Neural Network」を採用した。Deep Neural Networkとは機械学習のアルゴリズムで、脳の構造を模したネットワークでデータから高次の意味を抽出できる。Deep Neural Networkを自動車に応用すると、単にオブジェクトを認識するだけでなく、置かれた状況を理解することができる。

下の写真は、道路を横断している歩行者を認識する様子である。写真左の消火栓の近くにいる歩行者は、全身が見えており、従来モデルでも把握できる。一方、写真右の歩行者は、一部が自動車の陰に隠れ、従来モデルでは歩行者と認識しない。Deep Neural Networkを使うと、頭部や脚部を認識し、このオブジェクトは歩行者であると判断する。

写真右側にいる、体の一部が自動車に隠れた人も歩行者と認識(出典: NVIDIA)

夜間ドライブでも正しく判定

Nvidiaは、実際にビデオ撮影をしながら市街地を走行し、その映像をDrive PXで処理した結果を公開した。リアルタイムでの処理ではないが、Drive PXでDeep Neural Networkを使うと、どんな利点があるかを理解できる。

下の写真は自転車に乗っている人(右端の緑色の箱)の事例で、一部がパトカーや消火栓の陰で見えなくても、システムは正しくサイクリスト(自転車の運転者)と判定した。Deep Neural Networkの威力が分かる。

自転車に乗っている人も認識(出典: NVIDIA)

Deep Neural Networkは、一般にオブジェクトの認識が難しい夜間走行でも威力を発揮する。下の写真は、英国における夜間ドライブの様子。街路灯などでオブジェクトの判定が難しいなか、システムはスピードカメラを検出(右端の緑色の箱)し、さらに速度標識も認識(中央部の緑色の箱)した。

夜間でもスピードカメラや標識などを認識(出典: NVIDIA)

速度標識は50Hz(毎秒50回)で点灯している。一方、カメラの撮影サイクルは30Hz(毎秒30コマ)で、イメージを上手く取り込めないこともある。しかしDeep Neural Networkを使うと正しく認識できた、としている。

左端には「Queue(キュー)」というメッセージが表示されているが、この文字も認識した。「この先渋滞」という意味で、少し走ると実際に渋滞に差し掛かり、前の車がブレーキを踏むとそれを正しく検知した。このように、Deep Neural Networkは複数のクラスを同時に認識できる点に特徴がある。

市街地走行で車種を認識

下の写真は米ラスベガス市街地における走行事例で、システムは自動車の車種を認識している。実際、乗用車(Passenger Car)や多目的スポーツ車(SUV)を個別に検知した。

自動車の車種を認識(出典: NVIDIA)

従来モデルでは、車種ごとにフィルター(Feature Detector)を開発する必要があった。しかしDeep Neural Networkでは、システムが自動車を認識し、そのサブクラス(Passenger CarやVanなど)を教育するだけで、分別が圧倒的に効率的になった。この事例では、40時間分のビデオを入力し、16時間の教育を施すことで、区別ができるようになった。

この写真では、左側の乗用車が高速で追い越している。従来方式では、フレームごとに画像認識を行っているが、高速で動くオブジェクトのイメージは歪むので上手く認識できなかった。

一方、Deep Neural Networkでは、オブジェクトの特徴をつかんで高速に処理できるため、正しく認識できる。

同時に150のオブジェクトを認識

このシステムのアーキテクチャーは下の写真の通り。

Deep Neural Networkのアーキテクチャー(出典: NVIDIA)

Deep Neural Networkは、事前にGPU(画像処理プロセッサー)搭載のスーパーコンピューターで学習を重ねる。具体的には、大量のイメージをDeep Neural Networkに読み込ませ、パラメータを最適化する。読み込んだイメージが何か、を教育するのであるが、実際には大量のパラメータを最適化する作業となる。

教育されたDeep Neural Networkが出来上がると、これを車載Drive PXに読み込ませてシステムが完成する。運転中に車載カメラから読み込んだイメージを、Drive PX上のDeep Neural Networkに入力して、オブジェクトを分類する。Drive PXは同時に150のオブジェクトを認識できるという。

一方、システムがオブジェクトを上手く認識できないケースでは、再度、そのイメージをスーパーコンピューターに戻し、データサイエンティストがマニュアルでタグ付けをして再教育する。Deep Neural Networkがアップデートされると、更新したソフトウエアを他の自動車にダウンロードする仕組みとなる。

Nvidiaは、ネットワークに接続された自動車(Connected Car)がスパコンチップ(Mobile Super Chip)を搭載し、Deep Learning(深層学習:ニューラルネットワークを用いた人工知能技術)でオブジェクトを認識しながら自動運転する将来モデルを描いている。

自動でオブジェクトを分類

NvidiaはDeep Learningの技法に「AlexNet」を利用している。AlexNetとは、カナダ・トロント大学のAlex Krizhevskyらにより開発された方式で、「Convolutional Neural Networks(CNN)」という技法を使っている。CNNは多層ネットワークで、入力イメージから、特徴を抽出し、オブジェクトを分類する。

下の写真はAudiのイメージをCNNで解析するプロセスを示している。左から右に向って処理が進む。左側は入力イメージから、Audiの低次元の特徴(単純な形状など)を抽出し、処理が進むにつれ、高次元の特徴(タイヤなど)を抽出し、自動車全体を把握する。低次元の特徴を抽出することで、Audiを形成する不変の要素を把握できる。

AudiのイメージをCNNで解析するプロセス(出典: NVIDIA)

さらにCNNを教育すると、その後は自動でオブジェクトを区分できるようになる。これが、画像認識の定番技法となっている。

このケースではニューロン(計算素子、写真の丸の部分)の数は6万5000(ロブスターの脳の半分程度)で、パラメーターの数は6000万。このプロセスには大規模な演算量が必要となるため、NvidiaのGPUが威力を発揮する。

ちなみに、市場には様々なDeep Learning開発フレームワークがあるが、Nvidiaは米カリフォルニア大学バークレー校(UC Berkeley)が開発した「Caffe」をサポートしている。

画像認識精度が大幅に向上

CNNが一躍注目を集めたのは、2012年に行われた画像認識に関するコンテスト「Large Scale Visual Recognition Challenge」である。このコンテストは、120万の画像に何が写っているかを、1000のクラスに分類する競技である。

画像認識の精度は毎年数%しか向上していないが、2012年は10%と大幅に向上した(下の写真)。これはNvidiaの GPUでAlexNetを稼働した成果で、CNNの実力が世界に認められた年となった。ちなみに2014年は、米Google(グーグル)が「GoogLeNet」で圧勝している。

画像認識精度の変遷(出典: NVIDIA)

無人で時速200キロ走行

NvidiaはAudiと10年にわたって共同開発を続けており、Audi上級副社長のRicky Hudi氏はDrive PXを採用する計画を明らかにした。既に開発を進めている画像認識システムのプラットフォームとして、Drive PX を使う。これは超並列システムと機械学習(Machine Learning)を応用したシステムで、Audiの自動運転車が市場に登場するのはそう遠くないとしている。

実際、Audiは自動運転車「RS7」のコンセプトカー「Bobby」を、ドイツのホッケンハイムレース場で試験走行し、時速200キロで走行することに成功した(下の写真)。自動車にドライバーは搭乗しておらず、自律走行でレース場を駆け抜けた。ここはF1レースが開催される名門コースで、Bobbyの"スキル"はトップレーサーの技術に相当する、との評価を受けた。

Audiは自動運転車「RS7」のコンセプトカー「Bobby」を、ドイツのホッケンハイムレース場で試験走行(出典: Audi)

また、Audi の「A7」をベースにした自動運転車「Jack」は、CESの開催に合わせて、米カリフォルニア州のシリコンバレーからラスベガスまで、自動運転で走行するデモを披露した。

ここ数年、世界の大手自動車メーカーによる自動運転技術の開発競争が激化しているが、Nvidiaがプラットフォームを提供することで、開発速度はさらに高まるだろう。自動運転技術のトップランナーはGoogleとの見方は多いが、Nvidiaの協力を得た自動車メーカーが巻き返す可能性はある。

宮本 和明(みやもと・かずあき)
米ベンチャークレフ代表 1955年広島県生まれ。1985年、富士通より米国アムダールに赴任。北米でのスーパーコンピューター事業を推進。2003年、シリコンバレーでベンチャークレフを設立。ベンチャー企業を中心とする、ソフトウエア先端技術の研究を行う。20年に及ぶシリコンバレーでのキャリアを背景に、ブログ「Emerging Technology Review」で技術トレンドをレポートしている。

[ITpro 2015年2月3日付の記事を基に再構成]

春割ですべての記事が読み放題
今なら2カ月無料!

関連企業・業界

企業:

セレクション

トレンドウオッチ

新着

ビジネス

暮らし

ゆとり

新着

ビジネス

暮らし

ゆとり

新着

ビジネス

暮らし

ゆとり

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
春割で申し込むログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
春割で申し込むログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
春割で申し込むログイン