2019年9月22日(日)

AWS、独自AIチップを開発 機械学習の推論に特化

2018/11/30 13:33
保存
共有
印刷
その他

日経クロステック

米アマゾン・ウェブ・サービス(AWS)は2018年11月28日(米国時間)、人工知能(AI)専用プロセッサー「AWS Inferentia(インファレンティア)」を発表した。ディープラーニング(深層学習)など機械学習の推論に特化しており、推論の処理コストを大幅に削減できるとする。19年後半に同プロセッサーを使ったクラウドサービスを開始する。

AWSのアンディ・ジャシーCEO

AWSのアンディ・ジャシーCEO

米ラスベガスで開催中のAWSの年次カンファレンス「AWS re:Invent」の基調講演で発表した。基調講演に登壇したAWSのアンディ・ジャシー最高経営責任者(CEO)は「機械学習アプリケーションの運用コストの90%近くが推論に費やされている」と指摘。現在のGPU(画像処理半導体)よりも安価に推論を処理できるクラウドサービスを実現するために、推論処理専用プロセッサーであるAWS Inferentiaを開発したと説明した。

■複数のフレームワークに対応

AWS Inferentiaは、8ビット整数(INT8)の演算や半精度(FP16、16ビット)の浮動小数点演算を、毎秒数百兆回実行できる予定だ(数百TOPS)。推論処理に必要な8ビット整数や精度が低い浮動小数点の演算に特化することで演算回数を増やす。こうした戦略は米グーグルが16年に発表した「TPU(テンソル・プロセッシング・ユニット)」など他社のAI専用プロセッサーとも共通する。

AWS Inferentiaは「TensorFlow(テンソルフロー)」や「MXNet(エムエックスネット)」、「PyTorch(パイトーチ)」など様々な機械学習フレームワークで開発したモデルの推論に対応する。グーグルのTPUはTensorFlowにのみ対応する。複数のフレームワークに対応する点が、TPUと比べた場合のメリットになりそうだ。

AWSは同時に、推論用の安価なGPUを仮想サーバー「Amazon EC2」で利用可能にする「Amazon Elastic Inference」も発表した。どのタイプのEC2インスタンスにも追加可能なGPUで、従来の機械学習用GPUを搭載する高性能なEC2インスタンスを使用するのに比べて、推論処理のコストを75%削減できるという。

(日経BP社シリコンバレー支局 中田敦)

[日経 xTECH 2018年11月29日掲載]

保存
共有
印刷
その他

電子版トップ



[PR]

日本経済新聞社の関連サイト

日経IDの関連サイト

日本経済新聞 関連情報

新しい日経電子版のお知らせ

より使いやすく、よりビジュアルに!日経電子版はデザインやページ構成を全面的に見直します。まず新たなトップページをご覧いただけます。

※もとの電子版にもすぐ戻れます。