2018年9月24日(月)

プレスリリース

東大、頭部装着型カメラ映像から人の視線の動きを予測する手法を開発

2018/9/11 17:00
保存
共有
印刷
その他

発表日:2018年9月11日

料理中の視点映像から自動学習し、

いつ何から何へ視線が動くかを精度よく予測

 

1.発表者:

 ホワン・イーフェイ(黄 逸飛、Yifei Huang、東京大学 大学院情報理工学系研究科 電子情報学専攻 博士課程1年生)

 サイ・ビンショウ(蔡 敏捷、Minjie Cai、東京大学 生産技術研究所 特任研究員)

 リ・シンキョウ(李 振強、Zhenqiang Li、東京大学 大学院情報理工学系研究科 電子情報学専攻 修士課程2年生)

 佐藤 洋一(東京大学 生産技術研究所 教授)

2.発表のポイント:

 ◆頭にカメラを装着し、視線の動きから人の行動を理解しようとする研究が注目され、視覚的に目立つ箇所や手の位置、頭の動きから視線の動きを予測する手法が報告されてきました。

 ◆今回、特定の作業中の視線の動きを記録した映像セットから、作業特有に見られるパターンをAIで学習させ、視線移動の予測精度を既存手法と比べて最大約40%改善することに成功しました。

 ◆本技術は、ものづくりの技能の伝承や、自閉症スペクトラム障害の早期スクリーニング、自動車の運転手の視認行動分析など、幅広い分野で活用が期待されます。

3.発表概要:

 東京大学 生産技術研究所 ソシオグローバル情報工学研究センターの佐藤 洋一 教授らの研究グループは、頭部装着型カメラにより記録された「一人称視点映像(注1)」から、人の視線の動きをこれまでにない精度で予測する手法を開発しました。

 人の詳細な行動の理解には、人がいつ何に注意を向けているのかを知ることが重要です。映像から人の視線がどう動くかを予測できれば、視線計測デバイスなどの特殊な装置を用いることなく人が何をどう見ているのかを知ることが可能となります。一方、人の視線の動きはその人物が行っている作業に強く依存することが知られていましたが、既存の一人称視点映像からの視線予測手法では、この作業依存性が考慮されていませんでした。

 本研究では、例えば人がキッチンで料理をする中で、どのタイミングでどのような物からどのような物へ視線を動かすのかを、その作業中に記録した一人称視点映像と視線データから事前に学習することにより、新たな映像から、これまでにない精度で視線移動を予測することに成功しました。

 本技術は、ものづくりの現場における技能の伝承や、自閉症スペクトラム障害の早期スクリーニング、自動車運転時の運転手の視認行動分析など、広く人の行動のセンシングと解析に関わるさまざまな分野での活用が期待されます。

 この内容を取りまとめた論文は2018年9月10日(月)~13日(木)にドイツのミュンヘンで開催されるEuropean Conference on Computer Vision(ECCV 2018)において口頭発表論文として発表されます。

 ※以下は添付リリースを参照

 

 

リリース本文中の「関連資料」は、こちらのURLからご覧ください。

添付リリース

http://release.nikkei.co.jp/attach_file/0490199_01.pdf

秋割実施中!日経Wプランが12月末までお得!

保存
共有
印刷
その他

電子版トップ速報トップ



[PR]

日本経済新聞社の関連サイト

日経IDの関連サイト

日本経済新聞 関連情報