2018年2月19日(月)

東大、2次元画像から3次元の形を認識 AIで高精度に

ネット・IT
AI
2018/1/17 6:30
保存
共有
印刷
その他

 東京大学の原田達也教授らは人工知能(AI)を使って2次元の画像から3次元の物の形を高精度で認識する技術を開発した。深層学習(ディープラーニング)で多くの画像を学ばせると、1枚の画像から物の形を推測できるようになり、実物との表面の一致率が6割と世界最高水準になった。空間を認識できるロボットなどに応用し、作業の精度を高める用途を想定する。

絵画の画風をティーポットの3Dの物体に加えた

 原田教授らは様々な角度から表示した飛行機やイスなど13種類の被写体の画像約3万枚を学習データに使った。画像が推測した形と本当の形との差が小さくなるように、人の脳をまねたニューラルネットワーク(神経回路網)の計算モデルを構築した。

 2次元画像から3次元に落とし込む際は、これまで「ボクセル」と呼ばれる多くの立方体を積み重ねる手法が多く使われていた。深層学習を使うのは比較的簡単にできるが、立方体にでこぼこがある分、精度を上げるのが難しい。

 原田教授らはCG(コンピューターグラフィックス)では主流となっている、表面を無数の三角形で表すメッシュという手法を使った。同手法を使うと物体の表面は滑らかだが、つくった3次元の形をもとに、再び2次元画像を推測し直すのが難しかった。

 ニューラルネットワークの改良により、3次元の形から2次元画像を推測し直す技術を確立した。実際の2次元画像に似るように3次元の形を構成したところ、精度が高まった。実物と一致する比率は、飛行機やイスなど13種類のうち10種類で従来の手法を上回った。

 新技術を使えば、物の形に絵画の画風を付け加えることもできる。例えば、ティーポットの画像とピカソやムンクの絵を合わせることで、表面がピカソやムンクの画風をしたティーポットを、3次元の物体として作り出せる。

 これらの技術を応用すれば、ロボットにおいて、撮影した画像から奥行きを推測できるようになるため、物を運んだりつかんだりするのが容易になる。

 現在は物の形を推測できるのは背景のない画像に限定されるが、背景がある画像から推測する研究も進めて、さらに利用しやすくする。

(科学技術部 大越優樹)

[日経産業新聞 2018年1月17日付]

保存
共有
印刷
その他

電子版トップ



[PR]

日本経済新聞社の関連サイト

日経IDの関連サイト

日本経済新聞 関連情報