ZMP、視覚障害者向けナビアプリ 実証実験へクラファン
ロボット開発のZMP(東京・文京)は視覚障害者の歩行を支援するナビゲーションアプリの実証実験に向けたクラウドファンディングの募集を始めた。6月末までの約2カ月間で3000万円を目標に資金を募り、7月以降の実証開始を目指す。

開発中のスマートフォンアプリ「EyeCan(アイキャン)」は、目的地を設定すると、端末のカメラに写る画像から障害物の接近や正確な道筋から外れたことを音で知らせる。自動運転ロボットで培った物体検知や高精度3Dマップなどの技術を応用した。
実証実験では「どんな音だと判断しやすいか、視覚に障害を持つ当事者に使ってもらい検証する」(ZMPの担当者)。視覚や聴覚の障害を持つ学生を対象にした国立大学、筑波技術大学(茨城県つくば市)と共同で開発しており実証実験でも連携する。
実証にはクラウドファンディングの支援者も招き、イベントの開催を予定している。イベントで多くの位置情報を集め、高精度3Dマップの対象地域拡大なども進める。
当初は米アップルのスマートフォン「iPhone」のうち、レーザーを当てて周辺の物体との距離を測る高性能センサー「LiDAR(ライダー)」の機能を搭載する機種が対象になる見通し。米グーグルの基本ソフト(OS)「アンドロイド」への対応も検討する。
ZMPは自動運転ロボの開発に力を入れており、例えばNTTコミュニケーションズや三井不動産がオフィスの警備ロボとしての活用を検討している。今回のアプリも企業向けのインフラサービスなどとしての事業化を視野に入れる。