/

東大、対話型AIモデル構築システムLookHereを構築

発表日:2022年11月01日

人の「示す」動作を考慮してAIモデルを構築するシステム

——AIモデルの開発をより手軽により正確に——

1.発表者:

矢谷 浩司(東京大学 大学院工学系研究科電気系工学専攻 准教授)

2.発表のポイント:

◆ ユーザが行う物体を示す動作(教示動作)を基に、撮影された静止画においてどの部分にユーザがAIモデルに学習させたいと思う物体があるかを推定し、その部分に重きをおいて学習を行うことができる対話型AIモデル構築システムLookHereを構築しました。

◆ 持ち上げて見せる、指し示すなど、人間が自然と理解できるユーザの教示動作を、AIモデルの学習において明示的に考慮できるシステムを実現し、ユーザが意図する物体を正確にAIモデルの学習に取り入れることを可能としました。

◆ 本研究成果はAIの専門家や開発者でない一般のユーザが信頼性のあるAIモデルを構築することを助け、AI開発の市民化を加速させることが期待されます。

3.発表概要:

東京大学大学院工学系研究科電気系工学専攻の矢谷浩司准教授らのグループは、ユーザが行う教示動作を基に、撮影された静止画においてどの部分にユーザがAIモデルに学習させたいと思う物体があるかを推定し、その部分に重きをおいて学習を行うことができる対話型AIモデル構築システムLookHereを構築しました。このシステムにより、ユーザはシステムが学習させたい物体部分がAIモデルの学習に使われるかを事前に確認することができ、信頼性のあるAIモデルの構築に繋がります。さらに、LookHereシステムを実現するために収集した、ユーザの教示動作の画像データセットHuTicsも公開しており、ユーザインタフェースや人工知能の研究者・技術者が自由に使用して、新たな技術やアプリケーションを構築していくことが期待されます。

本研究成果は、2022年10月31日(米国太平洋夏時間)に国際会議The ACM Symposium on User Interface Software and Technologyにおいて口頭発表とデモを予定しています。

※以下は添付リリースを参照

リリース本文中の「関連資料」は、こちらのURLからご覧ください。

添付リリース

https://release.nikkei.co.jp/attach/643091/01_202210281457.pdf

すべての記事が読み放題
有料会員が初回1カ月無料

産業で絞り込む
  • すべて
  • 情報・通信
  • メディア
  • 電機
  • 金融・保険
  • 自動車
  • 輸送・レジャー
  • 食品
  • 流通・外食
  • 日用品
  • 医薬・医療
  • 建設・不動産
  • 機械
  • 素材・エネルギー
  • 商社・サービス
  • すべて
  • 情報・通信
  • メディア
  • 電機
  • 金融・保険
  • 自動車
  • 輸送・レジャー
  • 食品
  • 流通・外食
  • 日用品
  • 医薬・医療
  • 建設・不動産
  • 機械
  • 素材・エネルギー
  • 商社・サービス

セレクション

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

新着

注目

ビジネス

ライフスタイル

フォローする
有料会員の方のみご利用になれます。気になる連載・コラム・キーワードをフォローすると、「Myニュース」でまとめよみができます。
新規会員登録ログイン
記事を保存する
有料会員の方のみご利用になれます。保存した記事はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン
Think! の投稿を読む
記事と併せて、エキスパート(専門家)のひとこと解説や分析を読むことができます。会員の方のみご利用になれます。
新規会員登録 (無料)ログイン
図表を保存する
有料会員の方のみご利用になれます。保存した図表はスマホやタブレットでもご覧いただけます。
新規会員登録ログイン