「視線ひきつける」仕組み、画像生成AIで解析 京都大学
京都大学の石井信教授らは、人が対象に視線を向ける際に働く2種類の「視覚注意」を分離して解析するための人工知能(AI)を開発した。脳の働きの解析に使う画像を深層学習で生成する。2種類の視覚注意は神経活動に重なる部分があり分離が難しかった。ロボットの視覚制御への応用などが期待される。

視覚注意には特徴的な色や光に視線がおのずと引きつけられる受動的な注意と、探し物をしている際などに起こる能動的な注意の2種類がある。画像を目にしたときの眼球の動きなどを基に、受動的な注意を引き起こす度合いを色の濃淡で表したマップ(顕著性マップ)にするなどの分析手法がある。ただし2種類の注意は神経活動の働きなどに重なる部分があり、分離して分析することはこれまで難しかった。
研究グループは対象物が分かりやすい自然な画像と、何が映っているかよく分からないものの目に触れたときの顕著性マップが元の画像に近い画像を作りだす手法を開発した。深層学習の一種の「敵対的生成ネットワーク(GAN)」を画像変換に使う。変換後の画像では対象物がよく分からないため受動的な視線注意が強く働くのに対し、もとの自然な画像では能動的な視線注意が優位になると考えた。
13人の被験者に2種類の画像をランダムな順番で見てもらい、どこに視点が向かうかの脳活動を機能的核磁気共鳴(fMRI)と呼ぶ手法で解析した。もとの自然な画像では、何が映っているかを認識する際に働く「高次視覚野」が強く働いた。一方、変換後の画像では映っている物をよく見ようとする「一次視覚野」などが強く働いていた。
開発した手法について石井教授は「視覚注意の仕組みを解明する新しいツールになる」と話す。注意すべきだが注意の向いていない部分に視線を誘導する補助ツールや、ロボットの視覚制御などへの活用が考えられるという。