AI生成画像の見分け方、注目ポイントを専門家が伝授
ナショナルジオグラフィック

偽の画像は日々進歩し、本物と見分けが付かなくなっている。現在では、「Midjourney(ミッドジャーニー)」や「DALL・E(ダリ)」といったウェブベースのソフトを使えば、誰でも簡単に画像を生成したり、改ざんしたりすることができる。
幸い人間には偽画像を嗅ぎ分ける本能が備わっていると、米ニューヨーク州立大学バッファロー校で情報工学の教授を務めるルー・シウェイ(呂思偉)氏は言う。ルー氏は現在、AIを使ってAIを制御する方法を研究中だ。そしてAIに合成画像を見分けさせるには、人間がどうやってそれを見分けているかを教えるのが最善の方法だと発見した。
人々は長い間、偽画像と付き合ってきた。写真改ざんの歴史は写真の誕生と共に始まったと言っても過言ではない。例えば、米国の大統領エイブラハム・リンカーンの顔を別の男性の体にのせた1860年の写真がある。本物らしく見せるには当時は相当の労力と技を要した。
しかし時代は変わり、かつてのように専門的な技術を持たない人でも本物のような画像を簡単に作れるようになった。その結果、今、世の中は恐るべき数の合成画像であふれかえっている。しかし、慌てる必要はないとルー氏は言う。本能を働かせて「どこか少し変なもの」を見つけ出し、光の速さで進歩するAIに後れを取らないための方法を紹介しよう。
偽画像を見つけ出すには
まずは落ち着くことだ。私たちは一日中、情報を浴びせられている。脳は0.013秒で1枚の画像を処理するという。何の写真であるかを認識するには十分な時間だろう。しかし本物であるかどうかを判断するには短すぎる。真実だと思っていたことと矛盾するような写真を見た時、人は驚くものだ。その本能的な感覚を無視してはいけない。
「興味深い写真に出会ったら、一瞬止まって考えてみましょう」とルー氏は助言する。「写真が少し変だと感じたら、すぐにリツイートしてはいけません。そうすれば問題のある写真の拡散に手を貸さずに済みます」
注目すべきポイントは
AIは膨大な量の「本物」の写真を学習し、そこから本物に近い写真を生成する。これがAIの弱点だと、ルー氏は言う。つまりAIは学習した写真しか知らず、どこに注意を払うべきか分からないのだ。
これがAIの画像に、ある種のズレあるいは問題を生じさせる。それはよく見れば明らかだ。例えば人物の写真からAIによって捏造されたディープフェイク動画に登場する人物は、ほとんど瞬きをしない。AIが学習する写真の中の人物は目を開けていることが多いからだ。
「ほころびは縫い目から生じるものです」というのは、ウェブサイト開発者で画像照合の専門家、パウロ・オルドベザ氏だ。彼は @picpedant というツイッターアカウントで、インターネット上に拡散した偽画像を見破っている。例えば「しわが寄ったシャツの袖と肌の境目があいまいになっている」場合は偽画像だ。また、「髪の毛や眼鏡、帽子、宝石類、背景に奇妙な点がないか見るといいでしょう」とオルドベザ氏は言う。
人物なら手と目に注目
もし写真に人物が写っていれば、手と目を見ることをルー氏は勧める。
今のAIは人間の手を正確に描写できない。AIが生成した画像の手は指が6本あったり、すべての指の長さが同じだったり、奇妙なポーズをとっていたりする。2023年3月、白いダウンコートを着たローマ教皇フランシスコの画像が拡散した。この画像をよく見ると、教皇はコーヒーの入った紙コップを、プラスチックの蓋のつまみの部分で持っている。たとえコップが空だったとしても、この持ち方は奇妙だ。
では目はどうなのか。人は顔の細かい特徴を敏感に感じ取る。目の動きを追うアイトラッカーで調べると、人は対面する相手の目を繰り返し見ている。情報収集のためだが、人はそうするように進化してきたと話すのは、顔に一瞬現れる「微表情」の専門家であり、米サンフランシスコ州立大学で心理学の教授を務めるデイビッド・マツモト氏だ。
目を見ることで人は相手が友好的なのか敵なのかを区別したり、相手の感情を読み取ったりしているという。こうした評価は素早く行う必要がある。その結果、自分がどう対応するべきか、あるいは必要ならば逃げることを判断するからだ。
人の瞳は丸い。しかしAIはしばしば目の中央に奇妙な形の影を描いてしまう。目が光を反射している部分は、左右同じ場所であるはずだが、AIはこれをうまく描けない。

AIは光や影を描くことも得意ではない。AIが生成した画像に窓や反射面がある場合、本来あるべきでない場所に光や影ができていることがある。これは、物理法則にそぐわない画像を合成するという、AIが抱えている大きな問題の一つだ。
AIの画像には質感があるべき所が不自然に滑らかだったり、真っすぐであるべき物がわずかに曲がっていたりする場合がある。前述のローマ教皇のAI画像では、首から下げた十字架の角が丸みをおび、胸から少し浮いているように見える(重力を無視している状態だ)。
助けになるツールがある
しかしAIが生成したことを物語るこうした兆候には先行きが不透明な点もあると話すのは、メディア上にあふれる情報の真偽を検証するメディアフォレンジック(メディア鑑識)の専門家であり、米カリフォルニア大学バークレー校教授のハニー・ファリド氏だ。「今日聞いたことが、1か月後にも通用する保証はありません。物事は進歩しています。目だけに頼るのは無理があります」
より現実的で、長く使える方法は、常にメディアを疑い、情報の出どころを問い、内容の信ぴょう性を確認することだと、ファリド氏は言う。
グーグルの逆画像検索は便利なツールの1つだ。画像をアップすれば、その画像の生成に関して何かやり取りがあるかどうかを確認できる。しかし逆画像検索は教皇の画像のように広く流布したものには有効だが、広くは知られていなかったり、特殊な画像だったりする場合はあまり役立たないだろう。
このような状況に備えて、データがAIによって生成されたものであるかを検知するサービスを有料で提供している企業がある。米マサチューセッツ工科大学コンピューターサイエンス・人工知能研究所(CSAIL)のダニエラ・ラス所長によると、Reality Defender社などの企業は、高度な電子透かし技術などに関して「活発な研究」を行っているという。「こうした高度な技術は有効であることが分かってきました」と同所長は言う。
AIクリエーターに対しては、AIが生成したコンテンツになんらかの電子透かしを入れることを義務づけるべきだと、ファリド氏は主張する。電子透かしはコンテンツがインターネット上で共有された場合、特に重要になる。ローマ教皇の画像も、元々はAIクリエーターたちが仲間内で共有していたものだ。世の中を騙そうなどという意図はなかったのだが、その意図は無視された状態で、瞬く間にインターネット上に拡散してしまった。
「手の込んだ音声、映像、画像などを作れるようになった時、良からぬことを思いつく人々が出てくるのは明らかです」とファリド氏は言う。「AIを開発する企業が『技術を開発しただけであって、自分たちに責任はない』などと言い逃れするのは許されません」
現在、データがAIによって生成されたものがどうか検知する無料のツールは少なく、あったとしても信頼性に乏しい。
ルー氏と彼の研究チームは、「DeepFake-o-meter」という無料のウェブベースの検知ソフトを開発したが、まだ一般には公開はしていない。
AIの開発には資金が集まる一方で、AIの欠点に対処するための研究には資金が集まらないことが問題だと、ルー氏は指摘する。「私たちの研究は注目されないのです。資金が底をつきつつあります」。ディープフェイクを作るツールとは違い、「私たちの研究は直接的な利益を生みません。私たちはただ、人々が金銭的な損失を被ったり、精神的に間違った方向に向かってしまったりするのを防ぎたいのです」
AIが今後ますます進化すれば、AIの生成物を検知するウェブベースの無料ソフトや、体内を写し出すレントゲン検査機のように、目には見えない電子透かしを検知するツールがもっと必要になるとルー氏は言う。こうしたツールは今も存在するが、利用するには専門の知識が必要で、必ずしも無料あるいは安く使えるものではない。
しかしこうした手段がなくても、AIが生成した画像に騙されない方法はある。警戒し、信じる前にまず確認することだ。
文=Allie Yang/訳=三好由美子(ナショナル ジオグラフィック日本版サイトで2023年4月30日公開)
関連リンク
ナショナルジオグラフィックは1888年に創刊し、大自然の驚異や生き物の不思議、科学、世界各地の文化・歴史・遺跡まで1世紀以上ものあいだ、地球の素顔に迫ってきました。日本語版サイトから厳選した記事を掲載します。