2018年10月22日(月)

サイバー攻撃が新段階 「AI対AI」時代の戦い方
VentureBeat

コラム(テクノロジー)
AI
(1/2ページ)
2018/3/17 6:30
保存
共有
印刷
その他

VentureBeat

人工知能(AI)の実社会への利用が急増し、活用される範囲も広がっているため、車の運転や友人にメッセージを送るといった日常生活でAIの影響を実感せずにはいられない。これはサイバーセキュリティーの世界にも当てはまる。攻撃側も防御側も優位を得ようとAIに注目しているからだ。さらにデータの利用も広がり、AIを使って新たなデータ社会を理解するケースが増えている。このため、AIがセキュリティーに及ぼす影響も理解しておかなくてはならない。

(C)Shutterstock/Jochen Schoenfeld

(C)Shutterstock/Jochen Schoenfeld

防御側は何十年もの間、悪意ある行為であることを示す特定のパターン「シグネチャ」を検知して、攻撃を撃退してきた。このボトムアップ型のアプローチは後手にすぎなかった。新たな攻撃では展開されるシグネチャも新しいため、攻撃側はデジタル世界の攻防で常に優位に立ってきた。だが、AIを活用した次世代の解決策では、トップダウン型のアプローチをとり、大量の活動データを統計モデルに入れることで攻撃に対処。このシグネチャから統計への移行により、防御は新しい攻撃に先手を打ち、パターンを以前よりも簡単に見つけられるようになった。

AIを活用した防御策は盛んになり、今では迷惑メールのフィルタリング、悪意あるファイルやURLの検出など基本的な問題で広く使われている。こうしたモデルは通常、教師あり機械学習のアルゴリズムを使い、入力(例えば“https://google.com"といったドメイン名)から出力(例えば「安全」や「悪意ある」といったラベル)を導き出す。教師あり学習を使えば防御側のニーズに応じて「安全」と「悪意」を識別できるかもしれないが、既存のラベルを使うため費用がかさみ、時間もかかる。データのラベル付けには事前の作業が必要で、分野に対する専門知識が求められ、別の目的に使えるとは限らないので、AIを使った効果的な防御策を築く上での大きなネックになっている。

■攻撃側は常に優位に立ってきたが…

AIを活用した防御には他にも弱点がある。モデルの精度はラベルの忠実度で決まるため、攻撃側はわざと誤ったラベルを混ぜたデータセットでモデルを訓練して、モデルを人工的に汚染させることができる。これにより、攻撃側は検知を回避できるサンプルを作れる。わずかにかく乱されたインプットにシステム的に脆弱性があるため、困惑するほどの確度でエラーを犯すモデルもある。いわゆる「敵対的サンプル」とは、自動運転の物体認識機能を欺くために一時停止の標識にシールを貼ったり、スマートスピーカーで使われる音声認識機能を欺くために、警察に電話がかかる秘密の音声コマンドを仕掛けたりするといった実際の攻撃で説明できる。

こうした例は一般市民にとっては急所を突かれるかもしれないが、サイバーセキュリティーの専門家にとっては(テクノロジーの)突破口と推進のきっかけになり得る。攻撃側は自動化に着目しつつあり、すぐにAI自体に目を向けてこうした弱点につけこむようになるだろう。つまり、「赤組」の攻撃者も「青組」の防御者と同じほどデータから恩恵を受けられるのだ。

  • 1
  • 2
  • 次へ
保存
共有
印刷
その他

電子版トップ



[PR]

日本経済新聞社の関連サイト

日経IDの関連サイト

日本経済新聞 関連情報