特集「財務諸表」の読み方 特集「保険」 専門家たちの金言 特集AI 人口知能がもたらす禍福 特集「本を読む。」 DC特集
その他世界
Written by ZUU online編集部 427記事

MUFG Innovation Hubより

機械学習するAIハッカーがセキュリティプログラムを打ち破る

ネットセキュリティを巡るAI同士の競技

(写真= leolintang/Shutterstock.com)
(写真= leolintang/Shutterstock.com)

「ゼロディによる被害は誰にとっても他人事ではありません。どのようなソフトウェアにも必ず脆弱性があり、それが攻撃者にとって“錠前をこじあける手段”となっています。しかし今夜、私たちは自動化システムを活用して脆弱性への対応を瞬時に行うことでゼロディを排除する可能性を示すことができました。未来は再定義されたのです」

これは、2016年8月のDEF CON 2016とともに開催された自動化プログラム同士のセキュリティ競技「DARPA Cyber Grand Challenge」(以下CGC)が終了した際のブリーフィングで、DARPA(アメリカ国防高等研究計画局) のプログラムマネージャーMike Walker氏が述べた言葉である。

CGCは2013年に募集を開始し104チームがエントリーした。2度に渡るテストと予選を通過した7チームには決勝戦に備えて75万ドル(約7,600万円)の資金が提供された。この競技の開催に至るまでに3年の歳月と総額5,500万ドル(約56億円)の資金が投じられたことを考えれば、アメリカ国防総省がサイバー攻撃への対抗措置と人工知能の開発にどれほど力を入れているかが推測できるだろう。

CGCの決勝戦は、主催者によって用意されたプログラムの脆弱性を探知して適切なパッチを生成することと、敵チームのプログラムを攻撃するためのコードを生成して攻撃を行うことが求められ、それらの総合点によって評価される。

これらはすべて自動化されたプログラムによって行われ、試合開始後は人の手が介在しない。いわばセキュリティを巡るAI同士の攻防戦が行われたのである。優勝はカーネギーメロン大学のチームForAllSecureが開発した「Mayhem」というプログラムで、200万ドル(約2億円)の賞金が授与された。

期待の陰に隠れたもう1つの可能性

冒頭に述べたWalker氏の言葉は、AIをサイバー攻撃への対抗手段とすることが、人類をゼロディの脅威から永遠に解放することを示唆しているかのように聞こえる。

特に2017年に入ってからは、AIを実装したセキュリティプログラムに関するニュースを多く目にするようになった。たとえばCERNのサイバーセキュリティ部門では、同部門が開発したAIセキュリティプログラムを実装した。

これによって、新種のサイバー攻撃であっても不自然なアクセスや異常な挙動を見つければ即座に管理者へアラートを出すことができる。

2017年7月にはAIセキュリティファームDarktraceの評価額が8億2,500万ドル(約900億円)になったことが報じられ、この分野の需要と期待が高まっていることを示唆している。

しかし、実のところCGCはもう1つの可能性も示していた。それは、AIがサイバー攻撃の手段にもなるということだ。

そして、2017年7月にアメリカで開催された2つのセキュリティカンファレンス、Black Hat USA 2017とDEF CON 2017では、この懸念を裏付けるような研究発表やデモンストレーションが行われた。

インターネットセキュリティ企業Endgameで機械学習を用いたセキュリティを研究するHyrum Anderson氏は、Black Hat USA 2017に登壇した際に、AIによるセキュリティシステムは、現実にはまだ多くの弱点があるにもかかわらず、セキュリティ上の課題を全て解決する手段であるかのように過大評価されていると指摘した。

「攻撃者はセキュリティ用に実装されている機械学習のモデルを簡単に悪用することができます。侵入場所に実装された機械学習に攻撃者がアクセスできた場合、彼らはそれをどのようにすれば混乱させられるかということも学習してしまうのです」。

彼は機械学習が他の機械学習による攻撃の影響を受けやすいと述べている。攻撃者の感知やパッチを自動生成するAIプログラムを実装したからといってセキュリティをセキュリティプログラム任せにすることは危険である。セキュリティプログラムを提供する側は、製品をチェックしながら攻撃者がどのようにセキュリティを回避し、あるいは悪用したかをモニタリングし続ける必要があるだろう。

試行錯誤して学習するハッキングAI

Hyrum Anderson氏は、DEF CON 2017でElon Musk氏らが設立したOpenAIのフレームワークを使用し、セキュリティソフトのスキャンを回避するマルウェアを機械学習によって自動生成するデモンストレーションを行った。その結果、15時間で10万回の反復学習を経たマルウェアの16%がセキュリティを突破した。この自動生成プログラムはGitHubで公開されており、「ぜひ試してほしい」とAnderson氏はコメントしている。

DEF CON 2017の他のセッションでは、セキュリティコンサルティングファームBishop Foxの開発者Dan “AltF4” Petroと同社のセキュリティアナリストBen Morris氏が、AIによるハッキングツール「DeepHack」のデモンストレーションを行った。

DeepHackを実装したボットはニューラルネットワークによる試行錯誤を経てウェブサービスに侵入し、そこにある脆弱性を発見して悪用することができる。

これらの発表が示唆していることは、サイバー攻撃への対抗措置としてAIを実装したセキュリティソフトを過信することは現段階では危険であることだけではない。

才能を悪用するハッカーが存在せずとも、AIを実装したツールを使うことで悪意のある攻撃を、最低限の知識を持つ人物であるならば誰もが容易かつ広範囲に行うことができるということを警告しているのである。

2016年の時点では、攻撃者とセキュリティ開発者の闘いは後者の勝利に終わったかにみえた。だが、これらの発表内容を見る限り、セキュリティ分野にAIが参入したことで、攻撃者とセキュリティ開発者の攻防戦は、むしろ次のスタートラインにあるといえるのではないだろうか。

(提供:MUFG Innovation Hub

【オススメ記事 MUFG Innovation Hub】
MUFGのスタートアップアクセラレータ、11月28日より第2期募集開始!
アナリストと自然言語処理レポートの共存 ゼノデータ・ラボ座談会より
スパコンの製造販売!PEZYが立ち上げ狙う民生スパコン市場
新しいFinTechか? 「RegTech」が変える金融規制
「AIによる外貨預金のアドバイザー」を目指すじぶん銀行

機械学習するAIハッカーがセキュリティプログラムを打ち破る
ZUU online の最新記事を
毎日お届けします
PREV ASEANの貿易統計(9月号)~輸出はレバラン休暇に伴う下振れ...
NEXT シンガポールの住宅価格、下落基調に歯止め? 1年後には10%...