論文の概要: Multi-Instance Adversarial Attack on GNN-Based Malicious Domain
Detection
- arxiv url: http://arxiv.org/abs/2308.11754v1
- Date: Tue, 22 Aug 2023 19:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 17:00:12.183768
- Title: Multi-Instance Adversarial Attack on GNN-Based Malicious Domain
Detection
- Title(参考訳): gnnに基づく悪意領域検出に対するマルチインスタンス攻撃
- Authors: Mahmoud Nazzal, Issa Khalil, Abdallah Khreishah, NhatHai Phan, and Yao
Ma
- Abstract要約: 悪意のあるドメイン検出(MDD)は、インターネットドメインがサイバー攻撃と関連しているかどうかを検出することを目的としたオープンセキュリティの課題である。
GNNベースのMDDはDNSログを使用して、悪意グラフ(DMG)のノードとしてインターネットドメインを表現している。
我々は、GNNベースのMDDに対する推論時マルチインスタンス対逆攻撃であるMintAを紹介する。
- 参考スコア(独自算出の注目度): 8.072660302473508
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious domain detection (MDD) is an open security challenge that aims to
detect if an Internet domain is associated with cyber-attacks. Among many
approaches to this problem, graph neural networks (GNNs) are deemed highly
effective. GNN-based MDD uses DNS logs to represent Internet domains as nodes
in a maliciousness graph (DMG) and trains a GNN to infer their maliciousness by
leveraging identified malicious domains. Since this method relies on accessible
DNS logs to construct DMGs, it exposes a vulnerability for adversaries to
manipulate their domain nodes' features and connections within DMGs. Existing
research mainly concentrates on threat models that manipulate individual
attacker nodes. However, adversaries commonly generate multiple domains to
achieve their goals economically and avoid detection. Their objective is to
evade discovery across as many domains as feasible. In this work, we call the
attack that manipulates several nodes in the DMG concurrently a multi-instance
evasion attack. We present theoretical and empirical evidence that the existing
single-instance evasion techniques for are inadequate to launch multi-instance
evasion attacks against GNN-based MDDs. Therefore, we introduce MintA, an
inference-time multi-instance adversarial attack on GNN-based MDDs. MintA
enhances node and neighborhood evasiveness through optimized perturbations and
operates successfully with only black-box access to the target model,
eliminating the need for knowledge about the model's specifics or non-adversary
nodes. We formulate an optimization challenge for MintA, achieving an
approximate solution. Evaluating MintA on a leading GNN-based MDD technique
with real-world data showcases an attack success rate exceeding 80%. These
findings act as a warning for security experts, underscoring GNN-based MDDs'
susceptibility to practical attacks that can undermine their effectiveness and
benefits.
- Abstract(参考訳): 悪意のあるドメイン検出(mdd)は、インターネットドメインがサイバー攻撃に関連しているかどうかを検出するオープンセキュリティチャレンジである。
この問題に対する多くのアプローチの中で、グラフニューラルネットワーク(GNN)は非常に効果的であると考えられている。
GNNベースのMDDは、悪意のあるグラフ(DMG)のノードとしてインターネットドメインを表すためにDNSログを使用し、悪意のあるドメインを識別して悪意のあるドメインを推測するためにGNNを訓練する。
この方法は、DMGを構築するためにアクセス可能なDNSログに依存するため、敵がDMG内のドメインノードの機能や接続を操作する脆弱性を公開する。
既存の研究は主に個々の攻撃ノードを操作する脅威モデルに集中している。
しかし、敵は通常、経済的に目的を達成し、検出を避けるために複数のドメインを生成する。
彼らの目的は、できるだけ多くのドメインにわたる発見を避けることである。
本研究では,DMG内の複数のノードを同時に操作する攻撃をマルチインスタンス回避攻撃と呼ぶ。
我々は,既存の単一インスタンス回避技術が,GNNベースのMDDに対するマルチインスタンス回避攻撃に不十分であるという理論的および実証的な証拠を提示する。
そこで我々は,GNNベースのMDDに対する推論時マルチインスタンス攻撃であるMintAを紹介する。
mintaは、最適化された摂動によってノードと近傍の回避性を強化し、ターゲットモデルへのブラックボックスのみアクセスでうまく動作し、モデルの仕様や非敵ノードに関する知識を不要にする。
我々はMintAの最適化課題を定式化し、近似解を実現する。
実世界のデータを用いたGNNベースのMDD技術でMintAを評価すると、攻撃成功率は80%を超えている。
これらの発見はセキュリティ専門家にとって警告となり、gnnベースのmddがそれらの効果と利益を損なう実用的な攻撃に対する感受性を強調する。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Identifying Backdoored Graphs in Graph Neural Network Training: An Explanation-Based Approach with Novel Metrics [13.93535590008316]
グラフニューラルネットワーク(GNN)は多くのドメインで人気を集めているが、バックドア攻撃に弱い。
グラフレベルの説明を創造的に活用する新しい検出法を考案した。
提案手法は, バックドア攻撃に対するGNNの安全性向上に寄与し, 高い検出性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-26T22:41:41Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Single-Node Attack for Fooling Graph Neural Networks [5.7923858184309385]
グラフニューラルネットワーク(GNN)は、さまざまな領域で幅広い適用性を示している。
ソーシャルネットワークやプロダクトレコメンデーションなど、これらのドメインのいくつかは、悪意のあるユーザや行動に肥大している。
本稿では,GNNが単一ノード対逆例の極めて限られたシナリオに対して脆弱であることを示す。
論文 参考訳(メタデータ) (2020-11-06T19:59:39Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。