論文の概要: On Measuring Unnoticeability of Graph Adversarial Attacks: Observations, New Measure, and Applications
- arxiv url: http://arxiv.org/abs/2501.05015v1
- Date: Thu, 09 Jan 2025 07:16:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 14:00:18.227975
- Title: On Measuring Unnoticeability of Graph Adversarial Attacks: Observations, New Measure, and Applications
- Title(参考訳): グラフ敵対攻撃の無意味性測定について:観測, 新たな測定, 応用
- Authors: Hyeonsoo Jo, Hyunjin Hwang, Fanchen Bu, Soo Yong Lee, Chanyoung Park, Kijung Shin,
- Abstract要約: グラフアタック通知の学習可能な尺度であるHideNSeekを紹介した。
まず、バイパス問題を緩和するために、HideNSeekは元の(潜在的)攻撃エッジと(潜在的)攻撃エッジを区別することを学ぶ。
第二に、見落としの問題を緩和するため、HyNSeekはすべてのエッジスコアの不均衡を意識したアグリゲーションを行い、最終的なアグリゲーションスコアを得る。
- 参考スコア(独自算出の注目度): 32.02310294956697
- License:
- Abstract: Adversarial attacks are allegedly unnoticeable. Prior studies have designed attack noticeability measures on graphs, primarily using statistical tests to compare the topology of original and (possibly) attacked graphs. However, we observe two critical limitations in the existing measures. First, because the measures rely on simple rules, attackers can readily enhance their attacks to bypass them, reducing their attack "noticeability" and, yet, maintaining their attack performance. Second, because the measures naively leverage global statistics, such as degree distributions, they may entirely overlook attacks until severe perturbations occur, letting the attacks be almost "totally unnoticeable." To address the limitations, we introduce HideNSeek, a learnable measure for graph attack noticeability. First, to mitigate the bypass problem, HideNSeek learns to distinguish the original and (potential) attack edges using a learnable edge scorer (LEO), which scores each edge on its likelihood of being an attack. Second, to mitigate the overlooking problem, HideNSeek conducts imbalance-aware aggregation of all the edge scores to obtain the final noticeability score. Using six real-world graphs, we empirically demonstrate that HideNSeek effectively alleviates the observed limitations, and LEO (i.e., our learnable edge scorer) outperforms eleven competitors in distinguishing attack edges under five different attack methods. For an additional application, we show that LEO boost the performance of robust GNNs by removing attack-like edges.
- Abstract(参考訳): 敵の攻撃は目立たないと言われている。
従来の研究では、主に統計テストを用いて、元のグラフと(おそらく)攻撃されたグラフのトポロジを比較して、グラフに対する攻撃注意度尺度を設計してきた。
しかし,既存の対策には2つの限界がある。
第一に、この対策は単純なルールに依存しているため、攻撃者は簡単に攻撃を回避し、攻撃の「通知可能性」を減らし、攻撃性能を維持できる。
第二に、度数分布のような地球規模の統計を自然に活用しているため、激しい摂動が起こるまで、攻撃を完全に見落としてしまう可能性があるため、攻撃は「完全に無意味」である。
この制限に対処するために,グラフ攻撃通知の学習可能な尺度であるHitNSeekを紹介した。
まず、バイパス問題を緩和するために、HitNSeekは、学習可能なエッジスコアラー(LEO)を使用して、元のエッジと(潜在的)攻撃エッジを区別することを学ぶ。
第二に、見落としの問題を緩和するため、HyNSeekはすべてのエッジスコアの不均衡を意識したアグリゲーションを行い、最終的なアグリゲーションスコアを得る。
実世界の6つのグラフを用いて、HitNSeekが観測された制限を効果的に緩和し、LEO(学習可能なエッジスコアリング)が5つの異なる攻撃方法の下で攻撃エッジを区別する11の競合より優れていることを実証的に示す。
追加のアプリケーションでは、LEOはアタックのようなエッジを取り除き、堅牢なGNNの性能を向上させる。
関連論文リスト
- E-SAGE: Explainability-based Defense Against Backdoor Attacks on Graph Neural Networks [11.065220952144543]
本稿では,説明可能性に基づくGNNバックドア攻撃の防御手法であるE-SAGEを提案する。
E-SAGEは、エッジスコアに基づいて、グラフ上に反復的なエッジプルーニング処理を適応的に適用する。
本研究では,E-SAGEが攻撃環境における最先端のグラフバックドア攻撃に対して有効であることを示す。
論文 参考訳(メタデータ) (2024-06-15T14:50:41Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Are Defenses for Graph Neural Networks Robust? [72.1389952286628]
グラフニューラルネットワーク(GNN)のディフェンスのほとんどは、未定義のベースラインに比べて、限界的な改善がまったく、あるいはのみであることを示す。
我々は、カスタムアダプティブアタックをゴールドスタンダードとして使用することを提唱し、そのようなアタックをうまく設計して学んだ教訓を概説する。
私たちの多彩な摂動グラフのコレクションは、モデルの堅牢性について一目でわかる(ブラックボックス)単体テストを形成します。
論文 参考訳(メタデータ) (2023-01-31T15:11:48Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Projective Ranking-based GNN Evasion Attacks [52.85890533994233]
グラフニューラルネットワーク(GNN)は、グラフ関連のタスクに対して、有望な学習方法を提供する。
GNNは敵の攻撃の危険にさらされている。
論文 参考訳(メタデータ) (2022-02-25T21:52:09Z) - Query-based Adversarial Attacks on Graph with Fake Nodes [32.67989796394633]
そこで本研究では,元のグラフに偽ノードの集合を導入することで,新たな敵攻撃を提案する。
具体的には、各被害者ノードに対して、最も敵対的な特徴を取得するよう、被害者モデルに問い合わせる。
私たちの攻撃は実用的で目立たない方法で行われます。
論文 参考訳(メタデータ) (2021-09-27T14:19:17Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - RayS: A Ray Searching Method for Hard-label Adversarial Attack [99.72117609513589]
我々は、レイサーチ攻撃(RayS)を提案し、これはハードラベル攻撃の有効性と効率を大幅に改善する。
モデルの正当性チェックとしても使用できる。
論文 参考訳(メタデータ) (2020-06-23T07:01:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。