論文の概要: Quantifying the Noise of Structural Perturbations on Graph Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2504.20869v2
- Date: Wed, 30 Apr 2025 01:46:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.967164
- Title: Quantifying the Noise of Structural Perturbations on Graph Adversarial Attacks
- Title(参考訳): グラフ対向攻撃における構造摂動のノイズの定量化
- Authors: Junyuan Fang, Han Yang, Haixian Wen, Jiajing Wu, Zibin Zheng, Chi K. Tse,
- Abstract要約: グラフニューラルネットワークは、グラフ関連の課題を解決するために広く利用されている。
グラフ敵対攻撃に関する最近の研究は、現在のグラフニューラルネットワークが悪意のある攻撃に対して堅牢でないことを証明している。
- 参考スコア(独自算出の注目度): 24.620500131169955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks have been widely utilized to solve graph-related tasks because of their strong learning power in utilizing the local information of neighbors. However, recent studies on graph adversarial attacks have proven that current graph neural networks are not robust against malicious attacks. Yet much of the existing work has focused on the optimization objective based on attack performance to obtain (near) optimal perturbations, but paid less attention to the strength quantification of each perturbation such as the injection of a particular node/link, which makes the choice of perturbations a black-box model that lacks interpretability. In this work, we propose the concept of noise to quantify the attack strength of each adversarial link. Furthermore, we propose three attack strategies based on the defined noise and classification margins in terms of single and multiple steps optimization. Extensive experiments conducted on benchmark datasets against three representative graph neural networks demonstrate the effectiveness of the proposed attack strategies. Particularly, we also investigate the preferred patterns of effective adversarial perturbations by analyzing the corresponding properties of the selected perturbation nodes.
- Abstract(参考訳): グラフニューラルネットワークは、近隣住民のローカル情報を利用する学習力の強いため、グラフ関連タスクの解決に広く利用されている。
しかし、近年のグラフ敵対攻撃の研究は、現在のグラフニューラルネットワークが悪意のある攻撃に対して堅牢でないことを証明している。
しかし、既存の研究の多くは、(ほぼ)最適摂動を得るための攻撃性能に基づく最適化目標に重点を置いているが、特定のノード/リンクの注入のような各摂動の強さの定量化には注意を払わず、解釈性に欠けるブラックボックスモデルを選択する。
本研究では,各対向リンクの攻撃強度を定量化するノイズの概念を提案する。
さらに,単一ステップと複数ステップの最適化の観点から,定義した雑音と分類マージンに基づく3つの攻撃戦略を提案する。
3つの代表的なグラフニューラルネットワークに対するベンチマークデータセットで実施された大規模な実験は、提案した攻撃戦略の有効性を実証する。
また, 選択した摂動ノードの特性を解析し, 有効対向摂動のパターンについても検討した。
関連論文リスト
- Oversmoothing as Loss of Sign: Towards Structural Balance in Graph Neural Networks [54.62268052283014]
オーバースムーシングはグラフニューラルネットワーク(GNN)において一般的な問題である
反過剰化手法の3つの主要なクラスは、数学的に符号付きグラフ上のメッセージパッシングと解釈できる。
負のエッジはノードをある程度撃退することができ、これらのメソッドが過剰なスムースを緩和する方法に関する深い洞察を提供する。
論文 参考訳(メタデータ) (2025-02-17T03:25:36Z) - GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization [12.651079126612121]
我々は,厳密なブラックボックス設定を考慮しつつ,ノードベースで行う統合逆攻撃手法を提案する。
提案手法では,対象ノードの選択と特徴摂動の構成を単一最適化問題に統一する。
ラベル指向攻撃に対応するため,本手法を拡張し,適用範囲を広げる。
論文 参考訳(メタデータ) (2024-08-20T15:41:20Z) - Top K Enhanced Reinforcement Learning Attacks on Heterogeneous Graph Node Classification [1.4943280454145231]
グラフニューラルネットワーク(GNN)は、グラフベースのデータに対する例外的なパフォーマンスのため、かなりの関心を集めている。
それらの堅牢性、特に異種グラフ上では、特に敵攻撃に対する探索が過小評価されている。
本稿では,ヘテロKRLAttackを提案する。
論文 参考訳(メタデータ) (2024-08-04T08:44:00Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - Efficient Network Representation for GNN-based Intrusion Detection [2.321323878201932]
過去数十年間、深刻な経済とプライバシーの被害を受けたサイバー攻撃の数が増加している。
本稿では,侵入検知タスクのトポロジ情報の提供を目的とした,フローのグラフとしての新しいネットワーク表現を提案する。
提案するグラフ構造を利用したグラフニューラルネットワーク(GNN)に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-11T16:10:12Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Uncertainty-Aware Robust Learning on Noisy Graphs [22.848589361600382]
本稿では,分散的ロバストな最適化に着想を得た,不確実性を考慮したグラフ学習フレームワークを提案する。
グラフニューラルネットワークベースのエンコーダを用いて、ノードの特徴を埋め込んで、最適なノード埋め込みを見つけます。
このような不確実性を考慮した学習プロセスは、ノード表現の改善と、より堅牢なグラフ予測モデルをもたらす。
論文 参考訳(メタデータ) (2023-06-14T02:45:14Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。