論文の概要: Adaptive Backdoor Attacks with Reasonable Constraints on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.09049v1
- Date: Wed, 12 Mar 2025 04:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 15:36:16.768040
- Title: Adaptive Backdoor Attacks with Reasonable Constraints on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワーク上の共振性制約を考慮した適応的バックドアアタック
- Authors: Xuewen Dong, Jiachen Li, Shujun Li, Zhichao You, Qiang Qu, Yaroslav Kholodov, Yulong Shen,
- Abstract要約: ABARC(Adaptive Backdoor Attack with Reasonable Constraints)を提案する。
グラフレベルのタスクに対しては,グラフのトポロジに依存しないサブグラフバックドアアタックを提案する。
ノードレベルのタスクの場合、攻撃はノード機能の分析から始まり、続いてトリガ機能の選択と修正を行います。
- 参考スコア(独自算出の注目度): 23.16556684585613
- License:
- Abstract: Recent studies show that graph neural networks (GNNs) are vulnerable to backdoor attacks. Existing backdoor attacks against GNNs use fixed-pattern triggers and lack reasonable trigger constraints, overlooking individual graph characteristics and rendering insufficient evasiveness. To tackle the above issues, we propose ABARC, the first Adaptive Backdoor Attack with Reasonable Constraints, applying to both graph-level and node-level tasks in GNNs. For graph-level tasks, we propose a subgraph backdoor attack independent of the graph's topology. It dynamically selects trigger nodes for each target graph and modifies node features with constraints based on graph similarity, feature range, and feature type. For node-level tasks, our attack begins with an analysis of node features, followed by selecting and modifying trigger features, which are then constrained by node similarity, feature range, and feature type. Furthermore, an adaptive edge-pruning mechanism is designed to reduce the impact of neighbors on target nodes, ensuring a high attack success rate (ASR). Experimental results show that even with reasonable constraints for attack evasiveness, our attack achieves a high ASR while incurring a marginal clean accuracy drop (CAD). When combined with the state-of-the-art defense randomized smoothing (RS) method, our attack maintains an ASR over 94%, surpassing existing attacks by more than 7%.
- Abstract(参考訳): 最近の研究では、グラフニューラルネットワーク(GNN)がバックドア攻撃に弱いことが示されている。
既存のGNNに対するバックドア攻撃では、固定パターントリガを使用し、適切なトリガ制約がなく、個々のグラフ特性を見落とし、回避性が不十分である。
上記の問題に対処するため、我々は、GNNにおけるグラフレベルとノードレベルの両方のタスクに適用可能な、Reasonable Constraintsによる最初のAdaptive Backdoor AttackであるABARCを提案する。
グラフレベルのタスクに対しては,グラフのトポロジに依存しないサブグラフバックドアアタックを提案する。
ターゲットグラフ毎にトリガーノードを動的に選択し、グラフの類似性、特徴範囲、特徴タイプに基づいて制約のあるノード機能を変更する。
ノードレベルのタスクの場合、攻撃はノードの特徴の分析から始まり、続いてトリガー機能の選択と修正を行い、ノードの類似性、特徴範囲、特徴タイプによって制限される。
さらに、アダプティブエッジプルーニング機構は、隣接するノードがターゲットノードに与える影響を低減し、高い攻撃成功率(ASR)を保証するように設計されている。
実験結果から,攻撃回避性に対する合理的な制約があっても,攻撃精度の低下(CAD)を伴って高いASRを達成できることが示唆された。
最先端の防御ランダム化平滑化(RS)法と組み合わせると,ASRは94%以上であり,既存の攻撃を7%以上上回っている。
関連論文リスト
- Query-Based and Unnoticeable Graph Injection Attack from Neighborhood Perspective [5.29403129046676]
QUGIAはクエリベースの無意味グラフインジェクションアタックである。
被害者ノード接続に基づいてエッジを選択し、ベイズフレームワークを使用してノード機能を生成することで、ノードを注入する。
これにより、インジェクションされたノードが元のグラフノードと似ており、暗黙的にホモフィリを保ち、攻撃をより目立たないものにすることができる。
論文 参考訳(メタデータ) (2025-02-04T02:11:57Z) - Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [5.29403129046676]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。