論文の概要: Cross-Paradigm Graph Backdoor Attacks with Promptable Subgraph Triggers
- arxiv url: http://arxiv.org/abs/2510.22555v1
- Date: Sun, 26 Oct 2025 07:10:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.243969
- Title: Cross-Paradigm Graph Backdoor Attacks with Promptable Subgraph Triggers
- Title(参考訳): Promptable Subgraph Trigger を用いたクロスパラダイムグラフバックドアアタック
- Authors: Dongyi Liu, Jiangtong Li, Dawei Cheng, Changjun Jiang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、モデル予測を操作するために悪意のあるトリガーを敵に埋め込むバックドア攻撃に対して脆弱である。
既存のトリガジェネレータは構造が単純で、特定の特徴に過度に依存し、単一のグラフ学習パラダイムに集約されることが多い。
本稿では,新たな転送可能なグラフバックドアアタックであるPromptable Subgraph Triggers (CP-GBA) を用いたクロスパラダイムグラフバックドアアタックを提案する。
- 参考スコア(独自算出の注目度): 49.77729302007601
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks(GNNs) are vulnerable to backdoor attacks, where adversaries implant malicious triggers to manipulate model predictions. Existing trigger generators are often simplistic in structure and overly reliant on specific features, confining them to a single graph learning paradigm, such as graph supervised learning, graph contrastive learning, or graph prompt learning. This specialized design, which aligns the trigger with one learning objective, results in poor transferability when applied to other learning paradigms. For instance, triggers generated for the graph supervised learning paradigm perform poorly when tested within graph contrastive learning or graph prompt learning environments. Furthermore, these simple generators often fail to utilize complex structural information or node diversity within the graph data. These constraints limit the attack success rates of such methods in general testing scenarios. Therefore, to address these limitations, we propose Cross-Paradigm Graph Backdoor Attacks with Promptable Subgraph Triggers(CP-GBA), a new transferable graph backdoor attack that employs graph prompt learning(GPL) to train a set of universal subgraph triggers. First, we distill a compact yet expressive trigger set from target graphs, which is structured as a queryable repository, by jointly enforcing class-awareness, feature richness, and structural fidelity. Second, we conduct the first exploration of the theoretical transferability of GPL to train these triggers under prompt-based objectives, enabling effective generalization to diverse and unseen test-time paradigms. Extensive experiments across multiple real-world datasets and defense scenarios show that CP-GBA achieves state-of-the-art attack success rates.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、モデル予測を操作するために悪意のあるトリガーを敵に埋め込むバックドア攻撃に対して脆弱である。
既存のトリガジェネレータは構造が単純であり、特定の特徴に過度に依存し、グラフ教師付き学習、グラフコントラスト学習、グラフプロンプト学習のような単一のグラフ学習パラダイムに収束することが多い。
この特別な設計は、トリガーを1つの学習目標に合わせることで、他の学習パラダイムに適用した場合、トランスファービリティが低下する。
例えば、グラフ教師付き学習パラダイムのために生成されたトリガーは、グラフコントラスト学習やグラフプロンプト学習環境でテストした場合、パフォーマンスが悪くなります。
さらに、これらの単純なジェネレータは、グラフデータ内の複雑な構造情報やノードの多様性を利用できないことが多い。
これらの制約は、一般的なテストシナリオにおけるそのようなメソッドの攻撃成功率を制限する。
そこで本稿では,グラフプロンプト学習(GPL)を用いて,一組のユニバーサルサブグラフトリガをトレーニングする,新たな転送可能なグラフバックドアアタックである,Promptable Subgraph Triggers(CP-GBA)を用いたクロスパラダイムグラフバックドアアタックを提案する。
まず、クラス認識、特徴豊かさ、構造的忠実さを両立させることにより、クエリー可能なリポジトリとして構築されたターゲットグラフからコンパクトで表現豊かなトリガーセットを蒸留する。
第二に、GPLの理論的移行可能性の最初の調査を行い、これらのトリガーを即時的な目的の下で訓練し、多種多様なテストタイムパラダイムへの効果的な一般化を可能にした。
複数の実世界のデータセットと防衛シナリオにわたる大規模な実験は、CP-GBAが最先端の攻撃成功率を達成することを示している。
関連論文リスト
- Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。