論文の概要: Stealthy Yet Effective: Distribution-Preserving Backdoor Attacks on Graph Classification
- arxiv url: http://arxiv.org/abs/2509.26032v1
- Date: Tue, 30 Sep 2025 10:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.093782
- Title: Stealthy Yet Effective: Distribution-Preserving Backdoor Attacks on Graph Classification
- Title(参考訳): ステルス性はさらに効果的: グラフ分類における分散保存バックドアアタック
- Authors: Xiaobao Wang, Ruoxiao Sun, Yujun Zhang, Bingdao Feng, Dongxiao He, Luzhi Wang, Di Jin,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類といったタスク間で強いパフォーマンスを示している。
ノードレベルの攻撃はローカルメッセージパッシングを利用するが、グラフレベルの攻撃は、ステルスを維持しながらグローバルな表現を操作するという難しい課題に直面している。
DPSBAは,アノマ・アウェア・ディスクリミネーターが指導する敵対的訓練を通じて,流通中のトリガを学習するクリーンラベルバックドアフレームワークである。
- 参考スコア(独自算出の注目度): 27.872083673005363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated strong performance across tasks such as node classification, link prediction, and graph classification, but remain vulnerable to backdoor attacks that implant imperceptible triggers during training to control predictions. While node-level attacks exploit local message passing, graph-level attacks face the harder challenge of manipulating global representations while maintaining stealth. We identify two main sources of anomaly in existing graph classification backdoor methods: structural deviation from rare subgraph triggers and semantic deviation caused by label flipping, both of which make poisoned graphs easily detectable by anomaly detection models. To address this, we propose DPSBA, a clean-label backdoor framework that learns in-distribution triggers via adversarial training guided by anomaly-aware discriminators. DPSBA effectively suppresses both structural and semantic anomalies, achieving high attack success while significantly improving stealth. Extensive experiments on real-world datasets validate that DPSBA achieves a superior balance between effectiveness and detectability compared to state-of-the-art baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類といったタスクにわたって強力なパフォーマンスを示しているが、予測を制御するためにトレーニング中に認識できないトリガを埋め込むバックドア攻撃には弱いままである。
ノードレベルの攻撃はローカルメッセージパッシングを利用するが、グラフレベルの攻撃は、ステルスを維持しながらグローバルな表現を操作するという難しい課題に直面している。
従来のグラフ分類バックドア法では,稀なサブグラフトリガからの構造偏差とラベルフリップによる意味偏差の2つの主要な異常源を同定し,これらが異常検出モデルにより有毒グラフを容易に検出できるようにする。
そこで本稿では, DPSBAを提案する。DPSBAは, 異常認識型識別器によって誘導される敵の訓練を通じて, 流通中のトリガを学習するクリーンラベルのバックドアフレームワークである。
DPSBAは、構造的および意味的異常の両方を効果的に抑制し、高い攻撃成功を達成し、ステルスを著しく改善する。
実世界のデータセットに対する大規模な実験により、DPSBAは最先端のベースラインと比較して、有効性と検出可能性のバランスが優れていることが検証された。
関連論文リスト
- A Label-Free Heterophily-Guided Approach for Unsupervised Graph Fraud Detection [60.09453163562244]
本稿では,非教師付きGFDのための非教師付きグラフ不正検出手法(HUGE)を提案する。
推定モジュールでは、GFD の臨界グラフ特性をキャプチャする HALO と呼ばれる新しいラベルフリーなヘテロフィリー計量を設計する。
アライメントに基づく不正検出モジュールにおいて、ランキング損失と非対称アライメント損失を有する合同GNNアーキテクチャを開発する。
論文 参考訳(メタデータ) (2025-02-18T22:07:36Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - A semantic backdoor attack against Graph Convolutional Networks [0.0]
セマンティックバックドアアタックはディープニューラルネットワーク(DNN)に対する新しいタイプのバックドアアタックである
グラフ畳み込みネットワーク(GCN)に対するセマンティックバックドア攻撃を提案し,GCNにおけるこの脆弱性の存在を明らかにする。
論文 参考訳(メタデータ) (2023-02-28T07:11:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。