論文の概要: Stealthy Yet Effective: Distribution-Preserving Backdoor Attacks on Graph Classification
- arxiv url: http://arxiv.org/abs/2509.26032v1
- Date: Tue, 30 Sep 2025 10:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:45:00.093782
- Title: Stealthy Yet Effective: Distribution-Preserving Backdoor Attacks on Graph Classification
- Title(参考訳): ステルス性はさらに効果的: グラフ分類における分散保存バックドアアタック
- Authors: Xiaobao Wang, Ruoxiao Sun, Yujun Zhang, Bingdao Feng, Dongxiao He, Luzhi Wang, Di Jin,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類といったタスク間で強いパフォーマンスを示している。
ノードレベルの攻撃はローカルメッセージパッシングを利用するが、グラフレベルの攻撃は、ステルスを維持しながらグローバルな表現を操作するという難しい課題に直面している。
DPSBAは,アノマ・アウェア・ディスクリミネーターが指導する敵対的訓練を通じて,流通中のトリガを学習するクリーンラベルバックドアフレームワークである。
- 参考スコア(独自算出の注目度): 27.872083673005363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated strong performance across tasks such as node classification, link prediction, and graph classification, but remain vulnerable to backdoor attacks that implant imperceptible triggers during training to control predictions. While node-level attacks exploit local message passing, graph-level attacks face the harder challenge of manipulating global representations while maintaining stealth. We identify two main sources of anomaly in existing graph classification backdoor methods: structural deviation from rare subgraph triggers and semantic deviation caused by label flipping, both of which make poisoned graphs easily detectable by anomaly detection models. To address this, we propose DPSBA, a clean-label backdoor framework that learns in-distribution triggers via adversarial training guided by anomaly-aware discriminators. DPSBA effectively suppresses both structural and semantic anomalies, achieving high attack success while significantly improving stealth. Extensive experiments on real-world datasets validate that DPSBA achieves a superior balance between effectiveness and detectability compared to state-of-the-art baselines.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類、リンク予測、グラフ分類といったタスクにわたって強力なパフォーマンスを示しているが、予測を制御するためにトレーニング中に認識できないトリガを埋め込むバックドア攻撃には弱いままである。
ノードレベルの攻撃はローカルメッセージパッシングを利用するが、グラフレベルの攻撃は、ステルスを維持しながらグローバルな表現を操作するという難しい課題に直面している。
従来のグラフ分類バックドア法では,稀なサブグラフトリガからの構造偏差とラベルフリップによる意味偏差の2つの主要な異常源を同定し,これらが異常検出モデルにより有毒グラフを容易に検出できるようにする。
そこで本稿では, DPSBAを提案する。DPSBAは, 異常認識型識別器によって誘導される敵の訓練を通じて, 流通中のトリガを学習するクリーンラベルのバックドアフレームワークである。
DPSBAは、構造的および意味的異常の両方を効果的に抑制し、高い攻撃成功を達成し、ステルスを著しく改善する。
実世界のデータセットに対する大規模な実験により、DPSBAは最先端のベースラインと比較して、有効性と検出可能性のバランスが優れていることが検証された。
関連論文リスト
- HeteroHBA: A Generative Structure-Manipulating Backdoor Attack on Heterogeneous Graphs [4.8063680024214275]
異種グラフニューラルネットワーク(HGNN)は多くの実世界のアプリケーションで高い性能を達成しているが、異種グラフに対するバックドア中毒は研究されていない。
本研究では,不均一ノード分類におけるバックドア攻撃について考察する。敵が訓練中に小さなトリガーノードと接続を注入し,テスト時に特定の攻撃ノードを不正に分類し,クリーンな性能を維持しながら攻撃長ラベルに分類する。
そこで我々は,HeteroHBAを提案する。HeteroHBAは,サリエンシベースのスクリーニングによるアタッチメントを誘導する有力な周辺住民を選別し,多様なトリガ特徴と接続パターンを合成し,現地の状況に適合させる。
論文 参考訳(メタデータ) (2025-12-31T06:38:53Z) - Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models [62.87838888016534]
Graph Foundation Models(GFM)は、さまざまなソースドメインで事前トレーニングされ、目に見えないターゲットに適応する。
GFMに対するバックドア攻撃は、3つの主要な課題のために簡単ではない。
グラフ基礎モデルに対する新たなバックドア攻撃モデルであるGFM-BAを提案する。
論文 参考訳(メタデータ) (2025-11-22T08:52:09Z) - Cross-Paradigm Graph Backdoor Attacks with Promptable Subgraph Triggers [49.77729302007601]
グラフニューラルネットワーク(GNN)は、モデル予測を操作するために悪意のあるトリガーを敵に埋め込むバックドア攻撃に対して脆弱である。
既存のトリガジェネレータは構造が単純で、特定の特徴に過度に依存し、単一のグラフ学習パラダイムに集約されることが多い。
本稿では,新たな転送可能なグラフバックドアアタックであるPromptable Subgraph Triggers (CP-GBA) を用いたクロスパラダイムグラフバックドアアタックを提案する。
論文 参考訳(メタデータ) (2025-10-26T07:10:07Z) - A Label-Free Heterophily-Guided Approach for Unsupervised Graph Fraud Detection [60.09453163562244]
本稿では,非教師付きGFDのための非教師付きグラフ不正検出手法(HUGE)を提案する。
推定モジュールでは、GFD の臨界グラフ特性をキャプチャする HALO と呼ばれる新しいラベルフリーなヘテロフィリー計量を設計する。
アライメントに基づく不正検出モジュールにおいて、ランキング損失と非対称アライメント損失を有する合同GNNアーキテクチャを開発する。
論文 参考訳(メタデータ) (2025-02-18T22:07:36Z) - Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [11.671718919130099]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - A semantic backdoor attack against Graph Convolutional Networks [0.0]
セマンティックバックドアアタックはディープニューラルネットワーク(DNN)に対する新しいタイプのバックドアアタックである
グラフ畳み込みネットワーク(GCN)に対するセマンティックバックドア攻撃を提案し,GCNにおけるこの脆弱性の存在を明らかにする。
論文 参考訳(メタデータ) (2023-02-28T07:11:55Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。