論文の概要: Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2511.17982v1
- Date: Sat, 22 Nov 2025 08:52:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.56631
- Title: Towards Effective, Stealthy, and Persistent Backdoor Attacks Targeting Graph Foundation Models
- Title(参考訳): グラフファウンデーションモデルをターゲットにした効果的な,安定した,永続的なバックドア攻撃に向けて
- Authors: Jiayi Luo, Qingyun Sun, Lingjuan Lyu, Ziwei Zhang, Haonan Yuan, Xingcheng Fu, Jianxin Li,
- Abstract要約: Graph Foundation Models(GFM)は、さまざまなソースドメインで事前トレーニングされ、目に見えないターゲットに適応する。
GFMに対するバックドア攻撃は、3つの主要な課題のために簡単ではない。
グラフ基礎モデルに対する新たなバックドア攻撃モデルであるGFM-BAを提案する。
- 参考スコア(独自算出の注目度): 62.87838888016534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Foundation Models (GFMs) are pre-trained on diverse source domains and adapted to unseen targets, enabling broad generalization for graph machine learning. Despite that GFMs have attracted considerable attention recently, their vulnerability to backdoor attacks remains largely underexplored. A compromised GFM can introduce backdoor behaviors into downstream applications, posing serious security risks. However, launching backdoor attacks against GFMs is non-trivial due to three key challenges. (1) Effectiveness: Attackers lack knowledge of the downstream task during pre-training, complicating the assurance that triggers reliably induce misclassifications into desired classes. (2) Stealthiness: The variability in node features across domains complicates trigger insertion that remains stealthy. (3) Persistence: Downstream fine-tuning may erase backdoor behaviors by updating model parameters. To address these challenges, we propose GFM-BA, a novel Backdoor Attack model against Graph Foundation Models. Specifically, we first design a label-free trigger association module that links the trigger to a set of prototype embeddings, eliminating the need for knowledge about downstream tasks to perform backdoor injection. Then, we introduce a node-adaptive trigger generator, dynamically producing node-specific triggers, reducing the risk of trigger detection while reliably activating the backdoor. Lastly, we develop a persistent backdoor anchoring module that firmly anchors the backdoor to fine-tuning-insensitive parameters, enhancing the persistence of the backdoor under downstream adaptation. Extensive experiments demonstrate the effectiveness, stealthiness, and persistence of GFM-BA.
- Abstract(参考訳): Graph Foundation Models (GFM) は、さまざまなソースドメインで事前トレーニングされ、目に見えないターゲットに適応し、グラフ機械学習の広範な一般化を可能にする。
GFMは近年かなりの注目を集めているが、バックドア攻撃に対する脆弱性はいまだに未発見のままである。
妥協されたGFMは、ダウンストリームアプリケーションにバックドアの動作を導入し、重大なセキュリティリスクを生じさせる可能性がある。
しかし、GFMに対するバックドア攻撃は、3つの重要な課題のために簡単ではない。
1) 有効性: 攻撃者は事前訓練中に下流タスクの知識を欠き, 所望のクラスに確実に誤分類を誘導する保証を複雑化する。
2)ステルス性: ドメイン間のノード機能の変動は、ステルス性を維持したトリガー挿入を複雑にする。
(3)永続性: 下流の微調整はモデルパラメータを更新することでバックドアの振る舞いを消去する。
これらの課題に対処するため,グラフ基礎モデルに対する新たなバックドア攻撃モデルであるGFM-BAを提案する。
具体的には、まず、ラベルのないトリガー関連モジュールを設計し、そのトリガーをプロトタイプの埋め込みセットにリンクし、バックドアインジェクションを実行するための下流タスクに関する知識を不要にする。
次に,ノード適応型トリガ発生器を導入し,ノード固有のトリガを動的に生成し,トリガ検出のリスクを低減し,バックドアを確実に活性化する。
最後に,バックドアを微調整不感なパラメータに固定し,下流適応時のバックドアの持続性を向上する持続的バックドアアンカーモジュールを開発した。
GFM-BAの有効性、ステルス性、持続性を示す大規模な実験。
関連論文リスト
- Stealthy Dual-Trigger Backdoors: Attacking Prompt Tuning in LM-Empowered Graph Foundation Models [22.332422970426304]
LMを内蔵したグラフ基盤モデル(GFM)は、安全でないプロンプトチューニングフェーズにおいて、ユニークなセキュリティ脆弱性を導入する。
テキストレベルと構造レベルの両方で動作する新しいデュアルトリガーバックドアアタックフレームワークを提案する。
我々の研究は、Web をデプロイした LM 搭載 GFM における重要なバックドアリスクを強調し、オープンソースプラットフォームのためのより堅牢な監視メカニズムの開発に寄与する。
論文 参考訳(メタデータ) (2025-10-16T09:10:38Z) - Heterogeneous Graph Backdoor Attack [6.992886527087087]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、さまざまなドメインにわたる複雑なマルチタイプ関係のモデリングに優れていますが、バックドア攻撃に対する脆弱性はまだ解明されていません。
このギャップに対処するため、既存のグラフバックドア攻撃に対するHGNNの感受性に関する最初の調査を行う。
我々は,HGNN向けに設計された最初のバックドア攻撃であるヘテロジニアスグラフバックドア攻撃(HGBA)を提案する。
論文 参考訳(メタデータ) (2025-05-30T20:02:43Z) - Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [11.671718919130099]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - BEEAR: Embedding-based Adversarial Removal of Safety Backdoors in Instruction-tuned Language Models [57.5404308854535]
大型言語モデル(LLM)における安全バックドア攻撃は、正常な相互作用中の検出を回避しながら、安全でない振る舞いをステルス的に引き起こすことができる。
モデル埋め込み空間において,バックドアトリガーが比較的均一なドリフトを引き起こすという知見を活かした緩和手法であるBEEARを提案する。
両レベル最適化手法は、不要な振る舞いを誘発する普遍的な埋め込み摂動を特定し、モデルパラメータを調整し、これらの摂動に対する安全な振舞いを強化する。
論文 参考訳(メタデータ) (2024-06-24T19:29:47Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Neighboring Backdoor Attacks on Graph Convolutional Network [30.586278223198086]
本稿では,隣接するバックドアと呼ばれる,グラフデータに特有の新しいバックドアを提案する。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
論文 参考訳(メタデータ) (2022-01-17T03:49:32Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。