論文の概要: Stealthy Dual-Trigger Backdoors: Attacking Prompt Tuning in LM-Empowered Graph Foundation Models
- arxiv url: http://arxiv.org/abs/2510.14470v1
- Date: Thu, 16 Oct 2025 09:10:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.795733
- Title: Stealthy Dual-Trigger Backdoors: Attacking Prompt Tuning in LM-Empowered Graph Foundation Models
- Title(参考訳): 静かなデュアルトリガーバックドア:LM-Empowered Graph Foundation Modelにおけるプロンプトチューニングの攻撃
- Authors: Xiaoyu Xue, Yuni Lai, Chenxi Huang, Yulin Zhu, Gaolei Li, Xiaoge Zhang, Kai Zhou,
- Abstract要約: LMを内蔵したグラフ基盤モデル(GFM)は、安全でないプロンプトチューニングフェーズにおいて、ユニークなセキュリティ脆弱性を導入する。
テキストレベルと構造レベルの両方で動作する新しいデュアルトリガーバックドアアタックフレームワークを提案する。
我々の研究は、Web をデプロイした LM 搭載 GFM における重要なバックドアリスクを強調し、オープンソースプラットフォームのためのより堅牢な監視メカニズムの開発に寄与する。
- 参考スコア(独自算出の注目度): 22.332422970426304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of graph foundation models (GFMs), particularly those incorporating language models (LMs), has revolutionized graph learning and demonstrated remarkable performance on text-attributed graphs (TAGs). However, compared to traditional GNNs, these LM-empowered GFMs introduce unique security vulnerabilities during the unsecured prompt tuning phase that remain understudied in current research. Through empirical investigation, we reveal a significant performance degradation in traditional graph backdoor attacks when operating in attribute-inaccessible constrained TAG systems without explicit trigger node attribute optimization. To address this, we propose a novel dual-trigger backdoor attack framework that operates at both text-level and struct-level, enabling effective attacks without explicit optimization of trigger node text attributes through the strategic utilization of a pre-established text pool. Extensive experimental evaluations demonstrate that our attack maintains superior clean accuracy while achieving outstanding attack success rates, including scenarios with highly concealed single-trigger nodes. Our work highlights critical backdoor risks in web-deployed LM-empowered GFMs and contributes to the development of more robust supervision mechanisms for open-source platforms in the era of foundation models.
- Abstract(参考訳): グラフ基礎モデル(GFM)の出現、特に言語モデル(LM)の導入は、グラフ学習に革命をもたらし、テキスト分散グラフ(TAG)上で顕著なパフォーマンスを示した。
しかしながら、従来のGNNと比較して、これらのLMを内蔵したGFMは、現在の研究で検討されている、セキュリティのないプロンプトチューニングフェーズにおいて、ユニークなセキュリティ脆弱性を導入している。
実験により,属性アクセス不能な制約付きTAGシステムにおいて,明示的なトリガノード属性の最適化を伴わない場合,従来のグラフバックドア攻撃の大幅な性能劣化が明らかになった。
そこで本研究では,テキストレベルと構造レベルの両方で動作する新たなデュアルトリガーバックドアアタックフレームワークを提案し,事前に確立されたテキストプールの戦略的利用を通じて,トリガノードのテキスト属性を明示的に最適化することなく,効果的なアタックを可能にする。
大規模な実験により,攻撃の精度は良好であり,高い隠れシングルトリガーノードのシナリオを含む優れた攻撃成功率を達成できることが示された。
本研究は,Web をデプロイした LM 搭載 GFM における重要なバックドアリスクを強調し,基盤モデル時代におけるオープンソースプラットフォームのより堅牢な監視機構の開発に寄与する。
関連論文リスト
- JANUS: A Dual-Constraint Generative Framework for Stealthy Node Injection Attacks [3.543515488496546]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで顕著なパフォーマンスを示しているが、高度な敵攻撃には弱い。
我々は、JANUS(Joint Alignment of Nodal and Universal Structures)と呼ばれる二重拘束ステルスノード注入フレームワークを提案する。
局所的なレベルでは、特徴空間における幾何的整合性を達成するために、局所的特徴多様体アライメント戦略を導入する。
グローバルレベルでは、構造化潜在変数を組み込んで、生成した構造との相互情報を最大化し、注入された構造が元のグラフのセマンティックパターンと整合していることを保証する。
論文 参考訳(メタデータ) (2025-09-16T17:24:30Z) - Adversarial Attacks and Defenses on Graph-aware Large Language Models (LLMs) [8.885929731174492]
大規模言語モデル(LLM)は、ノード分類のようなタスクのためのグラフ構造化データとますます統合されています。
グラフベースモデルに適した既存の敵攻撃手法を活用することにより、グラフ対応LCMの脆弱性を調査する第一歩を踏み出す。
本稿では,LLMをベースとした特徴補正モジュールを併用して特徴レベルの摂動を軽減し,構造的攻撃から保護するためのGNNディフェンスを適応させる,エンドツーエンドのディフェンスフレームワークGALGUARDを提案する。
論文 参考訳(メタデータ) (2025-08-06T21:38:52Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - PR-Attack: Coordinated Prompt-RAG Attacks on Retrieval-Augmented Generation in Large Language Models via Bilevel Optimization [13.751251342738225]
大規模言語モデル(LLM)は、幅広いアプリケーションで顕著な性能を示している。
それらはまた、時代遅れの知識や幻覚への感受性のような固有の制限も示している。
近年の取り組みはRAGベースのLLMのセキュリティに重点を置いているが、既存の攻撃方法は3つの重大な課題に直面している。
本稿では,少数の有毒テキストを知識データベースに導入する新しい最適化型攻撃であるPrompt-RAGアタック(PR-アタック)を提案する。
論文 参考訳(メタデータ) (2025-04-10T13:09:50Z) - Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - Revisiting Backdoor Attacks against Large Vision-Language Models from Domain Shift [104.76588209308666]
本稿では,LVLMの学習訓練におけるバックドア攻撃について検討する。
我々は,攻撃の堅牢性を評価するために,新たな評価次元,バックドア領域の一般化を導入する。
本稿では,ドメイン非依存的トリガを臨界領域に注入するマルチモーダルアトリビューションバックドアアタック(MABA)を提案する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。