論文の概要: BadGraph: A Backdoor Attack Against Latent Diffusion Model for Text-Guided Graph Generation
- arxiv url: http://arxiv.org/abs/2510.20792v1
- Date: Thu, 23 Oct 2025 17:54:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.531257
- Title: BadGraph: A Backdoor Attack Against Latent Diffusion Model for Text-Guided Graph Generation
- Title(参考訳): BadGraph:テキストガイドグラフ生成のための遅延拡散モデルに対するバックドア攻撃
- Authors: Liang Ye, Shengqin Chen, Jiazhu Dai,
- Abstract要約: BadGraphはテキスト誘導グラフ生成のための潜伏拡散モデルをターゲットにしたバックドアアタック手法である。
4つのベンチマークデータセットの実験では、攻撃の有効性とステルスが示されている。
- 参考スコア(独自算出の注目度): 0.3736462499137869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid progress of graph generation has raised new security concerns, particularly regarding backdoor vulnerabilities. While prior work has explored backdoor attacks in image diffusion and unconditional graph generation, conditional, especially text-guided graph generation remains largely unexamined. This paper proposes BadGraph, a backdoor attack method targeting latent diffusion models for text-guided graph generation. BadGraph leverages textual triggers to poison training data, covertly implanting backdoors that induce attacker-specified subgraphs during inference when triggers appear, while preserving normal performance on clean inputs. Extensive experiments on four benchmark datasets (PubChem, ChEBI-20, PCDes, MoMu) demonstrate the effectiveness and stealth of the attack: less than 10% poisoning rate can achieves 50% attack success rate, while 24% suffices for over 80% success rate, with negligible performance degradation on benign samples. Ablation studies further reveal that the backdoor is implanted during VAE and diffusion training rather than pretraining. These findings reveal the security vulnerabilities in latent diffusion models of text-guided graph generation, highlight the serious risks in models' applications such as drug discovery and underscore the need for robust defenses against the backdoor attack in such diffusion models.
- Abstract(参考訳): グラフ生成の急速な進歩は、特にバックドア脆弱性に関して、新たなセキュリティ上の懸念を提起している。
画像拡散や非条件グラフ生成におけるバックドア攻撃についてはこれまで検討されてきたが、条件付き、特にテキスト誘導グラフ生成については、ほとんど検討されていない。
本稿では,テキスト誘導グラフ生成のための遅延拡散モデルを対象としたバックドア攻撃手法であるBadGraphを提案する。
BadGraphはテキストトリガを中毒訓練データに利用し、トリガーの出現時に攻撃者が特定したサブグラフを誘導するバックドアを秘密裏に埋め込むと同時に、クリーンな入力に対する通常のパフォーマンスを保っている。
4つのベンチマークデータセット(PubChem、ChEBI-20、PCDes、MoMu)の大規模な実験では、攻撃の有効性とステルスが示されている。
アブレーション研究により、バックドアはプレトレーニングではなく、VAEおよび拡散訓練中に移植されることが明らかとなった。
これらの結果は,テキスト誘導グラフ生成の潜伏拡散モデルにおけるセキュリティ上の脆弱性を明らかにし,薬物発見などのモデル適用の重大なリスクを強調し,そのような拡散モデルにおけるバックドア攻撃に対する堅牢な防御の必要性を浮き彫りにした。
関連論文リスト
- Backdoor Attacks on Discrete Graph Diffusion Models [23.649243273191605]
バックドア攻撃に対するグラフ拡散モデルについて検討し、トレーニングフェーズと推論/生成フェーズの両方を操作する重度の攻撃について検討した。
まず,バックドアグラフ拡散モデルがバックドアアクティベーションを伴わない高品質なグラフを生成できるように,1)バックドアアクティベーションを伴わない高品質なグラフ,2)バックドアアクティベーションを持つ有効でステルス性があり永続的なバックドアグラフ,3)グラフ生成モデルにおける不変かつ交換可能な2つのコア特性を持つグラフを設計する。
論文 参考訳(メタデータ) (2025-03-08T21:01:15Z) - Fine-tuning is Not Fine: Mitigating Backdoor Attacks in GNNs with Limited Clean Data [51.745219224707384]
グラフニューラルネットワーク(GNN)は,メッセージパッシング機構を通じて,優れたパフォーマンスを実現している。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調している。
本稿では,実践的なバックドア緩和フレームワークである GraphNAD を提案する。
論文 参考訳(メタデータ) (2025-01-10T10:16:35Z) - CopyrightShield: Enhancing Diffusion Model Security against Copyright Infringement Attacks [61.06621533874629]
拡散モデルは、攻撃者が戦略的に修正された非侵害画像をトレーニングセットに注入する著作権侵害攻撃に弱い。
まず、上記の攻撃に対して防御するための防御フレームワーク、PhiliptyShieldを提案する。
実験により,PhiliptyShieldは2つの攻撃シナリオで有毒なサンプル検出性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2024-12-02T14:19:44Z) - MADE: Graph Backdoor Defense with Masked Unlearning [24.97718571096943]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクの処理能力に優れていたため、研究者から大きな注目を集めている。
最近の研究では、GNNはトレーニングデータセットにトリガを注入することで実装されたバックドア攻撃に対して脆弱であることが示されている。
この脆弱性は、薬物発見のようなセンシティブなドメインにおけるGNNの応用に重大なセキュリティリスクをもたらす。
論文 参考訳(メタデータ) (2024-11-26T22:50:53Z) - Distributed Backdoor Attacks on Federated Graph Learning and Certified Defenses [50.53476890313741]
我々は,FedGLに対する効果的な,ステルス的で永続的なバックドア攻撃を提案する。
我々は,任意の位置において任意の形状のトリガに対して,バックドアのFedGLモデルに対する認証された防御を開発する。
我々の攻撃結果は、ほぼ全てのデータセットで90%以上のバックドア精度が得られることを示している。
論文 参考訳(メタデータ) (2024-07-12T02:43:44Z) - SEEP: Training Dynamics Grounds Latent Representation Search for Mitigating Backdoor Poisoning Attacks [53.28390057407576]
現代のNLPモデルは、様々なソースから引き出された公開データセットでしばしば訓練される。
データ中毒攻撃は、攻撃者が設計した方法でモデルの振る舞いを操作できる。
バックドア攻撃に伴うリスクを軽減するために、いくつかの戦略が提案されている。
論文 参考訳(メタデータ) (2024-05-19T14:50:09Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。