論文の概要: Backdoor Attacks on Discrete Graph Diffusion Models
- arxiv url: http://arxiv.org/abs/2503.06340v1
- Date: Sat, 08 Mar 2025 21:01:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:09.637855
- Title: Backdoor Attacks on Discrete Graph Diffusion Models
- Title(参考訳): 離散グラフ拡散モデルによるバックドア攻撃
- Authors: Jiawen Wang, Samin Karim, Yuan Hong, Binghui Wang,
- Abstract要約: バックドア攻撃に対するグラフ拡散モデルについて検討し、トレーニングフェーズと推論/生成フェーズの両方を操作する重度の攻撃について検討した。
まず,バックドアグラフ拡散モデルがバックドアアクティベーションを伴わない高品質なグラフを生成できるように,1)バックドアアクティベーションを伴わない高品質なグラフ,2)バックドアアクティベーションを持つ有効でステルス性があり永続的なバックドアグラフ,3)グラフ生成モデルにおける不変かつ交換可能な2つのコア特性を持つグラフを設計する。
- 参考スコア(独自算出の注目度): 23.649243273191605
- License:
- Abstract: Diffusion models are powerful generative models in continuous data domains such as image and video data. Discrete graph diffusion models (DGDMs) have recently extended them for graph generation, which are crucial in fields like molecule and protein modeling, and obtained the SOTA performance. However, it is risky to deploy DGDMs for safety-critical applications (e.g., drug discovery) without understanding their security vulnerabilities. In this work, we perform the first study on graph diffusion models against backdoor attacks, a severe attack that manipulates both the training and inference/generation phases in graph diffusion models. We first define the threat model, under which we design the attack such that the backdoored graph diffusion model can generate 1) high-quality graphs without backdoor activation, 2) effective, stealthy, and persistent backdoored graphs with backdoor activation, and 3) graphs that are permutation invariant and exchangeable--two core properties in graph generative models. 1) and 2) are validated via empirical evaluations without and with backdoor defenses, while 3) is validated via theoretical results.
- Abstract(参考訳): 拡散モデルは、画像やビデオデータのような連続データ領域における強力な生成モデルである。
離散グラフ拡散モデル(DGDM)は、分子やタンパク質モデリングなどの分野において重要なグラフ生成のために最近拡張し、SOTA性能を得た。
しかし、安全上重要なアプリケーション(例えば薬物発見)にDGDMをデプロイすることは、セキュリティ上の脆弱性を理解することなく危険である。
本研究では,バックドア攻撃に対するグラフ拡散モデルの最初の研究を行い,グラフ拡散モデルにおけるトレーニングフェーズと推論/生成フェーズの両方を操作する重度攻撃について述べる。
まず、脅威モデルを定義し、バックドアグラフ拡散モデルが生成できるようにアタックを設計する。
1)バックドアアクティベーションのない高品質なグラフ。
2) バックドアアクティベーションを有する有効で、ステルス的で、永続的なバックドアグラフ
3) 置換不変で交換可能なグラフ - グラフ生成モデルにおける2つのコア特性。
1)と
2)バックドア・ディフェンスのない経験的評価によって検証される。
3)理論的な結果によって検証される。
関連論文リスト
- Graph Defense Diffusion Model [26.41730982598055]
グラフニューラルネットワーク(GNN)は、敵攻撃に対して非常に脆弱であり、パフォーマンスを著しく低下させる可能性がある。
既存のグラフ浄化法は、攻撃されたグラフをフィルタリングすることでこの問題に対処しようとする。
グラフに対する敵攻撃を防御するための,より汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T16:18:40Z) - Defense-as-a-Service: Black-box Shielding against Backdoored Graph Models [8.318114584158165]
リソース制約のあるビジネスオーナーがサードパーティに頼ってバックドア攻撃を回避できるGraphProtを提案する。
GraphProtはモデルに依存しず、入力グラフのみに依存します。
3つのバックドア攻撃と6つのベンチマークデータセットによる実験結果から、GraphProtがバックドア攻撃の成功率を大幅に低下させることが示された。
論文 参考訳(メタデータ) (2024-10-07T11:04:38Z) - Model X-ray:Detecting Backdoored Models via Decision Boundary [62.675297418960355]
バックドア攻撃はディープニューラルネットワーク(DNN)に重大な脆弱性をもたらす
図形化された2次元(2次元)決定境界の解析に基づく新しいバックドア検出手法であるモデルX線を提案する。
提案手法は,クリーンサンプルが支配する意思決定領域とラベル分布の集中度に着目した2つの戦略を含む。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Generative Diffusion Models on Graphs: Methods and Applications [50.44334458963234]
拡散モデルは、新しい生成パラダイムとして、様々な画像生成タスクにおいて顕著な成功を収めた。
グラフ生成は多くの実世界のアプリケーションを持つグラフ上で重要な計算タスクである。
論文 参考訳(メタデータ) (2023-02-06T06:58:17Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Neighboring Backdoor Attacks on Graph Convolutional Network [30.586278223198086]
本稿では,隣接するバックドアと呼ばれる,グラフデータに特有の新しいバックドアを提案する。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
論文 参考訳(メタデータ) (2022-01-17T03:49:32Z) - Reinforcement Learning-based Black-Box Evasion Attacks to Link
Prediction in Dynamic Graphs [87.5882042724041]
動的グラフ(LPDG)におけるリンク予測は、多様な応用を持つ重要な研究課題である。
我々は,LPDG法の脆弱性を調査し,最初の実用的なブラックボックス回避攻撃を提案する。
論文 参考訳(メタデータ) (2020-09-01T01:04:49Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。