論文の概要: Inference Attacks Against Graph Generative Diffusion Models
- arxiv url: http://arxiv.org/abs/2601.03701v1
- Date: Wed, 07 Jan 2026 08:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-08 18:12:46.163513
- Title: Inference Attacks Against Graph Generative Diffusion Models
- Title(参考訳): グラフ生成拡散モデルに対する推論攻撃
- Authors: Xiuling Wang, Xin Huang, Guibo Luo, Jianliang Xu,
- Abstract要約: グラフ生成拡散モデルは、複雑なグラフ構造を生成するための強力なパラダイムとして登場した。
しかし、これらのモデルに関連するプライバシーリスクはほとんど未解明のままである。
本稿では,3種類のブラックボックス推論攻撃を用いて,そのようなモデルにおける情報漏洩について検討する。
- 参考スコア(独自算出の注目度): 20.384972857911976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph generative diffusion models have recently emerged as a powerful paradigm for generating complex graph structures, effectively capturing intricate dependencies and relationships within graph data. However, the privacy risks associated with these models remain largely unexplored. In this paper, we investigate information leakage in such models through three types of black-box inference attacks. First, we design a graph reconstruction attack, which can reconstruct graphs structurally similar to those training graphs from the generated graphs. Second, we propose a property inference attack to infer the properties of the training graphs, such as the average graph density and the distribution of densities, from the generated graphs. Third, we develop two membership inference attacks to determine whether a given graph is present in the training set. Extensive experiments on three different types of graph generative diffusion models and six real-world graphs demonstrate the effectiveness of these attacks, significantly outperforming the baseline approaches. Finally, we propose two defense mechanisms that mitigate these inference attacks and achieve a better trade-off between defense strength and target model utility than existing methods. Our code is available at https://zenodo.org/records/17946102.
- Abstract(参考訳): グラフ生成拡散モデルは最近、複雑なグラフ構造を生成するための強力なパラダイムとして登場し、グラフデータ内の複雑な依存関係と関係を効果的に捉えている。
しかし、これらのモデルに関連するプライバシーリスクはほとんど未解明のままである。
本稿では,3種類のブラックボックス推論攻撃を用いて,そのようなモデルにおける情報漏洩について検討する。
まず、生成したグラフからトレーニンググラフと構造的に類似したグラフを再構築できるグラフ再構成攻撃を設計する。
第2に,生成したグラフから平均グラフ密度や密度分布などのトレーニンググラフの特性を推定する特性推論攻撃を提案する。
第3に、トレーニングセットに与えられたグラフが存在するかどうかを決定するために、2つのメンバシップ推論攻撃を開発する。
3種類のグラフ生成拡散モデルと6つの実世界のグラフに関する大規模な実験により、これらの攻撃の有効性が示され、ベースラインのアプローチよりも著しく優れていた。
最後に,これらの推論攻撃を緩和する2つの防御機構を提案し,既存の手法よりも防御強度と目標モデルの実用性とのトレードオフを良くする。
私たちのコードはhttps://zenodo.org/records/17946102で公開されています。
関連論文リスト
- Backdoor Attacks on Discrete Graph Diffusion Models [23.649243273191605]
バックドア攻撃に対するグラフ拡散モデルについて検討し、トレーニングフェーズと推論/生成フェーズの両方を操作する重度の攻撃について検討した。
まず,バックドアグラフ拡散モデルがバックドアアクティベーションを伴わない高品質なグラフを生成できるように,1)バックドアアクティベーションを伴わない高品質なグラフ,2)バックドアアクティベーションを持つ有効でステルス性があり永続的なバックドアグラフ,3)グラフ生成モデルにおける不変かつ交換可能な2つのコア特性を持つグラフを設計する。
論文 参考訳(メタデータ) (2025-03-08T21:01:15Z) - Graph Defense Diffusion Model [26.41730982598055]
グラフニューラルネットワーク(GNN)は、敵攻撃に対して非常に脆弱であり、パフォーマンスを著しく低下させる可能性がある。
既存のグラフ浄化法は、攻撃されたグラフをフィルタリングすることでこの問題に対処しようとする。
グラフに対する敵攻撃を防御するための,より汎用的なアプローチを提案する。
論文 参考訳(メタデータ) (2025-01-20T16:18:40Z) - Towards Robust Graph Structural Learning Beyond Homophily via Preserving Neighbor Similarity [26.990618075974485]
グラフに基づく学習システムの脆弱性について, ホモフィリディエンスに関係なく検討する。
本稿では,グラフマイニングモジュールとして有用な新しいグラフ構造学習戦略を提案する。
論文 参考訳(メタデータ) (2024-01-18T06:57:29Z) - Graph Generation with Diffusion Mixture [57.78958552860948]
グラフの生成は、非ユークリッド構造の複雑な性質を理解する必要がある実世界のタスクにとって大きな課題である。
本稿では,拡散過程の最終グラフ構造を明示的に学習することにより,グラフのトポロジーをモデル化する生成フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-07T17:07:46Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - Adversarial Attack Framework on Graph Embedding Models with Limited
Knowledge [126.32842151537217]
現存する作品は通常、ホワイトボックス方式で攻撃を行う。
ブラックボックス駆動で様々なグラフ埋め込みモデルに対処する必要がある。
GF-Attackはグラフ埋め込みモデルの層数を知ることなく効果的な攻撃を行うことができることを示す。
論文 参考訳(メタデータ) (2021-05-26T09:18:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。