論文の概要: GraphPub: Generation of Differential Privacy Graph with High
Availability
- arxiv url: http://arxiv.org/abs/2403.00030v1
- Date: Wed, 28 Feb 2024 20:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 23:05:53.256146
- Title: GraphPub: Generation of Differential Privacy Graph with High
Availability
- Title(参考訳): GraphPub: 高可用性を備えた差分プライバシーグラフの生成
- Authors: Wanghan Xu, Bin Shi, Ao Liu, Jiqiang Zhang, Bo Dong
- Abstract要約: 差分プライバシー(DP)は、グラフデータのプライバシーを保護する一般的な方法である。
グラフデータの複雑なトポロジ構造のため、グラフにDPを適用すると、GNNモデルのメッセージパッシングや集約に影響を及ぼすことが多い。
グラフトポロジを保護しつつ,データの可用性が基本的に変化しないことを保証するグラフパブリッシャ(GraphPub)を提案する。
- 参考スコア(独自算出の注目度): 21.829551460549936
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, with the rapid development of graph neural networks (GNN),
more and more graph datasets have been published for GNN tasks. However, when
an upstream data owner publishes graph data, there are often many privacy
concerns, because many real-world graph data contain sensitive information like
person's friend list. Differential privacy (DP) is a common method to protect
privacy, but due to the complex topological structure of graph data, applying
DP on graphs often affects the message passing and aggregation of GNN models,
leading to a decrease in model accuracy. In this paper, we propose a novel
graph edge protection framework, graph publisher (GraphPub), which can protect
graph topology while ensuring that the availability of data is basically
unchanged. Through reverse learning and the encoder-decoder mechanism, we
search for some false edges that do not have a large negative impact on the
aggregation of node features, and use them to replace some real edges. The
modified graph will be published, which is difficult to distinguish between
real and false data. Sufficient experiments prove that our framework achieves
model accuracy close to the original graph with an extremely low privacy
budget.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)の急速な発展に伴い,GNNタスク用のグラフデータセットがますます多く発表されている。
しかし、上流のデータ所有者がグラフデータを公開する場合、多くのプライバシー上の懸念がある。
差分プライバシー(DP)は、プライバシを保護する一般的な方法であるが、グラフデータの複雑なトポロジ構造のため、グラフにDPを適用すると、GNNモデルのメッセージパッシングや集約に影響を与え、モデルの精度が低下する。
本稿では、グラフトポロジを保護しつつ、データの可用性が基本的に変化しないことを保証する新しいグラフエッジ保護フレームワーク、グラフパブリッシャ(GraphPub)を提案する。
リバース・ラーニングとエンコーダ・デコーダ・メカニズムによって、ノードの特徴の集約に大きな悪影響を及ぼさない偽のエッジを探索し、それらを使用して実際のエッジを置き換える。
修正されたグラフは公開され、実際のデータと偽データの区別が難しい。
十分な実験により、我々のフレームワークは、非常に低いプライバシー予算で、元のグラフに近いモデル精度を実現する。
関連論文リスト
- Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Unlearnable Graph: Protecting Graphs from Unauthorized Exploitation [68.59161853439339]
学習不可能なグラフの例を生成するための新しい手法を提案する。
Error-Minimizing Structure Poisoning (EMinS) モジュールを使ってグラフに妄想的だが知覚不可能なノイズを注入することにより、グラフを説明不能にすることができる。
論文 参考訳(メタデータ) (2023-03-05T03:30:22Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Graph Generative Model for Benchmarking Graph Neural Networks [73.11514658000547]
本稿では,プライバシ制御により実世界のグラフの分布を学習し,再現する新しいグラフ生成モデルを提案する。
我々のモデルは、GNNモデルのベンチマークに効果的に使用できる大規模な実世界のグラフの、プライバシ制御された合成代用をうまく生成することができる。
論文 参考訳(メタデータ) (2022-07-10T06:42:02Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - Deep Fraud Detection on Non-attributed Graph [61.636677596161235]
グラフニューラルネットワーク(GNN)は不正検出に強い性能を示している。
ラベル付きデータは大規模な産業問題、特に不正検出には不十分である。
よりラベルのないデータを活用するための新しいグラフ事前学習戦略を提案する。
論文 参考訳(メタデータ) (2021-10-04T03:42:09Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Adversarial Privacy Preserving Graph Embedding against Inference Attack [9.90348608491218]
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
論文 参考訳(メタデータ) (2020-08-30T00:06:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。