論文の概要: Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection
- arxiv url: http://arxiv.org/abs/2307.06422v1
- Date: Wed, 12 Jul 2023 19:29:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-14 16:35:47.768753
- Title: Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection
- Title(参考訳): 多粒性トポロジー保護のための差分分離グラフ畳み込み
- Authors: Eli Chien, Wei-Ning Chen, Chao Pan, Pan Li, Ayfer \"Ozg\"ur, Olgica
Milenkovic
- Abstract要約: グラフ畳み込みに基づくグラフニューラルネットワーク(GNN)は、グラフ構造化データを含む現実的な学習問題の解決に成功している。
しかし、グラフ学習手法は、モデルパラメータだけでなく、モデル予測を通じて、センシティブなユーザ情報やインタラクションを公開する。
これは特に、グラフの畳み込みを通じて、隣接するノード属性を直接活用するノード予測のケースである。
グラフ学習設定に適した新しい形式DPフレームワークであるグラフ微分プライバシー(GDP)を導入する。
- 参考スコア(独自算出の注目度): 37.865955100792284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph learning methods, such as Graph Neural Networks (GNNs) based on graph
convolutions, are highly successful in solving real-world learning problems
involving graph-structured data. However, graph learning methods expose
sensitive user information and interactions not only through their model
parameters but also through their model predictions. Consequently, standard
Differential Privacy (DP) techniques that merely offer model weight privacy are
inadequate. This is especially the case for node predictions that leverage
neighboring node attributes directly via graph convolutions that create
additional risks of privacy leakage. To address this problem, we introduce
Graph Differential Privacy (GDP), a new formal DP framework tailored to graph
learning settings that ensures both provably private model parameters and
predictions. Furthermore, since there may be different privacy requirements for
the node attributes and graph structure, we introduce a novel notion of relaxed
node-level data adjacency. This relaxation can be used for establishing
guarantees for different degrees of graph topology privacy while maintaining
node attribute privacy. Importantly, this relaxation reveals a useful trade-off
between utility and topology privacy for graph learning methods. In addition,
our analysis of GDP reveals that existing DP-GNNs fail to exploit this
trade-off due to the complex interplay between graph topology and attribute
data in standard graph convolution designs. To mitigate this problem, we
introduce the Differentially Private Decoupled Graph Convolution (DPDGC) model,
which benefits from decoupled graph convolution while providing GDP guarantees.
Extensive experiments on seven node classification benchmarking datasets
demonstrate the superior privacy-utility trade-off of DPDGC over existing
DP-GNNs based on standard graph convolution design.
- Abstract(参考訳): グラフ畳み込みに基づくグラフニューラルネットワーク(GNN)のようなグラフ学習手法は、グラフ構造化データを含む現実的な学習問題の解決に成功している。
しかし、グラフ学習手法は、モデルパラメータだけでなく、モデル予測を通じて、センシティブなユーザ情報やインタラクションを公開する。
したがって、モデルウェイトプライバシを提供するだけの標準微分プライバシ(DP)技術は不十分である。
これは特に、隣接するノード属性を直接グラフ畳み込みを通じて活用し、プライバシー漏洩のリスクを生じさせるノード予測のケースである。
この問題に対処するために、グラフ微分プライバシー(GDP)を導入し、グラフ学習設定に適した新しい形式DPフレームワークを導入し、実証可能なプライベートモデルパラメータと予測の両方を保証する。
さらに,ノード属性とグラフ構造には異なるプライバシ要件が存在する可能性があるため,ノードレベルのデータ隣接度を緩和する新たな概念を導入する。
この緩和は、ノード属性のプライバシを維持しながら、さまざまなグラフトポロジのプライバシの保証を確立するために使用できる。
この緩和は、グラフ学習手法におけるユーティリティとトポロジのプライバシーのトレードオフとして有用である。
さらに,既存のDP-GNNは,標準グラフ畳み込み設計におけるグラフトポロジと属性データとの複雑な相互作用のため,このトレードオフを活用できないことが明らかとなった。
この問題を軽減するために, gdp保証を提供しながら, 分離グラフ畳み込みの利点を享受する微分プライベートグラフ畳み込み(dpdgc)モデルを導入する。
7つのノード分類ベンチマークデータセットに対する大規模な実験は、標準グラフ畳み込み設計に基づく既存のDP-GNNよりも、PDGCのプライバシーとユーティリティのトレードオフが優れていることを示している。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。