論文の概要: Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection
- arxiv url: http://arxiv.org/abs/2307.06422v2
- Date: Sat, 23 Sep 2023 19:53:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 01:50:03.347085
- Title: Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection
- Title(参考訳): 多粒性トポロジー保護のための差分分離グラフ畳み込み
- Authors: Eli Chien, Wei-Ning Chen, Chao Pan, Pan Li, Ayfer \"Ozg\"ur, Olgica
Milenkovic
- Abstract要約: GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.96828804683783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: GNNs can inadvertently expose sensitive user information and interactions
through their model predictions. To address these privacy concerns,
Differential Privacy (DP) protocols are employed to control the trade-off
between provable privacy protection and model utility. Applying standard DP
approaches to GNNs directly is not advisable due to two main reasons. First,
the prediction of node labels, which relies on neighboring node attributes
through graph convolutions, can lead to privacy leakage. Second, in practical
applications, the privacy requirements for node attributes and graph topology
may differ. In the latter setting, existing DP-GNN models fail to provide
multigranular trade-offs between graph topology privacy, node attribute
privacy, and GNN utility. To address both limitations, we propose a new
framework termed Graph Differential Privacy (GDP), specifically tailored to
graph learning. GDP ensures both provably private model parameters as well as
private predictions. Additionally, we describe a novel unified notion of graph
dataset adjacency to analyze the properties of GDP for different levels of
graph topology privacy. Our findings reveal that DP-GNNs, which rely on graph
convolutions, not only fail to meet the requirements for multigranular graph
topology privacy but also necessitate the injection of DP noise that scales at
least linearly with the maximum node degree. In contrast, our proposed
Differentially Private Decoupled Graph Convolutions (DPDGCs) represent a more
flexible and efficient alternative to graph convolutions that still provides
the necessary guarantees of GDP. To validate our approach, we conducted
extensive experiments on seven node classification benchmarking and
illustrative synthetic datasets. The results demonstrate that DPDGCs
significantly outperform existing DP-GNNs in terms of privacy-utility
trade-offs.
- Abstract(参考訳): GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
これらのプライバシー問題に対処するため、差分プライバシー(dp)プロトコルは、証明可能なプライバシー保護とモデルユーティリティの間のトレードオフを制御するために使用される。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
まず、グラフ畳み込みによる隣接ノード属性に依存するノードラベルの予測は、プライバシの漏洩につながる可能性がある。
第2に,実用的なアプリケーションでは,ノード属性とグラフトポロジのプライバシ要件が異なる場合がある。
後者の設定では、既存のDP-GNNモデルは、グラフトポロジのプライバシ、ノード属性のプライバシ、GNNユーティリティ間のマルチグラニュラトレードオフを提供していない。
両制約に対処するため,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
GDPは実証可能なプライベートモデルパラメータとプライベート予測の両方を保証する。
さらに、グラフトポロジのプライバシーの異なるレベルにおけるGDPの特性を分析するために、グラフデータセットの隣接性という新たな統一概念について述べる。
その結果,グラフ畳み込みに依存するDP-GNNは,多粒グラフトポロジプライバシーの要件を満たすだけでなく,最大ノード次数に少なくとも線形にスケールするDPノイズの注入も必要であることがわかった。
対照的に、我々の提案した差分分離グラフ畳み込み(DPDGC)は、GDPに必要な保証を提供するグラフ畳み込みよりも柔軟で効率的な代替手段である。
提案手法を検証するために,7つのノード分類ベンチマークとイラストレイティブ合成データセットについて広範な実験を行った。
その結果,PDGCはプライバシ・ユーティリティ・トレードオフの観点から既存のDP-GNNよりも大幅に優れていた。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Permutation-equivariant and Proximity-aware Graph Neural Networks with
Stochastic Message Passing [88.30867628592112]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
置換等価性と近接認識性は、GNNにとって非常に望ましい2つの重要な特性である。
既存のGNNは、主にメッセージパッシング機構に基づいており、同時に2つの特性を保存できないことを示す。
ノードの近さを保つため,既存のGNNをノード表現で拡張する。
論文 参考訳(メタデータ) (2020-09-05T16:46:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。