論文の概要: Preserving Node-level Privacy in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2311.06888v1
- Date: Sun, 12 Nov 2023 16:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 16:31:17.634338
- Title: Preserving Node-level Privacy in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるノードレベルのプライバシ保護
- Authors: Zihang Xiang, Tianhao Wang, Di Wang
- Abstract要約: グラフニューラルネットワーク(GNN)におけるノードレベルのプライバシの問題に対処するソリューションを提案する。
提案プロトコルは,1) 特定のノードサンプリング戦略と一連の調整操作を用いて所望の特性を持つサブグラフを生成するHeterPoissonと呼ばれるサンプリングルーチンと,2) 一般的に使用されるガウスノイズの代わりに対称ラプラスノイズを利用するランダム化ルーチンとからなる。
提案プロトコルは,実世界の5つのデータセットを用いた実験によって実証された,優れた性能でGNN学習を可能にする。
- 参考スコア(独自算出の注目度): 8.823710998526705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy (DP) has seen immense applications in learning on
tabular, image, and sequential data where instance-level privacy is concerned.
In learning on graphs, contrastingly, works on node-level privacy are highly
sparse. Challenges arise as existing DP protocols hardly apply to the
message-passing mechanism in Graph Neural Networks (GNNs).
In this study, we propose a solution that specifically addresses the issue of
node-level privacy. Our protocol consists of two main components: 1) a sampling
routine called HeterPoisson, which employs a specialized node sampling strategy
and a series of tailored operations to generate a batch of sub-graphs with
desired properties, and 2) a randomization routine that utilizes symmetric
multivariate Laplace (SML) noise instead of the commonly used Gaussian noise.
Our privacy accounting shows this particular combination provides a non-trivial
privacy guarantee. In addition, our protocol enables GNN learning with good
performance, as demonstrated by experiments on five real-world datasets;
compared with existing baselines, our method shows significant advantages,
especially in the high privacy regime. Experimentally, we also 1) perform
membership inference attacks against our protocol and 2) apply privacy audit
techniques to confirm our protocol's privacy integrity.
In the sequel, we present a study on a seemingly appealing approach
\cite{sajadmanesh2023gap} (USENIX'23) that protects node-level privacy via
differentially private node/instance embeddings. Unfortunately, such work has
fundamental privacy flaws, which are identified through a thorough case study.
More importantly, we prove an impossibility result of achieving both (strong)
privacy and (acceptable) utility through private instance embedding. The
implication is that such an approach has intrinsic utility barriers when
enforcing differential privacy.
- Abstract(参考訳): ディファレンシャルプライバシ(dp)は、インスタンスレベルのプライバシが関係する表、イメージ、シーケンシャルデータで学習する上で、非常に多くの応用がある。
グラフの学習では、ノードレベルのプライバシに関する作業は非常に少ない。
既存のDPプロトコルがグラフニューラルネットワーク(GNN)のメッセージパッシング機構にはほとんど適用されないため、課題が生じる。
本研究では,ノードレベルのプライバシの問題に対処するソリューションを提案する。
私たちのプロトコルは2つの主要コンポーネントから構成されています。
1) 特定のノードサンプリング戦略と一連の調整された操作を用いて所望の特性を持つサブグラフのバッチを生成するHeterPoissonというサンプリングルーチン
2) 一般的なガウス雑音の代わりに対称多変量ラプラス雑音(SML)を用いるランダム化ルーチン。
われわれのプライバシー会計は、この組み合わせがプライバシーの保証を提供することを示している。
さらに,本プロトコルは,実世界の5つのデータセットを用いた実験で示されるように,gnn学習を優れたパフォーマンスで実現している。
実験的にも
1)我々のプロトコルに対する会員推測攻撃を行い、
2)プライバシ監査手法を適用して,プロトコルのプライバシ整合性を確認する。
続編では,ノードレベルのプライバシを差分的にプライベートなノード/インスタンスの埋め込みを通じて保護する,一見魅力的なアプローチであるuse{sajadmanesh2023gap} (USENIX'23) について述べる。
残念ながら、このような研究には基本的なプライバシーの欠陥があり、徹底したケーススタディによって特定される。
さらに重要なことは、プライベートインスタンスの埋め込みによって(強力な)プライバシと(受け入れ可能な)ユーティリティの両方を達成することが不可能であることを証明します。
このようなアプローチは、差分プライバシーを強制する際、本質的に実用上の障壁を持つ。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - Individual Privacy Accounting for Differentially Private Stochastic Gradient Descent [69.14164921515949]
DP-SGDで訓練されたモデルをリリースする際の個々の事例に対するプライバシー保証を特徴付ける。
ほとんどの例では、最悪のケースよりも強力なプライバシー保証を享受しています。
これは、モデルユーティリティの観点からは守られないグループが同時に、より弱いプライバシー保証を経験することを意味する。
論文 参考訳(メタデータ) (2022-06-06T13:49:37Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。