論文の概要: Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption
- arxiv url: http://arxiv.org/abs/2308.04943v1
- Date: Wed, 9 Aug 2023 13:18:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 13:32:23.221239
- Title: Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption
- Title(参考訳): 重要きめのノイズ適応を持つ微分プライベートグラフニューラルネットワーク
- Authors: Yuxin Qi, Xi Lin, Jun Wu
- Abstract要約: ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
- 参考スコア(独自算出の注目度): 6.319864669924721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) with differential privacy have been proposed to
preserve graph privacy when nodes represent personal and sensitive information.
However, the existing methods ignore that nodes with different importance may
yield diverse privacy demands, which may lead to over-protect some nodes and
decrease model utility. In this paper, we study the problem of
importance-grained privacy, where nodes contain personal data that need to be
kept private but are critical for training a GNN. We propose NAP-GNN, a
node-importance-grained privacy-preserving GNN algorithm with privacy
guarantees based on adaptive differential privacy to safeguard node
information. First, we propose a Topology-based Node Importance Estimation
(TNIE) method to infer unknown node importance with neighborhood and centrality
awareness. Second, an adaptive private aggregation method is proposed to
perturb neighborhood aggregation from node-importance-grain. Third, we propose
to privately train a graph learning algorithm on perturbed aggregations in
adaptive residual connection mode over multi-layers convolution for node-wise
tasks. Theoretically analysis shows that NAP-GNN satisfies privacy guarantees.
Empirical experiments over real-world graph datasets show that NAP-GNN achieves
a better trade-off between privacy and accuracy.
- Abstract(参考訳): 差分プライバシーを持つグラフニューラルネットワーク(gnn)は、ノードが個人および機密情報を表すとき、グラフプライバシを保持するために提案されている。
しかし、既存の手法では、異なる重要性を持つノードが多様なプライバシー要求を生じさせ、一部のノードを過度に保護し、モデルの有用性を低下させる可能性があることを無視している。
本稿では,ノードがプライベートにしておく必要があるが,GNNのトレーニングに欠かせない個人情報を含む,重要度の高いプライバシの問題について検討する。
NAP-GNNは,ノード情報の保護のために,適応的差分プライバシーに基づくプライバシ保証付きノード重要度の高いプライバシ保存GNNアルゴリズムである。
まず,トポロジに基づくノード重要度推定(tnie)手法を提案する。
次に,ノードインポータンスグラインから近傍アグリゲーションを摂動させる適応的プライベートアグリゲーション法を提案する。
第3に,ノードワイズタスクに対する多層畳み込みを用いた適応残差接続モードにおいて,摂動アグリゲーションに基づくグラフ学習アルゴリズムのプライベートトレーニングを提案する。
理論的には、NAP-GNNはプライバシー保証を満足している。
実世界のグラフデータセットに対する実証実験は、NAP-GNNがプライバシと精度のトレードオフをより良く達成していることを示している。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Unraveling Privacy Risks of Individual Fairness in Graph Neural Networks [66.0143583366533]
グラフニューラルネットワーク(GNN)は、その拡張現実の応用により、大きな注目を集めている。
信頼できるGNNを構築するためには、公平性とプライバシという2つの側面が重要な考慮事項として浮上している。
これまでの研究では、GNNの公平性とプライバシの側面を別々に検討し、GNNのパフォーマンスとのトレードオフを明らかにしている。
しかし、この2つの側面の相互作用は未解明のままである。
論文 参考訳(メタデータ) (2023-01-30T14:52:23Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。