論文の概要: PrivDPR: Synthetic Graph Publishing with Deep PageRank under Differential Privacy
- arxiv url: http://arxiv.org/abs/2501.02354v1
- Date: Sat, 04 Jan 2025 18:19:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:05:06.851281
- Title: PrivDPR: Synthetic Graph Publishing with Deep PageRank under Differential Privacy
- Title(参考訳): PrivDPR: 異なるプライバシの下でDeep PageRankを使用した合成グラフパブリッシング
- Authors: Sen Zhang, Haibo Hu, Qingqing Ye, Jianliang Xu,
- Abstract要約: グラフ合成のための新しいプライバシー保護型ディープページランクであるPrivDPRを設計する。
特に,学習中の特定の重みに対する勾配に雑音を加えることでDPを実現する。
PrivDPRが生成した合成グラフがノードレベルの差分プライバシーを満たすことを証明している。
- 参考スコア(独自算出の注目度): 21.78459506259644
- License:
- Abstract: The objective of privacy-preserving synthetic graph publishing is to safeguard individuals' privacy while retaining the utility of original data. Most existing methods focus on graph neural networks under differential privacy (DP), and yet two fundamental problems in generating synthetic graphs remain open. First, the current research often encounters high sensitivity due to the intricate relationships between nodes in a graph. Second, DP is usually achieved through advanced composition mechanisms that tend to converge prematurely when working with a small privacy budget. In this paper, inspired by the simplicity, effectiveness, and ease of analysis of PageRank, we design PrivDPR, a novel privacy-preserving deep PageRank for graph synthesis. In particular, we achieve DP by adding noise to the gradient for a specific weight during learning. Utilizing weight normalization as a bridge, we theoretically reveal that increasing the number of layers in PrivDPR can effectively mitigate the high sensitivity and privacy budget splitting. Through formal privacy analysis, we prove that the synthetic graph generated by PrivDPR satisfies node-level DP. Experiments on real-world graph datasets show that PrivDPR preserves high data utility across multiple graph structural properties.
- Abstract(参考訳): プライバシ保存型総合グラフパブリッシングの目的は、個人のプライバシを保護し、元のデータの有用性を維持することである。
既存のほとんどの手法は、差分プライバシ(DP)の下でグラフニューラルネットワークに焦点を当てているが、合成グラフを生成する際の2つの根本的な問題は未解決のままである。
第一に、グラフ内のノード間の複雑な関係のため、現在の研究はしばしば高い感度に直面する。
第2に、DPは通常、小さなプライバシー予算で作業する場合に、早急に収束する傾向がある高度な構成機構によって達成される。
本稿では,PageRankの簡易性,有効性,解析容易性に着想を得て,グラフ合成のための新しいプライバシー保護深層PrivDPRを設計する。
特に,学習中の特定の重みに対する勾配に雑音を加えることでDPを実現する。
橋梁としての重量正規化を利用して,PrivDPRの層数の増加は,高感度・プライバシー予算分割を効果的に緩和できることを示す。
形式的プライバシー分析により,PrivDPRが生成した合成グラフがノードレベルDPを満たすことを証明した。
実世界のグラフデータセットの実験では、PrivDPRは複数のグラフ構造特性にまたがって高いデータユーティリティを保存する。
関連論文リスト
- Differentially Private Graph Diffusion with Applications in Personalized PageRanks [15.529891375174165]
本研究は,雑音拡散イテレートを用いてエッジレベルの差分プライバシーを保証する新しいグラフ拡散フレームワークを提案する。
このアルゴリズムは拡散当たりのラプラスノイズを注入し、低次ノードによって誘導される高感度を緩和する度合いベースの閾値関数を採用する。
私たちのプライバシー損失分析は、PABI(Privacy Amplification by Iteration)に基づいています。
論文 参考訳(メタデータ) (2024-06-22T15:32:53Z) - Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Differentially Private Graph Learning via Sensitivity-Bounded
Personalized PageRank [74.53857412207034]
本稿では,近似的なPPRを出力し,入力エッジに有界な感度を持つアルゴリズムを提案する。
我々の感度バウンドPPRは、差分プライベート(DP)PPRランキング、DPノード分類、DPノード埋め込みなど、グラフ学習のいくつかのツールのプライベートアルゴリズムを直接意味している。
論文 参考訳(メタデータ) (2022-07-14T14:08:59Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Secure Deep Graph Generation with Link Differential Privacy [32.671503863933616]
我々は、差分プライバシー(DP)フレームワークを利用して、ディープグラフ生成モデルに厳密なプライバシー制約を定式化し、強制する。
特に、リンク再構成に基づくグラフ生成モデルの勾配に適切なノイズを注入することにより、エッジDPを強制する。
提案した DPGGAN モデルでは,グローバル構造を効果的に保存し,個々のリンクのプライバシを厳格に保護したグラフを生成することができる。
論文 参考訳(メタデータ) (2020-05-01T15:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。