論文の概要: GRAND: Graph Release with Assured Node Differential Privacy
- arxiv url: http://arxiv.org/abs/2507.00402v1
- Date: Tue, 01 Jul 2025 03:39:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.25584
- Title: GRAND: Graph Release with Assured Node Differential Privacy
- Title(参考訳): GRAND: 保証されたノードの差分プライバシーを備えたグラフリリース
- Authors: Suqing Liu, Xuan Bi, Tianxi Li,
- Abstract要約: 我々は,ノードレベルの差分プライバシーと構造的特性の確保を確保しつつ,ネットワーク全体を解放する最初のネットワークリリース機構であるGRANDを提案する。
このアプローチの有効性は、合成データセットと実世界のデータセットの両方に関する広範な実験を通じて評価される。
- 参考スコア(独自算出の注目度): 3.7346004746366384
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differential privacy is a well-established framework for safeguarding sensitive information in data. While extensively applied across various domains, its application to network data -- particularly at the node level -- remains underexplored. Existing methods for node-level privacy either focus exclusively on query-based approaches, which restrict output to pre-specified network statistics, or fail to preserve key structural properties of the network. In this work, we propose GRAND (Graph Release with Assured Node Differential privacy), which is, to the best of our knowledge, the first network release mechanism that releases entire networks while ensuring node-level differential privacy and preserving structural properties. Under a broad class of latent space models, we show that the released network asymptotically follows the same distribution as the original network. The effectiveness of the approach is evaluated through extensive experiments on both synthetic and real-world datasets.
- Abstract(参考訳): 差分プライバシーは、データ内の機密情報を保護するための確立したフレームワークである。
さまざまなドメインに広く適用されているが、ネットワークデータ(特にノードレベルで)への応用はいまだ検討されていない。
既存のノードレベルのプライバシの方法は、クエリベースのアプローチにのみ焦点を合わせるか、事前に特定されたネットワーク統計に出力を制限するか、ネットワークの重要な構造特性を保存できないかのいずれかである。
本研究では,ノードレベルの差分プライバシーと構造特性の確保を確保しつつ,ネットワーク全体をリリースする最初のネットワークリリースメカニズムであるGRAND(Graph Release with Assured Node Differential Privacy)を提案する。
潜在空間モデルの幅広いクラスにおいて、解放されたネットワークは、元のネットワークと同じ分布に漸近的に従うことを示す。
このアプローチの有効性は、合成データセットと実世界のデータセットの両方に関する広範な実験を通じて評価される。
関連論文リスト
- Efficient and Privacy-Preserved Link Prediction via Condensed Graphs [49.898152180805454]
本稿では,HyDROtextsuperscript+について紹介する。
提案手法は,従来のネットワーク上でのリンク予測と比較して,約20*高速なトレーニングを実現し,ストレージ要求を452*削減する。
論文 参考訳(メタデータ) (2025-03-15T14:54:04Z) - Consistent community detection in multi-layer networks with heterogeneous differential privacy [4.451479907610764]
本稿では,各ノードのプライバシ設定に基づいて,エッジ情報を保護可能なエッジフリップ機構を提案する。
多層度補正ブロックモデルの下でコミュニティ構造を保ちながら、差分プライバシーを実現することができる。
エッジのより優れたプライバシ保護は、ノードの割合で取得可能であると同時に、他のノードがプライバシを放棄できることが示されています。
論文 参考訳(メタデータ) (2024-06-20T22:49:55Z) - Multi-perspective Memory Enhanced Network for Identifying Key Nodes in Social Networks [51.54002032659713]
ソーシャルネットワークにおけるキーノードを識別する新しいマルチパースペクティブメモリ拡張ネットワーク(MMEN)を提案する。
MMENは複数の視点からキーノードをマイニングし、履歴情報を記憶するためにメモリネットワークを利用する。
我々の手法は過去の方法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-22T14:29:03Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。