論文の概要: Towards Private Learning on Decentralized Graphs with Local Differential
Privacy
- arxiv url: http://arxiv.org/abs/2201.09398v1
- Date: Sun, 23 Jan 2022 23:20:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-26 06:43:55.819097
- Title: Towards Private Learning on Decentralized Graphs with Local Differential
Privacy
- Title(参考訳): ローカル差分プライバシーを用いた分散グラフのプライベート学習に向けて
- Authors: Wanyu Lin, Baochun Li and Cong Wang
- Abstract要約: em Solitudeはグラフニューラルネットワーク(GNN)に基づく新しいプライバシー保護学習フレームワーク
我々の新しいフレームワークは、ノード機能のプライバシとエッジのプライバシを同時に保護し、あらゆるGNNとシームレスにプライバシユーティリティの保証を組み込むことができます。
- 参考スコア(独自算出の注目度): 45.47822758278652
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many real-world networks are inherently decentralized. For example, in social
networks, each user maintains a local view of a social graph, such as a list of
friends and her profile. It is typical to collect these local views of social
graphs and conduct graph learning tasks. However, learning over graphs can
raise privacy concerns as these local views often contain sensitive
information.
In this paper, we seek to ensure private graph learning on a decentralized
network graph. Towards this objective, we propose {\em Solitude}, a new
privacy-preserving learning framework based on graph neural networks (GNNs),
with formal privacy guarantees based on edge local differential privacy. The
crux of {\em Solitude} is a set of new delicate mechanisms that can calibrate
the introduced noise in the decentralized graph collected from the users. The
principle behind the calibration is the intrinsic properties shared by many
real-world graphs, such as sparsity. Unlike existing work on locally private
GNNs, our new framework can simultaneously protect node feature privacy and
edge privacy, and can seamlessly incorporate with any GNN with privacy-utility
guarantees. Extensive experiments on benchmarking datasets show that {\em
Solitude} can retain the generalization capability of the learned GNN while
preserving the users' data privacy under given privacy budgets.
- Abstract(参考訳): 多くの現実世界のネットワークは本質的に分散している。
例えば、ソーシャルネットワークでは、各ユーザが友人のリストやプロフィールなど、ソーシャルグラフのローカルビューを維持している。
ソーシャルグラフのローカルなビューを収集し、グラフ学習タスクを実行するのが一般的です。
しかし、グラフによる学習は、これらのローカルビューが機密情報を含むことが多いため、プライバシーの懸念を引き起こす可能性がある。
本稿では,分散ネットワークグラフ上でのプライベートグラフ学習の確保を目指す。
この目的に向けて,グラフニューラルネットワーク(gnns)に基づく新たなプライバシ保存学習フレームワークである"em solitude"を提案し,エッジローカルディファレンシャルプライバシに基づく形式的プライバシ保証を提案する。
{\em Solitude} は、ユーザから収集された分散グラフに導入されたノイズを校正する新しい繊細なメカニズムの集合である。
キャリブレーションの背後にある原理は、空間性のような多くの実世界のグラフで共有される固有の性質である。
ローカルプライベートGNNの既存の作業とは異なり、当社の新しいフレームワークはノード機能のプライバシとエッジプライバシを同時に保護し、プライバシユーティリティの保証を備えた任意のGNNとシームレスに統合することができます。
ベンチマークデータセットに関する大規模な実験は、学習したGNNの一般化能力を維持しつつ、所定のプライバシー予算の下でユーザのデータプライバシを保存することができることを示している。
関連論文リスト
- Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Decentralized Graph Neural Network for Privacy-Preserving Recommendation [21.37022040905403]
本稿では,プライバシ保護レコメンデーションのための分散GNNであるDGRECを提案する。
グラフ構成、局所勾配計算、大域勾配通過という3つの段階を含む。
我々は3つの公開データセットに関する広範な実験を行い、フレームワークの一貫性のある優位性を検証する。
論文 参考訳(メタデータ) (2023-08-15T23:56:44Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Federated Social Recommendation with Graph Neural Network [69.36135187771929]
本稿では,ソーシャル情報とユーザ・イテムの相互作用を融合させることにより,ソーシャル・レコメンデーションの問題であるソーシャル・リコメンデーションの緩和を提案する。
我々は textbfGraph Neural Network (FeSoG) を用いた textbfFedrated textbfSocial 推薦フレームワークを考案した。
論文 参考訳(メタデータ) (2021-11-21T09:41:39Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z) - PGLP: Customizable and Rigorous Location Privacy through Policy Graph [68.3736286350014]
我々はPGLPと呼ばれる新しい位置プライバシーの概念を提案し、カスタマイズ可能で厳格なプライバシー保証を備えたプライベートロケーションをリリースするためのリッチなインターフェースを提供する。
具体的には,ユーザの位置プライバシー要件を,表現的かつカスタマイズ可能なテキスト配置ポリシーグラフを用いて形式化する。
第3に、位置露光の検出、ポリシーグラフの修復、およびカスタマイズ可能な厳格な位置プライバシーを備えたプライベートな軌跡リリースをパイプライン化する、プライベートな位置トレースリリースフレームワークを設計する。
論文 参考訳(メタデータ) (2020-05-04T04:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。