論文の概要: A Privacy-Preserving Subgraph-Level Federated Graph Neural Network via
Differential Privacy
- arxiv url: http://arxiv.org/abs/2206.03492v1
- Date: Tue, 7 Jun 2022 08:14:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-10 10:11:31.253949
- Title: A Privacy-Preserving Subgraph-Level Federated Graph Neural Network via
Differential Privacy
- Title(参考訳): 差分プライバシによるプライバシ保護サブグラフレベルフェデレーショングラフニューラルネットワーク
- Authors: Yeqing Qiu, Chenyu Huang, Jianzong Wang, Zhangcheng Huang, Jing Xiao
- Abstract要約: DPベースのフェデレーションGNNであるDP-FedRecを提案する。
DPは、ウェイトだけでなく、PSIからの交差点グラフのエッジにも適用され、クライアントのプライバシを完全に保護する。
DP-FedRecはグラフ拡張によってパフォーマンスが向上し、DPは計算オーバーヘッドが少ないことを実証している。
- 参考スコア(独自算出の注目度): 23.05377582226823
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Currently, the federated graph neural network (GNN) has attracted a lot of
attention due to its wide applications in reality without violating the privacy
regulations. Among all the privacy-preserving technologies, the differential
privacy (DP) is the most promising one due to its effectiveness and light
computational overhead. However, the DP-based federated GNN has not been well
investigated, especially in the sub-graph-level setting, such as the scenario
of recommendation system. The biggest challenge is how to guarantee the privacy
and solve the non independent and identically distributed (non-IID) data in
federated GNN simultaneously. In this paper, we propose DP-FedRec, a DP-based
federated GNN to fill the gap. Private Set Intersection (PSI) is leveraged to
extend the local graph for each client, and thus solve the non-IID problem.
Most importantly, DP is applied not only on the weights but also on the edges
of the intersection graph from PSI to fully protect the privacy of clients. The
evaluation demonstrates DP-FedRec achieves better performance with the graph
extension and DP only introduces little computations overhead.
- Abstract(参考訳): 現在、フェデレーショングラフニューラルネットワーク(gnn)は、プライバシ規制に違反することなく、現実に広く応用されているため、多くの注目を集めている。
プライバシー保護技術の中で、差分プライバシー(DP)はその有効性と計算オーバーヘッドの軽さから最も有望な技術である。
しかし,DPをベースとしたフェデレーションGNNは,特にレコメンデーションシステムのシナリオなど,サブグラフレベルでは十分に研究されていない。
最大の課題は、プライバシーを保証し、フェデレートgnnの非独立かつ同一の分散(非iid)データを同時に解決する方法だ。
本稿では,このギャップを埋めるためのDP-FedRecを提案する。
private set intersection (psi) は各クライアントのローカルグラフを拡張して非iid問題を解決するために利用される。
最も重要なことは、DPはウェイトだけでなく、PSIの交差点グラフのエッジにも適用され、クライアントのプライバシーを完全に保護する。
DP-FedRecはグラフ拡張によってパフォーマンスが向上し、DPは計算オーバーヘッドが少ないことを実証している。
関連論文リスト
- How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection [38.96828804683783]
GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T19:29:06Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - DPAR: Decoupled Graph Neural Networks with Node-Level Differential Privacy [30.15971370844865]
我々は,ノードとエッジが保護されるように,GNNをトレーニングするためのノードレベルの差分プライバシー(DP)の実現を目指している。
プライバシーとユーティリティのトレードオフが強化されたGNNをトレーニングするために,DPAR(Dariially Private Approximate Personalized PageRank)を用いたデカップリングGNNを提案する。
論文 参考訳(メタデータ) (2022-10-10T05:34:25Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Degree-Preserving Randomized Response for Graph Neural Networks under Local Differential Privacy [8.12606646175019]
本稿では,DPRR (Degree-Preserving Randomized Response) と呼ばれる新しいLDPアルゴリズムを提案する。
我々のDPRRは、各ユーザの次数を保存するので、エッジ LDP を提供しながらグラフ構造を保ちます。
我々は,GNNのタスクとしてのグラフ分類に注目し,3つのソーシャルグラフデータセットを用いてDPRRを評価する。
論文 参考訳(メタデータ) (2022-02-21T13:35:03Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Differentially Private Federated Bayesian Optimization with Distributed
Exploration [48.9049546219643]
我々は、DPを反復アルゴリズムに追加するための一般的なフレームワークを通じて、ディープニューラルネットワークのトレーニングに差分プライバシ(DP)を導入する。
DP-FTS-DEは高い実用性(競争性能)と高いプライバシー保証を実現する。
また,DP-FTS-DEがプライバシとユーティリティのトレードオフを引き起こすことを示すために,実世界の実験も行っている。
論文 参考訳(メタデータ) (2021-10-27T04:11:06Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。