論文の概要: Degree-Preserving Randomized Response for Graph Neural Networks under
Local Differential Privacy
- arxiv url: http://arxiv.org/abs/2202.10209v1
- Date: Mon, 21 Feb 2022 13:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 12:20:46.928399
- Title: Degree-Preserving Randomized Response for Graph Neural Networks under
Local Differential Privacy
- Title(参考訳): 局所微分プライバシー下におけるグラフニューラルネットワークの次数保存ランダム化応答
- Authors: Seira Hidano and Takao Murakami
- Abstract要約: 本稿では,DPRR (Degree-Preserving Randomized Response) と呼ばれる新しいLDPアルゴリズムを提案する。
我々のDPRRは、各ユーザの次数を保存するので、エッジ LDP を提供しながらグラフ構造を保ちます。
実験の結果,DPRRはワーナーのRRを著しく上回り,プライバシー予算が妥当な非私的アルゴリズムに近い精度を提供することがわかった。
- 参考スコア(独自算出の注目度): 5.365774950751304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Differentially private GNNs (Graph Neural Networks) have been recently
studied to provide high accuracy in various tasks on graph data while strongly
protecting user privacy. In particular, a recent study proposes an algorithm to
protect each user's feature vector in an attributed graph with LDP (Local
Differential Privacy), a strong privacy notion without a trusted third party.
However, this algorithm does not protect edges (friendships) in a social graph
or protect user privacy in unattributed graphs. It remains open how to strongly
protect edges with LDP while keeping high accuracy in GNNs.
In this paper, we propose a novel LDP algorithm called the DPRR
(Degree-Preserving Randomized Response) to provide LDP for edges in GNNs. Our
DPRR preserves each user's degree hence a graph structure while providing edge
LDP. Technically, we use Warner's RR (Randomized Response) and strategic edge
sampling, where each user's sampling probability is automatically tuned to
preserve the degree information. We prove that the DPRR approximately preserves
the degree information under edge LDP. We focus on graph classification as a
task of GNNs and evaluate the DPRR using two social graph datasets. Our
experimental results show that the DPRR significantly outperforms Warner's RR
and provides accuracy close to a non-private algorithm with a reasonable
privacy budget, e.g., epsilon=1.
- Abstract(参考訳): グラフニューラルネットワーク(Graph Neural Networks)は,ユーザプライバシを強く保護しつつ,グラフデータのさまざまなタスクにおいて高い精度を提供するために最近研究されている。
特に、最近の研究では、信頼できる第三者がいない強力なプライバシー概念であるLPP(Local Differential Privacy)を用いた属性グラフにおいて、各ユーザの特徴ベクトルを保護するアルゴリズムを提案する。
しかし、このアルゴリズムはソーシャルグラフのエッジ(フレンドシップ)を保護したり、未分散グラフのユーザのプライバシを保護したりしない。
GNNで高い精度を維持しながら、LDPでエッジを強く保護する方法は、依然としてオープンである。
本稿では,gnnにおけるエッジに対するldpを提供するために,dprr(degree-preserving randomized response)と呼ばれる新しいldpアルゴリズムを提案する。
我々のDPRRは各ユーザの次数を保存するので、エッジDPを提供しながらグラフ構造を提供する。
技術的には、warnerのrr(randomized response)とstrategic edge samplingを使用し、各ユーザーのサンプリング確率が自動的に調整され、次数情報を保存する。
DPRR はエッジ LDP の次数情報をほぼ保存していることを示す。
我々は、GNNのタスクとしてのグラフ分類に注目し、2つのソーシャルグラフデータセットを用いてDPRRを評価する。
実験の結果,DPRRはワーナーのRRを大きく上回り,適切なプライバシー予算を持つ非プライベートアルゴリズムに近い精度(例えばepsilon=1。
関連論文リスト
- Privacy Profiles for Private Selection [21.162924003105484]
私たちは、ReportNoisyMaxとPrivateTuningのプライバシプロファイルを、それらが相関するベースアルゴリズムのプライバシプロファイルを使ってバウンドする、使いやすいレシピを開発しています。
このアプローチはすべての利害関係を改善し、エンドツーエンドのプライベート学習実験において大きなメリットをもたらす。
論文 参考訳(メタデータ) (2024-02-09T08:31:46Z) - Locally Differentially Private Graph Embedding [28.07071644277225]
局所差分プライバシー(LDP)を満たすグラフ埋め込みアルゴリズムの開発問題について検討する。
ノードデータのプライバシを保護するために,新しいプライバシー保護グラフ埋め込みフレームワーク LDP-GE を提案する。
LDP-GEは、プライバシーとユーティリティのトレードオフを良好に達成し、ノード分類とリンク予測タスクの両方において、既存のアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Differentially Private Graph Learning via Sensitivity-Bounded
Personalized PageRank [74.53857412207034]
本稿では,近似的なPPRを出力し,入力エッジに有界な感度を持つアルゴリズムを提案する。
我々の感度バウンドPPRは、差分プライベート(DP)PPRランキング、DPノード分類、DPノード埋め込みなど、グラフ学習のいくつかのツールのプライベートアルゴリズムを直接意味している。
論文 参考訳(メタデータ) (2022-07-14T14:08:59Z) - Normalized/Clipped SGD with Perturbation for Differentially Private
Non-Convex Optimization [94.06564567766475]
DP-SGDとDP-NSGDは、センシティブなトレーニングデータを記憶する大規模モデルのリスクを軽減する。
DP-NSGD は DP-SGD よりも比較的チューニングが比較的容易であるのに対して,これらの2つのアルゴリズムは同様の精度を実現する。
論文 参考訳(メタデータ) (2022-06-27T03:45:02Z) - A Privacy-Preserving Subgraph-Level Federated Graph Neural Network via
Differential Privacy [23.05377582226823]
DPベースのフェデレーションGNNであるDP-FedRecを提案する。
DPは、ウェイトだけでなく、PSIからの交差点グラフのエッジにも適用され、クライアントのプライバシを完全に保護する。
DP-FedRecはグラフ拡張によってパフォーマンスが向上し、DPは計算オーバーヘッドが少ないことを実証している。
論文 参考訳(メタデータ) (2022-06-07T08:14:45Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Learning with User-Level Privacy [61.62978104304273]
ユーザレベルの差分プライバシー制約下での学習課題を,アルゴリズムを用いて解析する。
個々のサンプルのプライバシーのみを保証するのではなく、ユーザレベルのdpはユーザの貢献全体を保護します。
プライバシコストが$tau$に比例した$K$適応的に選択されたクエリのシーケンスにプライベートに答えるアルゴリズムを導き出し、私たちが検討する学習タスクを解決するためにそれを適用します。
論文 参考訳(メタデータ) (2021-02-23T18:25:13Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。