論文の概要: Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation
- arxiv url: http://arxiv.org/abs/2309.03190v1
- Date: Wed, 6 Sep 2023 17:53:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 14:26:42.593566
- Title: Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation
- Title(参考訳): Blink: ベイジアン推定によるグラフニューラルネットワークにおける局所微分プライバシーのリンク
- Authors: Xiaochen Zhu, Vincent Y. F. Tan, Xiaokui Xiao
- Abstract要約: 分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
- 参考スコア(独自算出の注目度): 79.64626707978418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have gained an increasing amount of popularity
due to their superior capability in learning node embeddings for various graph
inference tasks, but training them can raise privacy concerns. To address this,
we propose using link local differential privacy over decentralized nodes,
enabling collaboration with an untrusted server to train GNNs without revealing
the existence of any link. Our approach spends the privacy budget separately on
links and degrees of the graph for the server to better denoise the graph
topology using Bayesian estimation, alleviating the negative impact of LDP on
the accuracy of the trained GNNs. We bound the mean absolute error of the
inferred link probabilities against the ground truth graph topology. We then
propose two variants of our LDP mechanism complementing each other in different
privacy settings, one of which estimates fewer links under lower privacy
budgets to avoid false positive link estimates when the uncertainty is high,
while the other utilizes more information and performs better given relatively
higher privacy budgets. Furthermore, we propose a hybrid variant that combines
both strategies and is able to perform better across different privacy budgets.
Extensive experiments show that our approach outperforms existing methods in
terms of accuracy under varying privacy budgets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなグラフ推論タスクのノード埋め込みを学習する能力に優れていたため、人気が高まっている。
そこで本研究では,非信頼なサーバと協調してGNNを訓練し,リンクの存在を明らかにすることなく,分散ノード上でのリンクローカルディファレンシャルプライバシの利用を提案する。
提案手法では,学習したGNNの精度に対するLDPの負の影響を緩和し,ベイズ推定によるグラフトポロジの劣化を改善するために,サーバのグラフのリンクと度合を別々に利用している。
我々は、基底真理グラフトポロジーに対する推定リンク確率の平均絶対誤差を制限した。
次に,異なるプライバシ設定で相互補完するldp機構の2つの変種を提案する。うち1つは,不確実性が高い場合には偽陽性リンク推定を避けるために,低いプライバシ予算下でリンクを少なく見積もる。
さらに,両戦略を結合し,異なるプライバシ予算でよりよいパフォーマンスを実現するハイブリッド型を提案する。
大規模な実験により, 従来の手法よりも, 様々なプライバシー予算下での精度が優れていた。
関連論文リスト
- Privacy Preserving Semi-Decentralized Mean Estimation over Intermittently-Connected Networks [59.43433767253956]
信頼できない無線ネットワークの異なるノードに分散するベクトルの平均をプライベートに推定する問題を考える。
半分散的なセットアップでは、ノードは隣人と協力してローカルコンセンサスを計算し、中央サーバにリレーする。
ノード間のデータ共有による協調中継とプライバシー漏洩のトレードオフについて検討する。
論文 参考訳(メタデータ) (2024-06-06T06:12:15Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection [38.96828804683783]
GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T19:29:06Z) - Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks [18.4005860362025]
グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
論文 参考訳(メタデータ) (2022-11-10T18:52:46Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - TAN Without a Burn: Scaling Laws of DP-SGD [70.7364032297978]
近年、ディープニューラルネットワーク(DNN)を訓練するための微分プライベートな手法が進歩している。
プライバシ分析とノイズのあるトレーニングの実験的振る舞いを分離し、最小限の計算要件でトレードオフを探索する。
我々は,提案手法をCIFAR-10とImageNetに適用し,特にImageNetの最先端性を,上位1点の精度で向上させる。
論文 参考訳(メタデータ) (2022-10-07T08:44:35Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Muffliato: Peer-to-Peer Privacy Amplification for Decentralized Optimization and Averaging [20.39986955578245]
ローカルディファレンシャルプライバシ(LDP)の緩和であるペアワイズネットワークディファレンシャルプライバシを導入する。
我々は、局所勾配降下ステップとゴシップ平均化を交互に交互に行う、微分プライベートな分散最適化アルゴリズムを導出する。
我々のアルゴリズムは,グラフ内のノード間距離の関数として,プライバシー保証を増幅することを示す。
論文 参考訳(メタデータ) (2022-06-10T13:32:35Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。