論文の概要: Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2211.05766v1
- Date: Thu, 10 Nov 2022 18:52:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 16:25:27.760648
- Title: Heterogeneous Randomized Response for Differential Privacy in Graph
Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける微分プライバシーの不均一なランダム化応答
- Authors: Khang Tran, Phung Lai, NhatHai Phan, Issa Khalil, Yao Ma, Abdallah
Khreishah, My Thai, Xintao Wu
- Abstract要約: グラフニューラルネットワーク(GNN)は、プライバシ推論攻撃(PIA)の影響を受けやすい
差分プライバシ(DP)保証の下で,ノードの特徴やエッジをPIAに対して保護する機構を提案する。
ノードの特徴とエッジの両レベルで、より優れたランダム化確率とより厳密なエラー境界を導出する。
- 参考スコア(独自算出の注目度): 18.4005860362025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) are susceptible to privacy inference attacks
(PIAs), given their ability to learn joint representation from features and
edges among nodes in graph data. To prevent privacy leakages in GNNs, we
propose a novel heterogeneous randomized response (HeteroRR) mechanism to
protect nodes' features and edges against PIAs under differential privacy (DP)
guarantees without an undue cost of data and model utility in training GNNs.
Our idea is to balance the importance and sensitivity of nodes' features and
edges in redistributing the privacy budgets since some features and edges are
more sensitive or important to the model utility than others. As a result, we
derive significantly better randomization probabilities and tighter error
bounds at both levels of nodes' features and edges departing from existing
approaches, thus enabling us to maintain high data utility for training GNNs.
An extensive theoretical and empirical analysis using benchmark datasets shows
that HeteroRR significantly outperforms various baselines in terms of model
utility under rigorous privacy protection for both nodes' features and edges.
That enables us to defend PIAs in DP-preserving GNNs effectively.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフデータ内のノード間の特徴とエッジから共同表現を学習する能力から、プライバシ推論攻撃(PIAs)の影響を受けやすい。
GNNのプライバシリークを防止するため,差分プライバシ(DP)保証下でノードの特徴やエッジを保護し,GNNのトレーニングにおいてデータやモデルユーティリティの未使用を伴わない,新たな異種ランダム化応答(HeteroRR)機構を提案する。
私たちの考えは、いくつかの機能やエッジがモデルユーティリティに対して他のものよりも敏感で重要であるため、プライバシ予算を再分配する上で、ノードの機能やエッジの重要性と感度のバランスをとることです。
その結果,既存手法から逸脱したノードの特徴とエッジの両レベルにおいて,より優れたランダム化確率とより厳密なエラー境界が導出され,GNNを訓練するための高データユーティリティの維持が可能となった。
ベンチマークデータセットを用いた広範な理論および実証分析により、ヘテロrrは、ノードの機能とエッジの両方に対して厳格なプライバシー保護の下で、モデルユーティリティの観点から様々なベースラインを著しく上回っていることが示されている。
これにより,DP 保存 GNN において PIA を効果的に保護することができる。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection [38.96828804683783]
GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T19:29:06Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。