論文の概要: Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs
- arxiv url: http://arxiv.org/abs/2202.00808v1
- Date: Tue, 1 Feb 2022 23:32:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 00:49:03.844460
- Title: Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs
- Title(参考訳): 分散構造グラフに対する局所微分プライバシーを用いたGromov-Wasserstein差分法
- Authors: Hongwei Jin, Xun Chen
- Abstract要約: 本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
- 参考スコア(独自算出の注目度): 7.4398547397969494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning the similarity between structured data, especially the graphs, is
one of the essential problems. Besides the approach like graph kernels,
Gromov-Wasserstein (GW) distance recently draws big attention due to its
flexibility to capture both topological and feature characteristics, as well as
handling the permutation invariance. However, structured data are widely
distributed for different data mining and machine learning applications. With
privacy concerns, accessing the decentralized data is limited to either
individual clients or different silos. To tackle these issues, we propose a
privacy-preserving framework to analyze the GW discrepancy of node embedding
learned locally from graph neural networks in a federated flavor, and then
explicitly place local differential privacy (LDP) based on Multi-bit Encoder to
protect sensitive information. Our experiments show that, with strong privacy
protections guaranteed by the $\varepsilon$-LDP algorithm, the proposed
framework not only preserves privacy in graph learning but also presents a
noised structural metric under GW distance, resulting in comparable and even
better performance in classification and clustering tasks. Moreover, we reason
the rationale behind the LDP-based GW distance analytically and empirically.
- Abstract(参考訳): 構造化データ、特にグラフ間の類似性を学ぶことは、重要な問題の1つです。
グラフカーネルのようなアプローチに加えて、Gromov-Wasserstein (GW) 距離は、最近、トポロジ的特徴と特徴的特徴の両方を捉える柔軟性と、置換不変性を扱う柔軟性のために大きな注目を集めている。
しかし、構造化データは異なるデータマイニングと機械学習アプリケーションのために広く配布されている。
プライバシの懸念により、分散データへのアクセスは個々のクライアントまたは異なるサイロに限定される。
そこで本研究では,グラフニューラルネットワークから局部的に学習したノード埋め込みのgw不一致をフェデレーションフレーバーで解析し,マルチビットエンコーダに基づいて局所微分プライバシー(ldp)を明示的に配置して機密情報を保護するプライバシ保存フレームワークを提案する。
我々の実験は、$\varepsilon$-LDPアルゴリズムによって保証される強力なプライバシ保護により、提案するフレームワークは、グラフ学習におけるプライバシを保存するだけでなく、GW距離下でノイズのある構造的メトリクスも提示する。
さらに, LDPに基づくGW距離の理論的根拠を解析的に, 実証的に考察する。
関連論文リスト
- Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Local Differential Privacy in Graph Neural Networks: a Reconstruction Approach [17.000441871334683]
ユーザレベルでノードのプライバシを提供するための学習フレームワークを提案する。
我々は、分散化された微分プライバシーの概念、すなわちローカル微分プライバシに焦点を当てる。
摂動データから特徴やラベルを近似する再構成手法を開発した。
論文 参考訳(メタデータ) (2023-09-15T17:35:51Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Differentially Private Graph Classification with GNNs [5.830410490229634]
グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
論文 参考訳(メタデータ) (2022-02-05T15:16:40Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。