論文の概要: Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation
- arxiv url: http://arxiv.org/abs/2210.00538v1
- Date: Sun, 2 Oct 2022 14:41:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:29:34.887244
- Title: Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation
- Title(参考訳): プライバシ保護推奨のための異種グラフニューラルネットワーク
- Authors: Yuecen Wei, Xingcheng Fu, Qingyun Sun, Hao Peng, Jia Wu, Jinyan Wang,
and Xianxian Li
- Abstract要約: ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
- 参考スコア(独自算出の注目度): 25.95411320126426
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social networks are considered to be heterogeneous graph neural networks
(HGNNs) with deep learning technological advances. HGNNs, compared to
homogeneous data, absorb various aspects of information about individuals in
the training stage. That means more information has been covered in the
learning result, especially sensitive information. However, the
privacy-preserving methods on homogeneous graphs only preserve the same type of
node attributes or relationships, which cannot effectively work on
heterogeneous graphs due to the complexity. To address this issue, we propose a
novel heterogeneous graph neural network privacy-preserving method based on a
differential privacy mechanism named HeteDP, which provides a double guarantee
on graph features and topology. In particular, we first define a new attack
scheme to reveal privacy leakage in the heterogeneous graphs. Specifically, we
design a two-stage pipeline framework, which includes the privacy-preserving
feature encoder and the heterogeneous link reconstructor with gradients
perturbation based on differential privacy to tolerate data diversity and
against the attack. To better control the noise and promote model performance,
we utilize a bi-level optimization pattern to allocate a suitable privacy
budget for the above two modules. Our experiments on four public benchmarks
show that the HeteDP method is equipped to resist heterogeneous graph privacy
leakage with admirable model generalization.
- Abstract(参考訳): ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
HGNNは、均質なデータと比較して、トレーニング段階で個人に関する情報の様々な側面を吸収する。
つまり、多くの情報が学習結果、特に繊細な情報でカバーされているということだ。
しかしながら、均質グラフ上のプライバシ保存手法は、同じ種類のノード属性やリレーションのみを保持するため、複雑さのため、ヘテロジニアスグラフでは効果的に動作できない。
この問題に対処するために,hetedpと呼ばれる差分プライバシ機構に基づく,グラフの特徴とトポロジに関する二重保証を提供する,新たなヘテロジニアスグラフニューラルネットワークプライバシ保存手法を提案する。
特に、不均一グラフのプライバシー漏洩を明らかにする新たな攻撃手法を最初に定義する。
具体的には、プライバシ保護機能エンコーダと、データ多様性を許容し攻撃に抵抗する差分プライバシーに基づく勾配摂動を有する異種リンクコンストラクタを含む、2段階パイプラインフレームワークを設計する。
ノイズの制御とモデルパフォーマンスの向上のために,上記の2つのモジュールに対して適切なプライバシ予算を割り当てるために,バイレベル最適化パターンを利用する。
4つの公開ベンチマーク実験により,HeteDP法は不均一なグラフプライバシリークに対して優れたモデル一般化が可能であることが示された。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection [38.96828804683783]
GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T19:29:06Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Heterogeneous Graph Neural Networks using Self-supervised Reciprocally
Contrastive Learning [102.9138736545956]
不均一グラフニューラルネットワーク(HGNN)は異種グラフのモデリングと解析において非常に一般的な手法である。
我々は,ノード属性とグラフトポロジの各ガイダンスに関する2つの視点を取り入れた,新規で頑健なヘテロジニアスグラフコントラスト学習手法であるHGCLを初めて開発する。
この新しいアプローチでは,属性とトポロジに関連情報を別々にマイニングする手法として,異なるが最も適した属性とトポロジの融合機構を2つの視点に適用する。
論文 参考訳(メタデータ) (2022-04-30T12:57:02Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Differentially Private Graph Classification with GNNs [5.830410490229634]
グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
論文 参考訳(メタデータ) (2022-02-05T15:16:40Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。