論文の概要: Privacy-Preserved Neural Graph Similarity Learning
- arxiv url: http://arxiv.org/abs/2210.11730v1
- Date: Fri, 21 Oct 2022 04:38:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:37:46.706381
- Title: Privacy-Preserved Neural Graph Similarity Learning
- Title(参考訳): プライバシー保護型ニューラルグラフ類似学習
- Authors: Yupeng Hou, Wayne Xin Zhao, Yaliang Li, Ji-Rong Wen
- Abstract要約: 本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
- 参考スコア(独自算出の注目度): 99.78599103903777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To develop effective and efficient graph similarity learning (GSL) models, a
series of data-driven neural algorithms have been proposed in recent years.
Although GSL models are frequently deployed in privacy-sensitive scenarios, the
user privacy protection of neural GSL models has not drawn much attention. To
comprehensively understand the privacy protection issues, we first introduce
the concept of attackable representation to systematically characterize the
privacy attacks that each model can face. Inspired by the qualitative results,
we propose a novel Privacy-Preserving neural Graph Matching network model,
named PPGM, for graph similarity learning. To prevent reconstruction attacks,
the proposed model does not communicate node-level representations between
devices. Instead, we learn multi-perspective graph representations based on
learnable context vectors. To alleviate the attacks to graph properties, the
obfuscated features that contain information from both graphs are communicated.
In this way, the private properties of each graph can be difficult to infer.
Based on the node-graph matching techniques while calculating the obfuscated
features, PPGM can also be effective in similarity measuring. To quantitatively
evaluate the privacy-preserving ability of neural GSL models, we further
propose an evaluation protocol via training supervised black-box attack models.
Extensive experiments on widely-used benchmarks show the effectiveness and
strong privacy-protection ability of the proposed model PPGM. The code is
available at: https://github.com/RUCAIBox/PPGM.
- Abstract(参考訳): 近年,効率的なグラフ類似性学習(gsl)モデルを開発するために,データ駆動型ニューラルネットワークが提案されている。
GSLモデルは、プライバシに敏感なシナリオに頻繁にデプロイされるが、ニューラルGSLモデルのユーザのプライバシ保護はあまり注目されていない。
プライバシ保護の問題を包括的に理解するために,まず,各モデルが直面するプライバシ攻撃を体系的に特徴付ける攻撃可能な表現の概念を導入する。
質的な結果から着想を得て,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
レコンストラクション攻撃を防止するため、提案モデルはデバイス間でノードレベルの表現を通信しない。
代わりに、学習可能なコンテキストベクトルに基づいて多視点グラフ表現を学習する。
グラフプロパティに対する攻撃を軽減するため、両方のグラフの情報を含む難読化機能は通信される。
このようにして、各グラフのプライベートな性質を推測することは困難である。
難読化特徴を計算しながらノードグラフマッチング技術に基づいて、PPGMは類似度測定にも有効である。
ニューラルGSLモデルのプライバシー保護能力を定量的に評価するために,教師付きブラックボックス攻撃モデルによる評価プロトコルを提案する。
広範に使用されているベンチマークの大規模な実験は、提案モデルPPGMの有効性と強力なプライバシー保護能力を示している。
コードはhttps://github.com/rucaibox/ppgmで入手できる。
関連論文リスト
- Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。