論文の概要: Adversarial Privacy Preserving Graph Embedding against Inference Attack
- arxiv url: http://arxiv.org/abs/2008.13072v1
- Date: Sun, 30 Aug 2020 00:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 12:10:23.427812
- Title: Adversarial Privacy Preserving Graph Embedding against Inference Attack
- Title(参考訳): 推論攻撃に対するプライバシー保護グラフの埋め込み
- Authors: Kaiyang Li, Guangchun Luo, Yang Ye, Wei Li, Shihao Ji, Zhipeng Cai
- Abstract要約: グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシを考慮しない。
本稿では,学習ノード表現からユーザのプライベート情報を削除するためのアンタングルとパージ機構を統合したグラフ対向トレーニングフレームワークであるAdrial Privacy Graph Embedding (APGE)を提案する。
- 参考スコア(独自算出の注目度): 9.90348608491218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the surge in popularity of Internet of Things (IoT), mobile
devices, social media, etc. has opened up a large source for graph data. Graph
embedding has been proved extremely useful to learn low-dimensional feature
representations from graph structured data. These feature representations can
be used for a variety of prediction tasks from node classification to link
prediction. However, existing graph embedding methods do not consider users'
privacy to prevent inference attacks. That is, adversaries can infer users'
sensitive information by analyzing node representations learned from graph
embedding algorithms. In this paper, we propose Adversarial Privacy Graph
Embedding (APGE), a graph adversarial training framework that integrates the
disentangling and purging mechanisms to remove users' private information from
learned node representations. The proposed method preserves the structural
information and utility attributes of a graph while concealing users' private
attributes from inference attacks. Extensive experiments on real-world graph
datasets demonstrate the superior performance of APGE compared to the
state-of-the-arts. Our source code can be found at
https://github.com/uJ62JHD/Privacy-Preserving-Social-Network-Embedding.
- Abstract(参考訳): 近年,iot(internet of things, モノのインターネット)やモバイルデバイス,ソーシャルメディアなどの人気が高まっている。
グラフ埋め込みはグラフ構造化データから低次元の特徴表現を学習するのに非常に有用であることが証明されている。
これらの特徴表現は、ノード分類からリンク予測まで、様々な予測タスクに使用できる。
しかし、既存のグラフ埋め込み手法は、推論攻撃を防ぐためのユーザのプライバシーを考慮していない。
すなわち,グラフ埋め込みアルゴリズムから学習したノード表現を解析することにより,ユーザのセンシティブな情報を推測することができる。
本稿では,ユーザの個人情報を学習ノード表現から削除するために,ディスタングとパーシング機構を統合したグラフ会話学習フレームワークであるadversarial privacy graph embedded(apge)を提案する。
提案手法は,ユーザのプライベート属性を推論攻撃から隠蔽しながら,グラフの構造情報とユーティリティ属性を保存する。
実世界のグラフデータセットに関する大規模な実験は、最先端のグラフよりもAPGEの優れた性能を示している。
ソースコードはhttps://github.com/uJ62JHD/Privacy-Preserving-Social-Network-Embeddingにある。
関連論文リスト
- GraphPub: Generation of Differential Privacy Graph with High
Availability [21.829551460549936]
差分プライバシー(DP)は、グラフデータのプライバシーを保護する一般的な方法である。
グラフデータの複雑なトポロジ構造のため、グラフにDPを適用すると、GNNモデルのメッセージパッシングや集約に影響を及ぼすことが多い。
グラフトポロジを保護しつつ,データの可用性が基本的に変化しないことを保証するグラフパブリッシャ(GraphPub)を提案する。
論文 参考訳(メタデータ) (2024-02-28T20:02:55Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。