論文の概要: Locally Private Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.05535v9
- Date: Tue, 6 Jul 2021 19:00:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 14:36:53.029299
- Title: Locally Private Graph Neural Networks
- Title(参考訳): ローカルプライベートグラフニューラルネットワーク
- Authors: Sina Sajadmanesh and Daniel Gatica-Perez
- Abstract要約: ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
- 参考スコア(独自算出の注目度): 12.473486843211573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have demonstrated superior performance in
learning node representations for various graph inference tasks. However,
learning over graph data can raise privacy concerns when nodes represent people
or human-related variables that involve sensitive or personal information.
While numerous techniques have been proposed for privacy-preserving deep
learning over non-relational data, there is less work addressing the privacy
issues pertained to applying deep learning algorithms on graphs. In this paper,
we study the problem of node data privacy, where graph nodes have potentially
sensitive data that is kept private, but they could be beneficial for a central
server for training a GNN over the graph. To address this problem, we develop a
privacy-preserving, architecture-agnostic GNN learning algorithm with formal
privacy guarantees based on Local Differential Privacy (LDP). Specifically, we
propose an LDP encoder and an unbiased rectifier, by which the server can
communicate with the graph nodes to privately collect their data and
approximate the GNN's first layer. To further reduce the effect of the injected
noise, we propose to prepend a simple graph convolution layer, called KProp,
which is based on the multi-hop aggregation of the nodes' features acting as a
denoising mechanism. Finally, we propose a robust training framework, in which
we benefit from KProp's denoising capability to increase the accuracy of
inference in the presence of noisy labels. Extensive experiments conducted over
real-world datasets demonstrate that our method can maintain a satisfying level
of accuracy with low privacy loss.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,様々なグラフ推論タスクに対するノード表現の学習において,優れた性能を示す。
しかし、グラフデータの学習は、機密情報や個人情報を含む人や人間に関連する変数をノードが表現する場合、プライバシー上の懸念を引き起こす可能性がある。
非リレーショナルデータに対するプライバシ保存型ディープラーニングには,数多くのテクニックが提案されているが,グラフへのディープラーニングアルゴリズムの適用に関するプライバシ問題に対処する作業は少ない。
本稿では、グラフノードがプライベートに保持される可能性のある機密データを持つノードデータプライバシの問題について検討するが、グラフ上でgnnをトレーニングする中央サーバにとって有益である。
この問題に対処するため、我々は、局所微分プライバシー(LDP)に基づく正式なプライバシー保証付きプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
具体的には、サーバがグラフノードと通信し、データをプライベートに収集し、GNNの第1層を近似するLDPエンコーダと非バイアス整流器を提案する。
入射雑音の影響をさらに軽減するため,ノードの特徴をマルチホップアグリゲーション機構として機能するKPropと呼ばれる単純なグラフ畳み込み層をプリペイドすることを提案する。
最後に,雑音ラベルの存在下での推論精度を向上させるために,kpropの非正規化能力の恩恵を受けるロバストなトレーニングフレームワークを提案する。
実世界のデータセット上で行った広範囲な実験により,本手法は,プライバシの損失を少なく抑えながら,満足できるレベルの精度を維持できることが証明された。
関連論文リスト
- Privacy-Preserving Graph Embedding based on Local Differential Privacy [26.164722283887333]
ノードデータのプライバシを保護するために,PrivGEという新たなプライバシ保護グラフ埋め込みフレームワークを導入する。
具体的には,ノードデータを難読化するための LDP 機構を提案し,パーソナライズされた PageRank を近接指標としてノード表現を学習する。
いくつかの実世界のグラフデータセットの実験は、PrivGEがプライバシとユーティリティの最適なバランスを達成していることを示している。
論文 参考訳(メタデータ) (2023-10-17T08:06:08Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Self-supervised Learning on Graphs: Deep Insights and New Direction [66.78374374440467]
自己教師付き学習(SSL)は、ラベルのないデータにドメイン固有のプレテキストタスクを作成することを目的としている。
グラフニューラルネットワーク(GNN)の形でのグラフ領域へのディープラーニングの一般化への関心が高まっている。
論文 参考訳(メタデータ) (2020-06-17T20:30:04Z) - Vertically Federated Graph Neural Network for Privacy-Preserving Node
Classification [39.53937689989282]
VFGNNは、垂直分割されたデータの下でのプライバシー保護ノード分類タスクの学習パラダイムである。
プライベートなデータ関連の計算をデータホルダに残し、残りの計算を半正直なサーバに委譲します。
3つのベンチマークで実験を行い,VFGNNの有効性を実証した。
論文 参考訳(メタデータ) (2020-05-25T03:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。