論文の概要: GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation
- arxiv url: http://arxiv.org/abs/2203.00949v1
- Date: Wed, 2 Mar 2022 08:58:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 16:02:46.733358
- Title: GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation
- Title(参考訳): GAP: 集約摂動を伴う微分プライベートグラフニューラルネットワーク
- Authors: Sina Sajadmanesh, Ali Shahin Shamsabadi, Aur\'elien Bellet, Daniel
Gatica-Perez
- Abstract要約: グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
- 参考スコア(独自算出の注目度): 19.247325210343035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are powerful models designed for graph data that
learn node representation by recursively aggregating information from each
node's local neighborhood. However, despite their state-of-the-art performance
in predictive graph-based applications, recent studies have shown that GNNs can
raise significant privacy concerns when graph data contain sensitive
information. As a result, in this paper, we study the problem of learning GNNs
with Differential Privacy (DP). We propose GAP, a novel differentially private
GNN that safeguards the privacy of nodes and edges using aggregation
perturbation, i.e., adding calibrated stochastic noise to the output of the
GNN's aggregation function, which statistically obfuscates the presence of a
single edge (edge-level privacy) or a single node and all its adjacent edges
(node-level privacy). To circumvent the accumulation of privacy cost at every
forward pass of the model, we tailor the GNN architecture to the specifics of
private learning. In particular, we first precompute private aggregations by
recursively applying neighborhood aggregation and perturbing the output of each
aggregation step. Then, we privately train a deep neural network on the
resulting perturbed aggregations for any node-wise classification task. A major
advantage of GAP over previous approaches is that we guarantee edge-level and
node-level DP not only for training, but also at inference time with no
additional costs beyond the training's privacy budget. We theoretically analyze
the formal privacy guarantees of GAP using R\'enyi DP. Empirical experiments
conducted over three real-world graph datasets demonstrate that GAP achieves a
favorable privacy-accuracy trade-off and significantly outperforms existing
approaches.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、各ノードの局所的近傍から情報を再帰的に集約することでノード表現を学習するグラフデータ用に設計された強力なモデルである。
しかしながら、予測グラフベースのアプリケーションにおける最先端のパフォーマンスにもかかわらず、近年の研究により、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
そこで本研究では,差分プライバシー(DP)を用いたGNN学習の問題点について考察する。
我々は,GNNのアグリゲーション関数の出力にキャリブレーションされた確率ノイズを加えることで,ノードとエッジのプライバシを保護し,単一のエッジ(エッジレベルのプライバシ)や単一ノードとその隣のエッジ(ノードレベルのプライバシ)の存在を統計的に曖昧にする新たなGNNであるGAPを提案する。
モデルのフォワードパス毎にプライバシコストの蓄積を回避するために、私たちは、gnnアーキテクチャをプライベートラーニングの仕様に合わせて調整します。
特に,まず,近傍集約を逐次適用し,各集約ステップの出力を摂動させることで,プライベートアグリゲーションを事前計算する。
次に、ノード毎の分類タスクに対して、結果の摂動集約に対してディープニューラルネットワークをプライベートにトレーニングする。
GAPのこれまでのアプローチに対する大きな利点は、トレーニングのためだけでなく、トレーニングのプライバシ予算以外の追加コストなしで、エッジレベルとノードレベルのDPを推論時に保証することです。
R'enyi DPを用いてGAPの正式なプライバシー保証を理論的に分析する。
3つの実世界のグラフデータセットで実施した実証実験は、gapが適切なプライバシ-正確性トレードオフを達成し、既存のアプローチを大きく上回っていることを示している。
関連論文リスト
- Blink: Link Local Differential Privacy in Graph Neural Networks via
Bayesian Estimation [79.64626707978418]
分散ノード上でのリンクローカル差分プライバシーを用いてグラフニューラルネットワークをトレーニングする。
当社のアプローチでは、グラフトポロジをより悪用するために、グラフのリンクと学位を別々に、プライバシ予算に費やしています。
当社のアプローチは、様々なプライバシー予算の下での精度において、既存の手法よりも優れています。
論文 参考訳(メタデータ) (2023-09-06T17:53:31Z) - A Survey on Privacy in Graph Neural Networks: Attacks, Preservation, and
Applications [76.88662943995641]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを扱う能力のため、大きな注目を集めている。
この問題に対処するため、研究者らはプライバシー保護のGNNの開発を開始した。
この進歩にもかかわらず、攻撃の包括的概要と、グラフドメインのプライバシを保存するためのテクニックが欠如している。
論文 参考訳(メタデータ) (2023-08-31T00:31:08Z) - Differentially Private Graph Neural Network with Importance-Grained
Noise Adaption [6.319864669924721]
ノードが個人や機密情報を表現している場合、グラフプライバシを保護するために、差分プライバシを持つグラフニューラルネットワーク(GNN)が提案されている。
ノードがプライベートにしておく必要があるが、GNNのトレーニングには不可欠である個人データを含む、重要度の高いプライバシの問題について検討する。
NAP-GNNはノード情報を保護するための適応差分プライバシーに基づくプライバシー保証付きノード単位のプライバシ保存GNNアルゴリズムである。
論文 参考訳(メタデータ) (2023-08-09T13:18:41Z) - Differentially Private Decoupled Graph Convolutions for Multigranular
Topology Protection [38.96828804683783]
GNNは、モデル予測を通じて、機密性の高いユーザ情報やインタラクションを不注意に公開することができる。
2つの主な理由から、GNNに標準のDPアプローチを適用することは推奨できない。
本稿では,グラフ学習に適したグラフ微分プライバシー(GDP)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-12T19:29:06Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Node-Level Differentially Private Graph Neural Networks [14.917945355629563]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをモデル化するための一般的な手法である。
この研究は、ノードレベルのプライバシで1層GNNを学習する問題を正式に定義する。
強力な差分プライバシー保証を備えたアルゴリズムによるソリューションを提供する。
論文 参考訳(メタデータ) (2021-11-23T16:18:53Z) - Policy-GNN: Aggregation Optimization for Graph Neural Networks [60.50932472042379]
グラフニューラルネットワーク(GNN)は、局所的なグラフ構造をモデル化し、隣人からの情報を集約することで階層的なパターンを捉えることを目的としている。
複雑なグラフとスパースな特徴を与えられた各ノードに対して効果的なアグリゲーション戦略を開発することは難しい課題である。
本稿では,GNNのサンプリング手順とメッセージパッシングを複合学習プロセスにモデル化するメタ政治フレームワークであるPolicy-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-26T17:03:06Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。