論文の概要: Differentially Private Graph Classification with GNNs
- arxiv url: http://arxiv.org/abs/2202.02575v1
- Date: Sat, 5 Feb 2022 15:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-11 09:27:25.111796
- Title: Differentially Private Graph Classification with GNNs
- Title(参考訳): GNNを用いた差分グラフ分類
- Authors: Tamara T. Mueller, Johannes C. Paetzold, Chinmay Prabhakar, Dmitrii
Usynin, Daniel Rueckert, and Georgios Kaissis
- Abstract要約: グラフネットワーク(GNN)は多くの機械学習アプリケーションの最先端モデルとして確立されている。
グラフにおける機械学習の重要な応用の1つであるグラフレベル分類の差分プライバシーを導入する。
各種の合成および公開データセットについて結果を示し、異なるGNNアーキテクチャの影響を評価する。
- 参考スコア(独自算出の注目度): 5.830410490229634
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have established themselves as the
state-of-the-art models for many machine learning applications such as the
analysis of social networks, protein interactions and molecules. Several among
these datasets contain privacy-sensitive data. Machine learning with
differential privacy is a promising technique to allow deriving insight from
sensitive data while offering formal guarantees of privacy protection. However,
the differentially private training of GNNs has so far remained under-explored
due to the challenges presented by the intrinsic structural connectivity of
graphs. In this work, we introduce differential privacy for graph-level
classification, one of the key applications of machine learning on graphs. Our
method is applicable to deep learning on multi-graph datasets and relies on
differentially private stochastic gradient descent (DP-SGD). We show results on
a variety of synthetic and public datasets and evaluate the impact of different
GNN architectures and training hyperparameters on model performance for
differentially private graph classification. Finally, we apply explainability
techniques to assess whether similar representations are learned in the private
and non-private settings and establish robust baselines for future work in this
area.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ソーシャルネットワーク、タンパク質相互作用、分子の解析など、多くの機械学習アプリケーションのための最先端のモデルとして確立されている。
これらのデータセットのいくつかは、プライバシーに敏感なデータを含んでいる。
差分プライバシーを持つ機械学習は、プライバシー保護の正式な保証を提供しながら、機密データから洞察を導き出すための有望なテクニックである。
しかし、グラフの固有の構造接続がもたらす課題のため、GNNの差分プライベートトレーニングはいまだに未探索のままである。
本稿では,グラフ上の機械学習の重要な応用の一つであるグラフレベルの分類に微分プライバシーを導入する。
本手法は,多グラフデータセットの深層学習に適用可能であり,dp-sgd ( differentially private stochasticgradient descent) に依存する。
各種合成および公開データセットの結果を示し、異なるGNNアーキテクチャの影響を評価し、微分プライベートグラフ分類のためのモデル性能に対するハイパーパラメータの訓練を行う。
最後に,類似表現がプライベートおよび非プライベートな設定で学習されているかを評価するために説明可能性手法を適用し,この分野における今後の作業のための堅牢なベースラインを確立する。
関連論文リスト
- Local Differential Privacy in Graph Neural Networks: a Reconstruction Approach [17.000441871334683]
ユーザレベルでノードのプライバシを提供するための学習フレームワークを提案する。
我々は、分散化された微分プライバシーの概念、すなわちローカル微分プライバシに焦点を当てる。
摂動データから特徴やラベルを近似する再構成手法を開発した。
論文 参考訳(メタデータ) (2023-09-15T17:35:51Z) - Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Heterogeneous Graph Neural Network for Privacy-Preserving Recommendation [25.95411320126426]
ソーシャルネットワークは、ディープラーニングの技術進歩を伴う異種グラフニューラルネットワーク(HGNN)であると考えられている。
本稿では,HeteDPと呼ばれる差分プライバシー機構に基づく,新しい異種グラフニューラルネットワークのプライバシ保存手法を提案する。
論文 参考訳(メタデータ) (2022-10-02T14:41:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - SoK: Differential Privacy on Graph-Structured Data [6.177995200238526]
グラフ構造化データのコンテキストにおける差分プライバシー(DP)の適用について検討する。
事前の体系化作業の欠如は、プライバシーの観点からグラフベースの学習を研究する動機となったのです。
論文 参考訳(メタデータ) (2022-03-17T09:56:32Z) - Gromov-Wasserstein Discrepancy with Local Differential Privacy for
Distributed Structural Graphs [7.4398547397969494]
本稿では,グラフニューラルネットワークから学習したノード埋め込みのGW差分を分析するためのプライバシー保護フレームワークを提案する。
我々の実験は,$varilon$-LDPアルゴリズムによって保証される強力なプライバシー保護により,提案フレームワークがグラフ学習におけるプライバシを保存するだけでなく,GW距離下でのノイズ構造指標も提示することを示した。
論文 参考訳(メタデータ) (2022-02-01T23:32:33Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。