論文の概要: Towards Representation Identical Privacy-Preserving Graph Neural Network
via Split Learning
- arxiv url: http://arxiv.org/abs/2107.05917v1
- Date: Tue, 13 Jul 2021 08:35:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:54:42.837969
- Title: Towards Representation Identical Privacy-Preserving Graph Neural Network
via Split Learning
- Title(参考訳): 分割学習による同一プライバシ保存グラフニューラルネットワーク表現に向けて
- Authors: Chuanqiang Shan, Huiyun Jiao, Jie Fu
- Abstract要約: 水平分割型クロスサイロシナリオにおけるノードレベルタスクに対するSAPGNNを提案する。
最大/最小プールアグリゲーションを備えた孤立グラフへの、集中型GNNの自然な拡張を提供する。
データプライバシをさらに強化するため、セキュアなプーリングアグリゲーション機構を提案する。
- 参考スコア(独自算出の注目度): 18.07536952887173
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, the fast rise in number of studies on graph neural network
(GNN) has put it from the theories research to reality application stage.
Despite the encouraging performance achieved by GNN, less attention has been
paid to the privacy-preserving training and inference over distributed graph
data in the related literature. Due to the particularity of graph structure, it
is challenging to extend the existing private learning framework to GNN.
Motivated by the idea of split learning, we propose a \textbf{S}erver
\textbf{A}ided \textbf{P}rivacy-preserving \textbf{GNN} (SAPGNN) for the node
level task on horizontally partitioned cross-silo scenario. It offers a natural
extension of centralized GNN to isolated graph with max/min pooling
aggregation, while guaranteeing that all the private data involved in
computation still stays at local data holders. To further enhancing the data
privacy, a secure pooling aggregation mechanism is proposed. Theoretical and
experimental results show that the proposed model achieves the same accuracy as
the one learned over the combined data.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)の研究が急速に増加し、理論研究から現実の応用段階へと移行している。
GNNによる奨励的なパフォーマンスにもかかわらず、関連する文献では、分散グラフデータに対するプライバシー保護トレーニングと推論にはあまり注意が払われていない。
グラフ構造の特異性のため、既存のプライベート学習フレームワークをGNNに拡張することは困難である。
分割学習のアイデアに動機づけられて,水平分割クロスサイロシナリオにおけるノードレベルタスクのための \textbf{s}erver \textbf{a}ided \textbf{p}rivacy-preserving \textbf{gnn} (sapgnn) を提案する。
集約を最大/minプールする分離グラフへの集中型gnnの自然な拡張を提供すると同時に、計算に関わるすべてのプライベートデータがローカルデータホルダに保持されることを保証する。
データプライバシをさらに強化するため,セキュアなプーリング集約機構を提案する。
理論および実験の結果,提案モデルが複合データ上で学習したモデルと同等の精度が得られることがわかった。
関連論文リスト
- DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - ProGAP: Progressive Graph Neural Networks with Differential Privacy
Guarantees [8.79398901328539]
グラフニューラルネットワーク(GNN)は、グラフを学習するための一般的なツールとなっているが、広く使われているため、プライバシの懸念が高まる。
本稿では,ProGAPと呼ばれる新たなGNNを提案し,プログレッシブトレーニング手法を用いて,そのような精度とプライバシのトレードオフを改善する。
論文 参考訳(メタデータ) (2023-04-18T12:08:41Z) - SplitGNN: Splitting GNN for Node Classification with Heterogeneous
Attention [29.307331758493323]
グラフ計算のための分割学習型グラフニューラルネットワーク(SplitGNN)を提案する。
我々のSplitGNNは、孤立した異種地区を協調的に利用できるようにする。
2つの標準公開データセットと実世界のデータセットのノード分類タスクにおけるSplitGNNの有効性を示す。
論文 参考訳(メタデータ) (2023-01-27T12:08:44Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - Interpolation-based Correlation Reduction Network for Semi-Supervised
Graph Learning [49.94816548023729]
補間型相関低減ネットワーク(ICRN)と呼ばれる新しいグラフコントラスト学習手法を提案する。
提案手法では,決定境界のマージンを大きくすることで,潜在特徴の識別能力を向上させる。
この2つの設定を組み合わせることで、豊富なラベル付きノードと稀に価値あるラベル付きノードから豊富な監視情報を抽出し、離散表現学習を行う。
論文 参考訳(メタデータ) (2022-06-06T14:26:34Z) - GAP: Differentially Private Graph Neural Networks with Aggregation
Perturbation [19.247325210343035]
グラフニューラルネットワーク(GNN)は、ノード表現を学習するグラフデータ用に設計された強力なモデルである。
近年の研究では、グラフデータが機密情報を含む場合、GNNは重大なプライバシー上の懸念を生じさせることが示されている。
我々は,ノードとエッジのプライバシを保護する,差分的にプライベートなGNNであるGAPを提案する。
論文 参考訳(メタデータ) (2022-03-02T08:58:07Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - FedGraphNN: A Federated Learning System and Benchmark for Graph Neural
Networks [68.64678614325193]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造データから表現を学ぶGNNの能力のおかげで急速に成長しています。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
GNNベースのFL研究を促進するためのオープンリサーチフェデレーション学習システムとベンチマークであるFedGraphNNを紹介します。
論文 参考訳(メタデータ) (2021-04-14T22:11:35Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Self-supervised Learning on Graphs: Deep Insights and New Direction [66.78374374440467]
自己教師付き学習(SSL)は、ラベルのないデータにドメイン固有のプレテキストタスクを作成することを目的としている。
グラフニューラルネットワーク(GNN)の形でのグラフ領域へのディープラーニングの一般化への関心が高まっている。
論文 参考訳(メタデータ) (2020-06-17T20:30:04Z) - Locally Private Graph Neural Networks [12.473486843211573]
ノードデータプライバシ(ノードデータプライバシ)の問題として,グラフノードが機密性の高いデータをプライベートに保持する可能性について検討する。
我々は、正式なプライバシー保証を備えたプライバシー保護アーキテクチャに依存しないGNN学習アルゴリズムを開発した。
実世界のデータセット上で行った実験は、我々の手法が低プライバシー損失で満足度の高い精度を維持することができることを示した。
論文 参考訳(メタデータ) (2020-06-09T22:36:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。