論文の概要: Federated Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2207.11836v1
- Date: Sun, 24 Jul 2022 22:48:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 15:19:03.960534
- Title: Federated Graph Contrastive Learning
- Title(参考訳): フェデレートグラフのコントラスト学習
- Authors: Haoran Yang, Xiangyu Zhao, Muyang Li, Hongxu Chen, Guandong Xu
- Abstract要約: グラフ学習モデルは、研究者がグラフ構造化データを探索するための重要なツールである。
有能なグラフ学習モデルをトレーニングするために、従来の方法では十分なトレーニングデータを使用して、単一のデバイス上でグラフモデルをトレーニングする。
プライバシー上の懸念から、現実のシナリオではそうすることは禁じられている。
グラフエッジ上の差分プライバシーなど,さまざまなプライバシ保護機構を導入する。
- 参考スコア(独自算出の注目度): 24.10030054529649
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph learning models are critical tools for researchers to explore
graph-structured data. To train a capable graph learning model, a conventional
method uses sufficient training data to train a graph model on a single device.
However, it is prohibitive to do so in real-world scenarios due to privacy
concerns. Federated learning provides a feasible solution to address such
limitations via introducing various privacy-preserving mechanisms, such as
differential privacy on graph edges. Nevertheless, differential privacy in
federated graph learning secures the classified information maintained in
graphs. It degrades the performances of the graph learning models. In this
paper, we investigate how to implement differential privacy on graph edges and
observe the performances decreasing in the experiments. We also note that the
differential privacy on graph edges introduces noises to perturb graph
proximity, which is one of the graph augmentations in graph contrastive
learning. Inspired by that, we propose to leverage the advantages of graph
contrastive learning to alleviate the performance dropping caused by
differential privacy. Extensive experiments are conducted with several
representative graph models and widely-used datasets, showing that contrastive
learning indeed alleviates the models' performance dropping caused by
differential privacy.
- Abstract(参考訳): グラフ学習モデルは、研究者がグラフ構造化データを探索するための重要なツールである。
有能なグラフ学習モデルをトレーニングするために、従来の方法は十分なトレーニングデータを使用して、単一のデバイス上でグラフモデルをトレーニングする。
しかし、プライバシー上の懸念から現実のシナリオではそうすることは禁じられている。
フェデレーション学習は、グラフエッジ上の差分プライバシーなど、さまざまなプライバシ保護メカニズムを導入することで、このような制限に対処するための実現可能なソリューションを提供する。
それでも、フェデレーション付きグラフ学習における差分プライバシーは、グラフに保持されている機密情報を保証する。
グラフ学習モデルの性能を劣化させる。
本稿では,グラフエッジに差分プライバシーを実装する方法について検討し,実験で低下する性能を観察する。
また、グラフエッジ上の差分プライバシーは、グラフのコントラスト学習におけるグラフ強化の1つである摂動グラフ近接にノイズをもたらすことに留意する。
そこで我々は,グラフコントラスト学習の利点を生かして,ディファレンシャルプライバシに起因するパフォーマンス低下を軽減することを提案する。
いくつかの代表的なグラフモデルと広く使用されているデータセットで広範な実験が行われ、対照的な学習は差分プライバシーによって引き起こされるモデルのパフォーマンス低下を緩和することを示している。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - CORE: Data Augmentation for Link Prediction via Information Bottleneck [25.044734252779975]
リンク予測(LP)はグラフ表現学習の基本的な課題である。
LPモデルのコンパクトかつ予測的な拡張を学習するための新しいデータ拡張手法であるCOREを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:20:42Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Self-Supervised Representation Learning via Latent Graph Prediction [41.64774038444827]
グラフニューラルネットワークの自己教師付き学習(SSL)は、ラベルのないデータを活用するための有望な方法として浮上している。
ラグラフ(LaGraph)は、遅延グラフ予測に基づく理論的に基礎付けられた予測型SSLフレームワークである。
実験結果から,LaGraphの性能向上と,グラフレベルとノードレベルの両方のタスクにおけるトレーニングサンプルサイズ削減に対する堅牢性を示す。
論文 参考訳(メタデータ) (2022-02-16T21:10:33Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。