論文の概要: Mitigating the Performance Sacrifice in DP-Satisfied Federated Settings
through Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2207.11836v3
- Date: Sun, 20 Aug 2023 01:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:55:19.529067
- Title: Mitigating the Performance Sacrifice in DP-Satisfied Federated Settings
through Graph Contrastive Learning
- Title(参考訳): グラフコントラスト学習によるdp-satisfied federated settingsにおけるパフォーマンス犠牲の軽減
- Authors: Haoran Yang, Xiangyu Zhao, Muyang Li, Hongxu Chen, Guandong Xu
- Abstract要約: グラフエッジに差分プライバシ(DP)を実装する方法について検討し,性能低下を観察する。
そこで本研究では,DPによる性能低下を軽減するために,グラフのコントラスト学習を活用することを提案する。
5つの広く使用されているベンチマークデータセット上で4つの代表グラフモデルを用いて実施された大規模な実験により、対照的な学習は、モデルがDPによって引き起こされるパフォーマンス低下を実際に緩和することを示した。
- 参考スコア(独自算出の注目度): 43.73753083910439
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Currently, graph learning models are indispensable tools to help researchers
explore graph-structured data. In academia, using sufficient training data to
optimize a graph model on a single device is a typical approach for training a
capable graph learning model. Due to privacy concerns, however, it is
infeasible to do so in real-world scenarios. Federated learning provides a
practical means of addressing this limitation by introducing various
privacy-preserving mechanisms, such as differential privacy (DP) on the graph
edges. However, although DP in federated graph learning can ensure the security
of sensitive information represented in graphs, it usually causes the
performance of graph learning models to degrade. In this paper, we investigate
how DP can be implemented on graph edges and observe a performance decrease in
our experiments. In addition, we note that DP on graph edges introduces noise
that perturbs graph proximity, which is one of the graph augmentations in graph
contrastive learning. Inspired by this, we propose leveraging graph contrastive
learning to alleviate the performance drop resulting from DP. Extensive
experiments conducted with four representative graph models on five widely used
benchmark datasets show that contrastive learning indeed alleviates the models'
DP-induced performance drops.
- Abstract(参考訳): 現在、グラフ学習モデルは、研究者がグラフ構造化データを調べるのに不可欠なツールである。
アカデミアでは、十分なトレーニングデータを使用して1つのデバイスでグラフモデルを最適化することは、有能なグラフ学習モデルをトレーニングするための典型的なアプローチである。
しかし、プライバシー上の懸念から、現実のシナリオではそうすることは不可能である。
フェデレーション学習は、グラフエッジに差分プライバシー(DP)など、さまざまなプライバシ保護メカニズムを導入することで、この制限に対処する実用的な手段を提供する。
しかし、グラフ学習におけるDPはグラフに表されるセンシティブな情報のセキュリティを確保することができるが、通常はグラフ学習モデルの性能を低下させる。
本稿では,グラフエッジ上でDPをどのように実装できるかを考察し,実験における性能低下を観察する。
さらに,グラフエッジ上のdpは,グラフの近接度をゆるめる雑音をもたらし,グラフコントラスト学習におけるグラフ拡張の一つである。
そこで本研究では,dpによる性能低下を軽減するために,グラフコントラスト学習の活用を提案する。
5つのベンチマークデータセットにおける4つの代表グラフモデルによる広範囲な実験は、対照的な学習がモデルのdpによるパフォーマンス低下を緩和していることを示している。
関連論文リスト
- A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - CORE: Data Augmentation for Link Prediction via Information Bottleneck [25.044734252779975]
リンク予測(LP)はグラフ表現学習の基本的な課題である。
LPモデルのコンパクトかつ予測的な拡張を学習するための新しいデータ拡張手法であるCOREを提案する。
論文 参考訳(メタデータ) (2024-04-17T03:20:42Z) - Robust Causal Graph Representation Learning against Confounding Effects [21.380907101361643]
本稿では,ロバスト因果グラフ表現学習(RCGRL)を提案する。
RCGRLは、無条件のモーメント制約の下でインストゥルメンタル変数を生成するアクティブなアプローチを導入し、グラフ表現学習モデルにより、共同設立者を排除している。
論文 参考訳(メタデータ) (2022-08-18T01:31:25Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - GraphCoCo: Graph Complementary Contrastive Learning [65.89743197355722]
グラフコントラスト学習(GCL)は、手作業によるアノテーションの監督なしに、グラフ表現学習(GRL)において有望な性能を示した。
本稿では,この課題に対処するため,グラフココというグラフ補完型コントラスト学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-24T02:58:36Z) - Self-Supervised Representation Learning via Latent Graph Prediction [41.64774038444827]
グラフニューラルネットワークの自己教師付き学習(SSL)は、ラベルのないデータを活用するための有望な方法として浮上している。
ラグラフ(LaGraph)は、遅延グラフ予測に基づく理論的に基礎付けられた予測型SSLフレームワークである。
実験結果から,LaGraphの性能向上と,グラフレベルとノードレベルの両方のタスクにおけるトレーニングサンプルサイズ削減に対する堅牢性を示す。
論文 参考訳(メタデータ) (2022-02-16T21:10:33Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Iterative Graph Self-Distillation [161.04351580382078]
我々は、IGSD(Iterative Graph Self-Distillation)と呼ばれる新しい教師なしグラフ学習パラダイムを提案する。
IGSDは、グラフ拡張による教師/学生の蒸留を反復的に行う。
我々は,教師なしと半教師なしの両方の設定において,さまざまなグラフデータセットに対して,有意かつ一貫したパフォーマンス向上を実現していることを示す。
論文 参考訳(メタデータ) (2020-10-23T18:37:06Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。