論文の概要: Federated Graph Learning with Adaptive Importance-based Sampling
- arxiv url: http://arxiv.org/abs/2409.14655v1
- Date: Mon, 23 Sep 2024 01:49:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 21:34:58.295182
- Title: Federated Graph Learning with Adaptive Importance-based Sampling
- Title(参考訳): 適応的重要度に基づくサンプリングによるフェデレーショングラフ学習
- Authors: Anran Li, Yuanyuan Chen, Chao Ren, Wenhan Wang, Ming Hu, Tianlin Li, Han Yu, Qingyu Chen,
- Abstract要約: 分散グラフデータセットを含むグラフ学習タスクのプライバシ保護には、フェデレーション学習(FL)ベースのGCN(FedGCN)トレーニングが必要である。
既存のグラフサンプリング強化FedGCNトレーニングアプローチは、グラフ構造情報や最適化のダイナミクスを無視し、高いばらつきと不正確なノード埋め込みをもたらす。
我々は、この制限に対処するために、FedAIS(Federated Adaptive Importance-based Smpling)を提案する。
FedAISはテスト精度を最大3.23%向上し、通信コストと計算コストを91.77%、85.59%削減した。
- 参考スコア(独自算出の注目度): 22.601850857109024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For privacy-preserving graph learning tasks involving distributed graph datasets, federated learning (FL)-based GCN (FedGCN) training is required. A key challenge for FedGCN is scaling to large-scale graphs, which typically incurs high computation and communication costs when dealing with the explosively increasing number of neighbors. Existing graph sampling-enhanced FedGCN training approaches ignore graph structural information or dynamics of optimization, resulting in high variance and inaccurate node embeddings. To address this limitation, we propose the Federated Adaptive Importance-based Sampling (FedAIS) approach. It achieves substantial computational cost saving by focusing the limited resources on training important nodes, while reducing communication overhead via adaptive historical embedding synchronization. The proposed adaptive importance-based sampling method jointly considers the graph structural heterogeneity and the optimization dynamics to achieve optimal trade-off between efficiency and accuracy. Extensive evaluations against five state-of-the-art baselines on five real-world graph datasets show that FedAIS achieves comparable or up to 3.23% higher test accuracy, while saving communication and computation costs by 91.77% and 85.59%.
- Abstract(参考訳): 分散グラフデータセットを含むグラフ学習タスクのプライバシ保護には、フェデレーション学習(FL)ベースのGCN(FedGCN)トレーニングが必要である。
FedGCNの重要な課題は、大規模グラフへのスケーリングである。
既存のグラフサンプリング強化FedGCNトレーニングアプローチは、グラフ構造情報や最適化のダイナミクスを無視し、高いばらつきと不正確なノード埋め込みをもたらす。
この制限に対処するために、FedAIS(Federated Adaptive Importance-based Smpling)アプローチを提案する。
これは、限られたリソースを重要なノードの訓練に集中させ、適応的な履歴埋め込み同期を通じて通信オーバーヘッドを減らし、計算コストを大幅に削減する。
適応的重要度に基づくサンプリング手法は, グラフ構造の不均一性と最適化ダイナミクスを併用して, 効率と精度の最適なトレードオフを実現する。
5つの実世界のグラフデータセットに対する5つの最先端ベースラインに対する大規模な評価は、FedAISがテスト精度を最大3.23%向上し、通信と計算コストを91.77%、85.59%削減していることを示している。
関連論文リスト
- FedGrAINS: Personalized SubGraph Federated Learning with Adaptive Neighbor Sampling [36.314224807189575]
サブグラフFLのための新しいデータ適応型およびサンプリングベース正規化手法である textitFedGrAINS を提案する。
我々は,textitFedGrAINSをレギュレータとして組み込むことで,ベースラインよりもFL性能が一貫して向上することを示す。
論文 参考訳(メタデータ) (2025-01-22T02:35:20Z) - MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - Predicting Traffic Flow with Federated Learning and Graph Neural with Asynchronous Computations Network [0.0]
我々はFLAGCN(Federated Learning and Asynchronous Graph Convolutional Networks)と呼ばれる新しいディープラーニング手法を提案する。
本フレームワークでは,リアルタイムトラフィックフロー予測の精度と効率を高めるために,非同期グラフ畳み込みネットワークとフェデレーション学習の原理を取り入れている。
論文 参考訳(メタデータ) (2024-01-05T09:36:42Z) - Analysis and Optimization of Wireless Federated Learning with Data
Heterogeneity [72.85248553787538]
本稿では、データの不均一性を考慮した無線FLの性能解析と最適化と、無線リソース割り当てについて述べる。
ロス関数の最小化問題を、長期エネルギー消費と遅延の制約の下で定式化し、クライアントスケジューリング、リソース割り当て、ローカルトレーニングエポック数(CRE)を共同で最適化する。
実世界のデータセットの実験により、提案アルゴリズムは学習精度とエネルギー消費の点で他のベンチマークよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-04T04:18:01Z) - Efficient Graph Neural Network Inference at Large Scale [54.89457550773165]
グラフニューラルネットワーク(GNN)は、幅広いアプリケーションで優れた性能を示している。
既存のスケーラブルなGNNは、線形伝搬を利用して特徴を前処理し、トレーニングと推論の手順を高速化する。
本稿では,そのトポロジ情報に基づいて各ノードに対してパーソナライズされた伝搬順序を生成する適応的伝搬順序法を提案する。
論文 参考訳(メタデータ) (2022-11-01T14:38:18Z) - Towards Relation-centered Pooling and Convolution for Heterogeneous
Graph Learning Networks [11.421162988355146]
不均一グラフニューラルネットワークは,グラフ表現学習において大きな可能性を秘めている。
我々は,PC-HGNという異種グラフ学習ネットワークのための関係中心のPooling and Convolutionを設計し,関係固有サンプリングと相互関係の畳み込みを実現する。
実世界の3つのデータセットにおける最先端グラフ学習モデルとの比較により,提案モデルの性能評価を行った。
論文 参考訳(メタデータ) (2022-10-31T08:43:32Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - Distributed Optimization of Graph Convolutional Network using Subgraph
Variance [8.510726499008204]
グラフ拡張に基づく分散GCNフレームワーク(GAD)を提案する。
GADには、GAD-PartitionとGAD-rの2つの主要コンポーネントがある。
我々のフレームワークは通信オーバーヘッドを50%削減し、最先端手法と比較して収束速度(2X)と精度(0.45%)をわずかに向上させる。
論文 参考訳(メタデータ) (2021-10-06T18:01:47Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。