論文の概要: FedGTA: Topology-aware Averaging for Federated Graph Learning
- arxiv url: http://arxiv.org/abs/2401.11755v1
- Date: Mon, 22 Jan 2024 08:31:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:46:05.169909
- Title: FedGTA: Topology-aware Averaging for Federated Graph Learning
- Title(参考訳): FedGTA:フェデレーショングラフ学習のためのトポロジ認識平均化
- Authors: Xunkai Li, Zhengyu Wu, Wentao Zhang, Yinlin Zhu, Rong-Hua Li, Guoren
Wang
- Abstract要約: Federated Graph Learning(FGL)は、大規模サブグラフの協調トレーニングを可能にする分散機械学習パラダイムである。
多くのFGL最適化戦略はグラフ構造を無視し、満足できない性能と緩やかな収束を示す。
FedGTA(Federated Graph Topology-Aware Aggregation, FedGTA)は,局所的スムーシング信頼度と近傍の混合特徴を最適化するパーソナライズされた最適化戦略である。
- 参考スコア(独自算出の注目度): 44.11777886421429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Graph Learning (FGL) is a distributed machine learning paradigm
that enables collaborative training on large-scale subgraphs across multiple
local systems. Existing FGL studies fall into two categories: (i) FGL
Optimization, which improves multi-client training in existing machine learning
models; (ii) FGL Model, which enhances performance with complex local models
and multi-client interactions. However, most FGL optimization strategies are
designed specifically for the computer vision domain and ignore graph
structure, presenting dissatisfied performance and slow convergence. Meanwhile,
complex local model architectures in FGL Models studies lack scalability for
handling large-scale subgraphs and have deployment limitations. To address
these issues, we propose Federated Graph Topology-aware Aggregation (FedGTA), a
personalized optimization strategy that optimizes through topology-aware local
smoothing confidence and mixed neighbor features. During experiments, we deploy
FedGTA in 12 multi-scale real-world datasets with the Louvain and Metis split.
This allows us to evaluate the performance and robustness of FedGTA across a
range of scenarios. Extensive experiments demonstrate that FedGTA achieves
state-of-the-art performance while exhibiting high scalability and efficiency.
The experiment includes ogbn-papers100M, the most representative large-scale
graph database so that we can verify the applicability of our method to
large-scale graph learning. To the best of our knowledge, our study is the
first to bridge large-scale graph learning with FGL using this optimization
strategy, contributing to the development of efficient and scalable FGL
methods.
- Abstract(参考訳): Federated Graph Learning(FGL)は、複数のローカルシステムにわたる大規模サブグラフの協調トレーニングを可能にする分散機械学習パラダイムである。
既存のFGL研究は2つのカテゴリに分類される。
(i)既存の機械学習モデルにおけるマルチクライアントトレーニングを改善するFGL最適化
(ii)fglモデル、複雑な局所モデルとマルチクライアントインタラクションによる性能向上。
しかし、ほとんどのfgl最適化戦略は、特にコンピュータビジョン領域向けに設計され、グラフ構造を無視し、不満足な性能と緩やかな収束を示す。
一方、FGLモデルにおける複雑なローカルモデルアーキテクチャでは、大規模サブグラフを扱うためのスケーラビリティが欠如しており、デプロイメントの制限がある。
これらの問題に対処するため,我々は,局所的スムージング信頼度と近傍の混合特徴を最適化するパーソナライズされた最適化戦略であるFederated Graph Topology-aware Aggregation (FedGTA)を提案する。
実験では、LouvainとMetisを分割した12のマルチスケール実世界のデータセットにFedGTAをデプロイしました。
これにより、さまざまなシナリオでFedGTAのパフォーマンスと堅牢性を評価することができます。
広範な実験により、feedgtaは高いスケーラビリティと効率を示しながら最先端のパフォーマンスを達成できることが示されている。
この実験には,大規模グラフデータベースとして最も代表的なogbn-papers100Mが含まれており,大規模グラフ学習への適用性を検証することができる。
我々の知る限り、我々はこの最適化戦略を用いて、大規模なグラフ学習をFGLで橋渡しし、効率的でスケーラブルなFGL手法の開発に寄与した最初の研究である。
関連論文リスト
- MTLSO: A Multi-Task Learning Approach for Logic Synthesis Optimization [19.13500546022262]
MTLSOは論理合成最適化のためのマルチタスク学習手法である。
一次回帰タスクと並行して,二元多ラベルグラフ分類の補助タスクを導入する。
また、階層的なグラフ表現学習戦略を用いて、表現力のあるグラフレベルの表現を学習するためのモデルの能力を向上させる。
論文 参考訳(メタデータ) (2024-09-09T21:20:36Z) - OpenFGL: A Comprehensive Benchmarks for Federated Graph Learning [36.04858706246336]
Federated Graph Learning(FGL)は、直接データ共有なしで複数のローカルシステムにまたがるグラフニューラルネットワークのための、有望な分散トレーニングパラダイムとして登場した。
FGLの普及にもかかわらず、様々な研究背景と実験環境にまたがる実践的応用からの多様なモチベーションは、公正な評価に重大な課題をもたらす。
本稿では,主要なFGLシナリオであるGraph-FLとSubgraph-FLのための統一ベンチマークOpenFGLを提案する。
論文 参考訳(メタデータ) (2024-08-29T06:40:01Z) - SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation [16.599474223790843]
Federated Graph Learning (FGL)は、分類タスクのために複数のクライアントで協調的なトレーニングを可能にすることで、広く注目を集めている。
本研究では,エッジ・クライアント・コラボレーションにおける情報フローの促進を目的とした新しいFGLフレームワークSpreadFGLを提案する。
本研究では,SpreadFGLが最先端のアルゴリズムに対して精度が高く,より高速な収束を実現することを示す。
論文 参考訳(メタデータ) (2024-07-14T09:34:19Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - FedBone: Towards Large-Scale Federated Multi-Task Learning [13.835972363413884]
現実世界のアプリケーションでは、視覚と自然言語のタスクは、高レベルの抽象的特徴を抽出するために大規模なモデルを必要とする。
既存のHFML手法は、マルチタスク最適化における勾配競合の影響を無視している。
我々はFedBoneと呼ばれる革新的なフレームワークを提案し、より優れた一般化を伴う大規模モデルの構築を可能にする。
論文 参考訳(メタデータ) (2023-06-30T08:19:38Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - FederatedScope-GNN: Towards a Unified, Comprehensive and Efficient
Package for Federated Graph Learning [65.48760613529033]
フェデレートグラフ学習(FGL)は、その特徴と要求のため、十分にサポートされていない。
まず、使い易いFGLパッケージを作成する際の課題について議論し、実装済みのFederatedScope-GNN(FS-G)を提示する。
我々は,FS-Gの有効性を広範囲な実験によって検証し,同時にコミュニティにとってのFGLに関する貴重な洞察を得る。
論文 参考訳(メタデータ) (2022-04-12T06:48:06Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Iterative Deep Graph Learning for Graph Neural Networks: Better and
Robust Node Embeddings [53.58077686470096]
グラフ構造とグラフ埋め込みを協調的かつ反復的に学習するための、エンドツーエンドのグラフ学習フレームワーク、すなわち、IDGL(Iterative Deep Graph Learning)を提案する。
実験の結果,提案したIDGLモデルは,最先端のベースラインを一貫して上回る,あるいは一致させることができることがわかった。
論文 参考訳(メタデータ) (2020-06-21T19:49:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。