論文の概要: Sporadic Gradient Tracking over Directed Graphs: A Theoretical Perspective on Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2602.00791v1
- Date: Sat, 31 Jan 2026 15:58:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.402278
- Title: Sporadic Gradient Tracking over Directed Graphs: A Theoretical Perspective on Decentralized Federated Learning
- Title(参考訳): 方向性グラフ上のスポラディック勾配追跡:分散化フェデレーション学習の理論的視点
- Authors: Shahryar Zehtabi, Dong-Jun Han, Seyyedali Hosseinalipour, Christopher Brinton,
- Abstract要約: Decentralized Federated Learning (DFL)は、ローカルデータを持つクライアントがピアツーピアでコラボレーションして、一般化されたモデルをトレーニングすることを可能にする。
本稿では、DFLにおける重要な課題を個別に解決した2つの作業分野を統一する: (i) データの不均一性を緩和するための勾配追跡技術と (ii) クライアント間でのリソースの多様な利用を考慮に入れた。
我々は、クライアント固有の勾配計算周波数を許容し、これらの因子を汎用グラフ上に組み込んだ最初のDFLアルゴリズムである$textitSporadic Gradient Tracking$(texttSpod-GT$)を提案する。
- 参考スコア(独自算出の注目度): 23.709425027235937
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decentralized Federated Learning (DFL) enables clients with local data to collaborate in a peer-to-peer manner to train a generalized model. In this paper, we unify two branches of work that have separately solved important challenges in DFL: (i) gradient tracking techniques for mitigating data heterogeneity and (ii) accounting for diverse availability of resources across clients. We propose $\textit{Sporadic Gradient Tracking}$ ($\texttt{Spod-GT}$), the first DFL algorithm that incorporates these factors over general directed graphs by allowing (i) client-specific gradient computation frequencies and (ii) heterogeneous and asymmetric communication frequencies. We conduct a rigorous convergence analysis of our methodology with relaxed assumptions on gradient estimation variance and gradient diversity of clients, providing consensus and optimality guarantees for GT over directed graphs despite intermittent client participation. Through numerical experiments on image classification datasets, we demonstrate the efficacy of $\texttt{Spod-GT}$ compared to well-known GT baselines.
- Abstract(参考訳): Decentralized Federated Learning (DFL)は、ローカルデータを持つクライアントがピアツーピアでコラボレーションして、一般化されたモデルをトレーニングすることを可能にする。
本稿では,DFLにおける重要な課題を個別に解決した2つの作業分野を統合する。
一 データの均一性を緩和するための勾配追跡技術
(ii) クライアント間でのリソースの多種多様さを考慮に入れます。
汎用グラフ上にこれらの因子を組み込んだ最初のDFLアルゴリズムである$\textt{Sporadic Gradient Tracking}$$$\textt{Spod-GT}$を提案する。
(i)クライアント固有の勾配計算周波数
(II)不均一かつ非対称な通信周波数。
我々は、クライアントの勾配推定分散と勾配の多様性を緩和した仮定を用いて、我々の方法論の厳密な収束解析を行い、間欠的なクライアント参加にもかかわらず、有向グラフ上のGTのコンセンサスと最適性を保証する。
画像分類データセットの数値実験を通じて、よく知られたGTベースラインと比較して$\texttt{Spod-GT}$の有効性を示す。
関連論文リスト
- STT-GS: Sample-Then-Transmit Edge Gaussian Splatting with Joint Client Selection and Power Control [77.56170394100022]
Edge Gaussian splatting (EGS)は、分散クライアントからデータを集約し、エッジサーバでグローバルGSモデルをトレーニングする。
本稿では、異なるクライアントのビューコントリビューションを識別する新しいGS指向の目的関数を定式化する。
その結果,低サンプリング比でGS指向の目的を正確に予測できることが判明した。
論文 参考訳(メタデータ) (2025-10-15T06:20:47Z) - Personalized Subgraph Federated Learning with Differentiable Auxiliary Projections [15.488985833084408]
補助投影を用いたフェデレーション学習(FedAux)を紹介する。
FedAuxはパーソナライズされたサブグラフFLフレームワークで、生のデータやノードの埋め込みを共有することなく、均一に分散されたローカルモデルを調整、比較、集約することを学ぶ。
多様なグラフベンチマークによる実証的な評価は、FedAuxが精度とパーソナライズ性能の両方で既存のベースラインを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-05-29T09:17:49Z) - FedHERO: A Federated Learning Approach for Node Classification Task on Heterophilic Graphs [55.51300642911766]
Federated Graph Learning(FGL)は、クライアントがグラフニューラルネットワーク(GNN)を分散的にトレーニングすることを可能にする。
FGL法は通常、全てのクライアントが所有するグラフデータが、類似したノードの分布パターンを保証するためにホモフィリックであることが要求される。
異種グラフからの洞察を効果的に活用し、共有するために設計されたFGLフレームワークであるFedHEROを提案する。
論文 参考訳(メタデータ) (2025-04-29T22:23:35Z) - Decentralized Nonconvex Composite Federated Learning with Gradient Tracking and Momentum [78.27945336558987]
分散サーバ(DFL)はクライアント・クライアント・アーキテクチャへの依存をなくす。
非滑らかな正規化はしばしば機械学習タスクに組み込まれる。
本稿では,これらの問題を解決する新しいDNCFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-04-17T08:32:25Z) - Personalized One-shot Federated Graph Learning for Heterogeneous Clients [11.438281045702976]
Federated Graph Learning (FGL)は、クライアントのニーズに合わせてパーソナライズされたモデルをトレーニングすることで、モデルユーティリティの向上を目指している。
既存のpFGL法では、異種グラフの下で多数の通信ラウンドが必要となる。
ワンショットフェデレートラーニング(OFL)は、単一のラウンドでのコラボレーションを可能にするが、グラフデータには有効ではない。
ローカルな個人情報とグローバルな洞察を適応的にバランスさせる2段階のパーソナライズドトレーニングアプローチを導入する。
論文 参考訳(メタデータ) (2024-11-18T05:59:29Z) - AdaFGL: A New Paradigm for Federated Node Classification with Topology
Heterogeneity [44.11777886421429]
Federated Graph Learning (FGL) はグラフニューラルネットワークに基づく分散フレームワークとして注目されている。
構造的非イド分割の概念を導入し、次に、UnderlineAdaptive UnderlineFederated UnderlineGraph UnderlineLearning (AdaFGL)と呼ばれる新しいパラダイムを示す。
提案したAdaFGLは,コミュニティ分割の3.24%,コミュニティ分割の5.57%,非イド分割の5.57%でベースラインを上回った。
論文 参考訳(メタデータ) (2024-01-22T08:23:31Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Collaborative likelihood-ratio estimation over graphs [55.98760097296213]
グラフに基づく相対的制約のない最小二乗重要度フィッティング(GRULSIF)
我々はこの考え方を、グラフベースの相対的非制約最小二乗重要度フィッティング(GRULSIF)と呼ばれる具体的な非パラメトリック手法で開発する。
我々は、ノード当たりの観測回数、グラフのサイズ、およびグラフ構造がタスク間の類似性をどの程度正確にエンコードしているかといった変数が果たす役割を強調する、協調的なアプローチの収束率を導出する。
論文 参考訳(メタデータ) (2022-05-28T15:37:03Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。