論文の概要: Task-Uniform Convergence and Backward Transfer in Federated Domain-Incremental Learning with Partial Participation
- arxiv url: http://arxiv.org/abs/2601.22274v1
- Date: Thu, 29 Jan 2026 19:44:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.034521
- Title: Task-Uniform Convergence and Backward Transfer in Federated Domain-Incremental Learning with Partial Participation
- Title(参考訳): 部分参加型フェデレーションドメインインクリメンタルラーニングにおけるタスク一様収束と後方伝達
- Authors: Longtao Xu, Jian Li,
- Abstract要約: SpecialはメモリフリーのFDILアルゴリズムで、バニラFedAvgに単一のサーバサイドアンカー'を追加します。
各ラウンドにおいて、サーバは、一様にサンプリングされたクライアントを以前のグローバルモデルに向けて更新する。
このアンカーはバッファ、合成データ、タスク固有のヘッドを再生することなく累積ドリフトを抑制する。
- 参考スコア(独自算出の注目度): 5.097344723711918
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world federated systems seldom operate on static data: input distributions drift while privacy rules forbid raw-data sharing. We study this setting as Federated Domain-Incremental Learning (FDIL), where (i) clients are heterogeneous, (ii) tasks arrive sequentially with shifting domains, yet (iii) the label space remains fixed. Two theoretical pillars remain missing for FDIL under realistic deployment: a guarantee of backward knowledge transfer (BKT) and a convergence rate that holds across the sequence of all tasks with partial participation. We introduce SPECIAL (Server-Proximal Efficient Continual Aggregation for Learning), a simple, memory-free FDIL algorithm that adds a single server-side ``anchor'' to vanilla FedAvg: in each round, the server nudges the uniformly sampled participated clients update toward the previous global model with a lightweight proximal term. This anchor curbs cumulative drift without replay buffers, synthetic data, or task-specific heads, keeping communication and model size unchanged. Our theory shows that SPECIAL (i) preserves earlier tasks: a BKT bound caps any increase in prior-task loss by a drift-controlled term that shrinks with more rounds, local epochs, and participating clients; and (ii) learns efficiently across all tasks: the first communication-efficient non-convex convergence rate for FDIL with partial participation, O((E/NT)^(1/2)), with E local epochs, T communication rounds, and N participated clients per round, matching single-task FedAvg while explicitly separating optimization variance from inter-task drift. Experimental results further demonstrate the effectiveness of SPECIAL.
- Abstract(参考訳): 現実世界のフェデレーションシステムは静的なデータで操作されることがほとんどない:入力の分散はドリフトし、プライバシルールは生データの共有を禁じている。
我々はこの設定をFDIL(Federated Domain-Incremental Learning)として研究する。
(i)クライアントは異質である。
(二)タスクは、シフトするドメインとともに順次到着するが、
(iii) ラベル空間は固定されている。
現実的な展開下でFDILには2つの理論的な柱が失われている: 後方知識伝達(BKT)の保証と、部分的な参加を伴う全てのタスクの順序にまたがる収束率である。
我々は,FedAvgに単一のサーバサイド ' 'anchor'' を追加する,シンプルなメモリフリーFDILアルゴリズムであるSPECIAL(Server-Proximal Efficient Continual Aggregation for Learning)を紹介した。
このアンカーはバッファ、合成データ、タスク固有のヘッドを再生することなく累積ドリフトを抑え、通信とモデルサイズを一定に保つ。
我々の理論は、SPECIALであることを示している
(i)BKTバウンドは、より多くのラウンド、ローカルエポック、参加顧客とともに縮小するドリフト制御項により、事前タスク損失の増加を抑える。
(II) FDIL における部分的参加を伴う最初の通信効率の非凸収束率 O((E/NT)^(1/2)) 、E ローカルエポック、T 通信ラウンド、N 参加クライアント 1 ラウンド当たりの参加クライアントと、単一タスクの FedAvg を一致させ、タスク間ドリフトからの最適化分散を明示的に分離する。
実験結果はさらにSPECIALの有効性を実証した。
関連論文リスト
- STSA: Federated Class-Incremental Learning via Spatial-Temporal Statistics Aggregation [64.48462746540156]
Federated Class-Incremental Learning (FCIL)は、分散データからクラスインクリメンタルラーニングを可能にする。
本稿では,空間的(クライアント間)と時間的(ステージ間)の両方に特徴統計を集約する新しい手法を提案する。
本手法は, 性能, 柔軟性, 通信効率の両面で, 最先端のFCIL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-06-02T05:14:57Z) - Federated Learning with Domain Shift Eraser [16.685557256108265]
フェデレーテッド・ラーニング(FL)は、デバイスを離れることなくコラボレーティブ・ラーニングのための有望なテクニックとして浮上している。
本稿では,FDSE(Federated Domain Shift Eraser)という新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-17T11:10:31Z) - FedCCRL: Federated Domain Generalization with Cross-Client Representation Learning [4.703379311088474]
ドメイン一般化(DG)は、目に見えないドメインに効果的に一般化できるモデルを訓練することを目的としている。
クライアントがデータを直接共有せずに協調的にモデルをトレーニングするフェデレートラーニング(FL)では、既存のDGアルゴリズムはFL設定に直接適用できない。
プライバシを保ちながらモデルの一般化能力を大幅に向上させる軽量なフェデレーションドメイン一般化手法であるFedCCRLを提案する。
論文 参考訳(メタデータ) (2024-10-15T04:44:21Z) - Communication-Efficient Federated Knowledge Graph Embedding with Entity-Wise Top-K Sparsification [49.66272783945571]
Federated Knowledge Graphs Embedding Learning (FKGE)は、パラメータのかなりのサイズと広範なコミュニケーションラウンドから生じるコミュニケーション効率の課題に直面する。
本稿では,Entity-Wise Top-K Sparsification 戦略に基づく双方向通信効率のFedSを提案する。
論文 参考訳(メタデータ) (2024-06-19T05:26:02Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Momentum Benefits Non-IID Federated Learning Simply and Provably [22.800862422479913]
フェデレートラーニングは大規模機械学習の強力なパラダイムである。
FedAvgとSCAFFOLDは、これらの課題に対処する2つの顕著なアルゴリズムである。
本稿では,FedAvgとSCAFFOLDの性能向上のための運動量の利用について検討する。
論文 参考訳(メタデータ) (2023-06-28T18:52:27Z) - FedFM: Anchor-based Feature Matching for Data Heterogeneity in Federated
Learning [91.74206675452888]
本稿では,各クライアントの特徴を共有カテゴリーのアンカーにマッチさせる新しいFedFM法を提案する。
効率と柔軟性を向上させるため,FedFM-Liteと呼ばれるFedFM変種を提案し,クライアントは同期時間と通信帯域幅のコストを少なくしてサーバと通信する。
論文 参考訳(メタデータ) (2022-10-14T08:11:34Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。