論文の概要: Federated Learning Under Temporal Drift -- Mitigating Catastrophic Forgetting via Experience Replay
- arxiv url: http://arxiv.org/abs/2601.13456v1
- Date: Mon, 19 Jan 2026 23:17:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.093292
- Title: Federated Learning Under Temporal Drift -- Mitigating Catastrophic Forgetting via Experience Replay
- Title(参考訳): 時間的ドリフト下でのフェデレーション学習 - 経験的リプレイによる破滅的フォーミングの緩和
- Authors: Sahasra Kokkula, Daniel David, Aaditya Baruah,
- Abstract要約: Fashion-MNISTの季節変動下では,標準FedAvgは破滅的な忘れがちであることが実証された。
ローカルトレーニング中に各クライアントが現在のデータと混在した過去のサンプルの小さなバッファを保持するクライアント側エクスペリエンスリプレイを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning struggles under temporal concept drift where client data distributions shift over time. We demonstrate that standard FedAvg suffers catastrophic forgetting under seasonal drift on Fashion-MNIST, with accuracy dropping from 74% to 28%. We propose client-side experience replay, where each client maintains a small buffer of past samples mixed with current data during local training. This simple approach requires no changes to server aggregation. Experiments show that a 50-sample-per-class buffer restores performance to 78-82%, effectively preventing forgetting. Our ablation study reveals a clear memory-accuracy trade-off as buffer size increases.
- Abstract(参考訳): フェデレーテッド・ラーニング(Federated Learning)は、クライアントデータの分散が時間とともに変化する時間的概念の漂流の下で苦労する。
Fashion-MNISTの季節変動により,標準のFedAvgは破滅的な忘れがみられ,精度は74%から28%に低下した。
ローカルトレーニング中に各クライアントが現在のデータと混在した過去のサンプルの小さなバッファを保持するクライアント側エクスペリエンスリプレイを提案する。
この単純なアプローチでは、サーバアグリゲーションを変更する必要はない。
実験の結果、クラス毎に50サンプルのバッファが78~82%のパフォーマンスを回復し、事実上忘れることを防ぐことがわかった。
我々のアブレーション研究はバッファサイズが大きくなるにつれてメモリ精度のトレードオフが明らかになる。
関連論文リスト
- FedEve: On Bridging the Client Drift and Period Drift for Cross-device Federated Learning [16.378163787768347]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずに、共同で共有モデルをトレーニングできる機械学習パラダイムである。
データの不均一性はFLの基本的な課題であり、収束性の低下と性能劣化をもたらす可能性がある。
本稿では,これらの2種類のドリフトが相互に補償し,その全体的な影響を緩和する,予測オブザーブフレームワークを提案し,そのインスタンス化手法であるFedEveを提案する。
論文 参考訳(メタデータ) (2025-08-20T08:42:34Z) - Partial Forward Blocking: A Novel Data Pruning Paradigm for Lossless Training Acceleration [32.21701911161334]
既存のデータプルーニングアプローチは、これらの重要でないサンプルを取り除き、トレーニングを加速することを目的としている。
本稿では、ロスレストレーニングアクセラレーションのための新しいフレームワークであるPartial Forward Blocking (PFB)を提案する。
PFBは,プルーニング試料の深層フォワードパスとバックプロパゲーションの計算オーバーヘッドを著しく低減する。
ImageNetでは、PFBは0.5%の精度向上と33%のトレーニング時間短縮を実現し、40%のデータをプルーニングした。
論文 参考訳(メタデータ) (2025-06-30T09:53:26Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Towards Efficient Replay in Federated Incremental Learning [28.242393263663256]
フェデレートラーニング(FL)では、各クライアントのデータは通常、固定または静的であると仮定される。
本研究では,FIL(Federated Incremental Learning)シナリオにおけるデータ不均一性による破滅的忘れについて検討する。
本稿では,FIL 用のシンプルな汎用フレームワーク Re-Fed を提案する。
論文 参考訳(メタデータ) (2024-03-09T12:04:56Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for Incremental Learning [93.90047628101155]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
これを解決するために、新しいタスク学習中に過去のタスクからのデータを再生する手法を提案する。
しかし、メモリの制約やデータプライバシーの問題により、実際には期待できない。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Efficient Adversarial Training With Data Pruning [26.842714298874192]
我々は,データプルーニングが,対人訓練の収束と信頼性の向上につながることを示す。
一部の設定では、データのプルーニングは両方の世界の利点をもたらします。
論文 参考訳(メタデータ) (2022-07-01T23:54:46Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。