論文の概要: Balancing the Past and Present: A Coordinated Replay Framework for Federated Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2507.07712v1
- Date: Thu, 10 Jul 2025 12:46:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.400276
- Title: Balancing the Past and Present: A Coordinated Replay Framework for Federated Class-Incremental Learning
- Title(参考訳): 過去と現在をバランシングする:フェデレーション・クラスインクリメンタル・ラーニングのための協調型リプレイ・フレームワーク
- Authors: Zhuang Qi, Lei Meng, Han Yu,
- Abstract要約: FCIL(Federated Class Incremental Learning)のためのクラスワイドバランスデータ再生手法を提案する。
1)グローバル・パースペクティブ・データ・リプレイ・モジュールは,事前タスクのグローバルな表現をプライバシ保護方式で再構築し,その上で,クラス認識と重要度に敏感なサンプリング戦略を指導し,バランスの取れたリプレイを実現する。2)タスク間のクラス不均衡を処理するために,タスク対応温度スケーリングモジュールは,タスクダイナミクスに基づくクラスとインスタンスレベルのロジットの温度を適応的に調整し,多数クラスに対するモデルの過度さを低減し,マイノリティクラスへの感受性を高める。
- 参考スコア(独自算出の注目度): 16.892037777885218
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Class Incremental Learning (FCIL) aims to collaboratively process continuously increasing incoming tasks across multiple clients. Among various approaches, data replay has become a promising solution, which can alleviate forgetting by reintroducing representative samples from previous tasks. However, their performance is typically limited by class imbalance, both within the replay buffer due to limited global awareness and between replayed and newly arrived classes. To address this issue, we propose a class wise balancing data replay method for FCIL (FedCBDR), which employs a global coordination mechanism for class-level memory construction and reweights the learning objective to alleviate the aforementioned imbalances. Specifically, FedCBDR has two key components: 1) the global-perspective data replay module reconstructs global representations of prior task in a privacy-preserving manner, which then guides a class-aware and importance-sensitive sampling strategy to achieve balanced replay; 2) Subsequently, to handle class imbalance across tasks, the task aware temperature scaling module adaptively adjusts the temperature of logits at both class and instance levels based on task dynamics, which reduces the model's overconfidence in majority classes while enhancing its sensitivity to minority classes. Experimental results verified that FedCBDR achieves balanced class-wise sampling under heterogeneous data distributions and improves generalization under task imbalance between earlier and recent tasks, yielding a 2%-15% Top-1 accuracy improvement over six state-of-the-art methods.
- Abstract(参考訳): Federated Class Incremental Learning (FCIL)は、複数のクライアントで継続的に増加するタスクを協調的に処理することを目的としている。
様々なアプローチの中で、データリプレイは有望なソリューションとなり、前のタスクから代表サンプルを再導入することで忘れを軽減できる。
しかし、その性能は一般的にクラス不均衡によって制限され、グローバルな認識が限られているリプレイバッファ内と、リプレイされたクラスと新しく到着したクラスの両方で制限される。
この問題に対処するために,クラスレベルのメモリ構築のためのグローバルコーディネート機構を用いたFCIL(FedCBDR)のクラスバランスデータ再生手法を提案し,上記の不均衡を緩和するために学習目標を重み付けする。
具体的には、FedCBDRには2つの重要なコンポーネントがある。
1)グローバル・パースペクティブ・データ・リプレイ・モジュールは、事前タスクのグローバルな表現をプライバシ保護方式で再構築し、その上で、バランスの取れたリプレイを実現するために、クラス・アウェアで重要度に敏感なサンプリング戦略を導出する。
2)タスク間のクラス不均衡を処理するため,タスク認識温度スケーリングモジュールは,タスクダイナミクスに基づくクラスレベルとインスタンスレベルのロジット温度を適応的に調整する。
実験結果から,FedCBDRは異種データ分布下でのバランスの取れたクラスワイドサンプリングを実現し,タスクの不均衡下でのタスクの一般化を向上し,6つの最先端手法よりも2%~15%のTop-1精度向上を実現した。
関連論文リスト
- Long-Tailed Object Detection Pre-training: Dynamic Rebalancing Contrastive Learning with Dual Reconstruction [28.359463356384463]
2DRCL(Dynamic Rebalance Contrastive Learning with Dual Reconstruction)と呼ばれる,オブジェクト検出のための新たな事前学習フレームワークを導入する。
提案手法は,グローバルな文脈意味論と詳細な局所パターンの両方を捉えることによって,事前学習とオブジェクト検出を一致させる,ホロスティック・ローカル・コントラスト学習機構に基づいている。
COCOおよびLVIS v1.0データセットの実験により,本手法の有効性,特に末尾クラスにおけるmAP/APスコアの改善が示された。
論文 参考訳(メタデータ) (2024-11-14T13:59:01Z) - Federated Class-Incremental Learning with Hierarchical Generative Prototypes [10.532838477096055]
Federated Learning (FL)は、複数のデバイス(クライアント)に分散した計算をすることで、ディープモデルのトレーニングを解き放つことを目的としている。
提案手法は,学習可能なプロンプトを用いてトレーニング済みのバックボーンを効率よく微調整することにより,最終層のバイアスを抑える。
提案手法は現状を著しく改善し, 平均精度は+7.8%向上した。
論文 参考訳(メタデータ) (2024-06-04T16:12:27Z) - Gradient-based Sampling for Class Imbalanced Semi-supervised Object Detection [111.0991686509715]
半教師付き物体検出(SSOD)におけるクラス不均衡問題を,より困難なシナリオ下で検討する。
本稿では,2種類の確認バイアスの観点から,クラス不均衡問題に対処する,単純かつ効果的な勾配に基づくサンプリングフレームワークを提案する。
提案手法は,MS-COCO,MS-COCO,Object365,LVISの3種類のサブタスクにおいて,現行の非平衡物体検出器よりもクリアマージンの方が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-22T11:30:10Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Gradient Reweighting: Towards Imbalanced Class-Incremental Learning [8.438092346233054]
CIL(Class-Incremental Learning)は、非定常データから新しいクラスを継続的に認識するためにモデルを訓練する。
CILの大きな課題は、非一様分布を特徴とする実世界のデータに適用する場合である。
この二重不均衡問題により、FC層に偏りのある勾配更新が生じ、CILの過度/過度な適合と破滅的な忘れが引き起こされる。
論文 参考訳(メタデータ) (2024-02-28T18:08:03Z) - Balanced Supervised Contrastive Learning for Few-Shot Class-Incremental
Learning [8.411863266518395]
我々は,FSCILネットワークの各コアコンポーネントに対して,効果的な手法を統合する,シンプルで強力な学習手法を開発した。
特徴抽出学習において、我々のゴールは、現在の表示可能クラスと見えないクラスと過去のクラスの両方に利益をもたらす、バランスのとれた汎用表現を得ることである。
提案手法は,CUB200,CIFAR100,MiniImagenetデータセットにおいて,新しいタスク学習の優れた能力を示す。
論文 参考訳(メタデータ) (2023-05-26T07:17:24Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - SURF: Semi-supervised Reward Learning with Data Augmentation for
Feedback-efficient Preference-based Reinforcement Learning [168.89470249446023]
我々は、大量のラベルなしサンプルとデータ拡張を利用する半教師付き報酬学習フレームワークSURFを提案する。
報奨学習にラベルのないサンプルを活用するために,選好予測器の信頼性に基づいてラベルのないサンプルの擬似ラベルを推定する。
本実験は, ロボット操作作業における嗜好に基づく手法のフィードバック効率を有意に向上させることを実証した。
論文 参考訳(メタデータ) (2022-03-18T16:50:38Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。