論文の概要: pFedBBN: A Personalized Federated Test-Time Adaptation with Balanced Batch Normalization for Class-Imbalanced Data
- arxiv url: http://arxiv.org/abs/2511.18066v1
- Date: Sat, 22 Nov 2025 14:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.611167
- Title: pFedBBN: A Personalized Federated Test-Time Adaptation with Balanced Batch Normalization for Class-Imbalanced Data
- Title(参考訳): pFedBBN:クラス不均衡データに対するバランスバッチ正規化を用いた個人化フェデレーションテスト時間適応
- Authors: Md Akil Raihan Iftee, Syed Md. Ahnaf Hasan, Mir Sazzat Hossain, Rakibul Hasan Rajib, Amin Ahsan Ali, AKM Mahbubur Rahman, Sajib Mistry, Monowar Bhuyan,
- Abstract要約: pFedBBNは、パーソナライズされたテスト時間適応フレームワークである。
完全に教師なしの局所適応をサポートし、クラス認識モデル集約戦略を導入している。
バランスの取れた特徴正規化とドメイン認識のコラボレーションを通じて、分散シフトとクラス不均衡の両方に対処する。
- 参考スコア(独自算出の注目度): 0.9087690587593468
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Test-time adaptation (TTA) in federated learning (FL) is crucial for handling unseen data distributions across clients, particularly when faced with domain shifts and skewed class distributions. Class Imbalance (CI) remains a fundamental challenge in FL, where rare but critical classes are often severely underrepresented in individual client datasets. Although prior work has addressed CI during training through reliable aggregation and local class distribution alignment, these methods typically rely on access to labeled data or coordination among clients, and none address class unsupervised adaptation to dynamic domains or distribution shifts at inference time under federated CI constraints. Revealing the failure of state-of-the-art TTA in federated client adaptation in CI scenario, we propose pFedBBN,a personalized federated test-time adaptation framework that employs balanced batch normalization (BBN) during local client adaptation to mitigate prediction bias by treating all classes equally, while also enabling client collaboration guided by BBN similarity, ensuring that clients with similar balanced representations reinforce each other and that adaptation remains aligned with domain-specific characteristics. pFedBBN supports fully unsupervised local adaptation and introduces a class-aware model aggregation strategy that enables personalized inference without compromising privacy. It addresses both distribution shifts and class imbalance through balanced feature normalization and domain-aware collaboration, without requiring any labeled or raw data from clients. Extensive experiments across diverse baselines show that pFedBBN consistently enhances robustness and minority-class performance over state-of-the-art FL and TTA methods.
- Abstract(参考訳): フェデレートラーニング(FL)におけるテスト時間適応(TTA)は、特にドメインシフトやスキュードクラス分布に直面する場合、クライアント間で見知らぬデータ分散を扱う上で重要である。
クラス不均衡(CI)はFLの基本的な課題であり、レアだがクリティカルなクラスは個々のクライアントデータセットで非常に過小評価されることが多い。
以前の作業では、信頼性のあるアグリゲーションとローカルクラスの分散アライメントを通じて、トレーニング中にCIに対処していましたが、これらのメソッドは通常、ラベル付きデータへのアクセスやクライアント間の調整に依存しています。
PFedBBNは、各クラスを均等に扱うことで予測バイアスを緩和するとともに、BBN類似性によってガイドされるクライアントの協調を可能にするとともに、類似したバランスの取れた表現を持つクライアントが相互に強化され、ドメイン固有の特性に適合することを保証する。
pFedBBNは、完全に教師なしのローカル適応をサポートし、プライバシーを損なうことなくパーソナライズされた推論を可能にするクラス認識モデル集約戦略を導入している。
クライアントからのラベル付きデータや生データを必要とせずに、バランスの取れた機能正規化とドメイン認識のコラボレーションを通じて、分散シフトとクラス不均衡に対処する。
pFedBBNは最先端のFL法やTTA法よりも頑丈さとマイノリティーな性能を一貫して向上させる。
関連論文リスト
- Federated Self-Supervised Learning for Automatic Modulation Classification under Non-IID and Class-Imbalanced Data [18.951106077022672]
フェデレーション学習は、分散クライアントでのトレーニングによる集中的な集約を避ける。
我々は,クライアント間でのラベルなしI/Qシーケンスに対して,三重項の自己スーパービジョンで因果的・時間分割CNNを訓練し,次いで,小さなラベル付き集合上でのクライアントごとのSVMを学習するFedSSL-AMCを提案する。
論文 参考訳(メタデータ) (2025-10-06T15:37:15Z) - TRAIL: Trust-Aware Client Scheduling for Semi-Decentralized Federated Learning [13.144501509175985]
本稿では、クライアントの状態とコントリビューションを評価するTRAILと呼ばれるTRust-Aware clIent scheduLing機構を提案する。
我々は、エッジサーバとクライアントが信頼できないクラスタ内モデルアグリゲーションとクラスタ間モデルコンセンサスを使用して、共有グローバルモデルをトレーニングする半分散FLフレームワークに焦点を当てる。
実世界のデータセットで行われた実験では、TRAILは最先端のベースラインを上回っ、テスト精度が8.7%向上し、トレーニング損失が15.3%減少した。
論文 参考訳(メタデータ) (2024-12-16T05:02:50Z) - An Architecture Built for Federated Learning: Addressing Data Heterogeneity through Adaptive Normalization-Free Feature Recalibration [0.3481075494213406]
We propose Adaptive Normalization-free Feature Recalibration (ANFR) to combat heterogeneous data in Federated Learning (FL)。
ANFRは、ウェイト標準化とチャネルアテンションを組み合わせて、特徴マップの学習可能なスケーリング要素を生成する。
実験により、ANFRは様々なアグリゲーション法で確立されたベースラインを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-02T20:16:56Z) - Class-Wise Federated Averaging for Efficient Personalization [0.8287206589886879]
フェデレートラーニング(FL)は、データを集中することなく、分散クライアント間で協調的なモデルトレーニングを可能にする。
我々は,各クラスに対してフェデレート平均化を行う新しいパーソナライズされたFL(PFL)フレームワークである,クラスワイドフェデレーション平均化(cwFedAvg)を提案する。
Weight Distribution Regularizer (WDR) も提案する。
論文 参考訳(メタデータ) (2024-06-12T01:32:24Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Robust Convergence in Federated Learning through Label-wise Clustering [6.693651193181458]
非IIDデータセットとローカルクライアントの不均一環境は、フェデレートラーニング(FL)における主要な課題であると見なされる
地理的に異質なローカルクライアント間のトレーサビリティを保証する新しいラベルワイドクラスタリングアルゴリズムを提案する。
提案手法は,他のFLアルゴリズムと比較して,高速でロバストな収束を示す。
論文 参考訳(メタデータ) (2021-12-28T18:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。