論文の概要: Federated Active Learning Under Extreme Non-IID and Global Class Imbalance
- arxiv url: http://arxiv.org/abs/2603.10341v1
- Date: Wed, 11 Mar 2026 02:22:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.750785
- Title: Federated Active Learning Under Extreme Non-IID and Global Class Imbalance
- Title(参考訳): 極非IID・グローバルクラス不均衡下におけるフェデレーションアクティブラーニング
- Authors: Chen-Chen Zong, Sheng-Jun Huang,
- Abstract要約: フェデレートされたアクティブラーニング(FAL)は、プライバシー制約の下でアノテーションコストを削減しようとしている。
適応型クラスフェアFALフレームワークであるFairFALを提案する。
5つのベンチマークの実験では、FairFALは最先端のアプローチを一貫して上回っている。
- 参考スコア(独自算出の注目度): 41.48995094786491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated active learning (FAL) seeks to reduce annotation cost under privacy constraints, yet its effectiveness degrades in realistic settings with severe global class imbalance and highly heterogeneous clients. We conduct a systematic study of query-model selection in FAL and uncover a central insight: the model that achieves more class-balanced sampling, especially for minority classes, consistently leads to better final performance. Moreover, global-model querying is beneficial only when the global distribution is highly imbalanced and client data are relatively homogeneous; otherwise, the local model is preferable. Based on these findings, we propose FairFAL, an adaptive class-fair FAL framework. FairFAL (1) infers global imbalance and local-global divergence via lightweight prediction discrepancy, enabling adaptive selection between global and local query models; (2) performs prototype-guided pseudo-labeling using global features to promote class-aware querying; and (3) applies a two-stage uncertainty-diversity balanced sampling strategy with k-center refinement. Experiments on five benchmarks show that FairFAL consistently outperforms state-of-the-art approaches under challenging long-tailed and non-IID settings. The code is available at https://github.com/chenchenzong/FairFAL.
- Abstract(参考訳): フェデレートされたアクティブラーニング(FAL)は、プライバシー制約の下でアノテーションコストを削減することを目指しているが、その効果は、厳しいグローバルクラスの不均衡と非常に異質なクライアントを持つ現実的な環境で低下する。
我々はFALにおけるクエリモデル選択の体系的な研究を行い、その中心となる洞察を明らかにする。
さらに、グローバルモデルクエリは、グローバル分布が高度に不均衡であり、クライアントデータが比較的均質である場合にのみ有効であり、そうでなければ、ローカルモデルの方が好ましい。
これらの知見に基づき,適応型クラスフェアFALフレームワークであるFairFALを提案する。
FairFAL(1)は,グローバルな不均衡と局所的なばらつきを,軽量な予測誤差を通じて推論し,グローバルクエリモデルとローカルクエリモデル間の適応的な選択を可能にする。
5つのベンチマークの実験によると、FairFALは長い尾と非IID設定の挑戦の下で、最先端のアプローチを一貫して上回っている。
コードはhttps://github.com/chenchenzong/FairFALで公開されている。
関連論文リスト
- FedFACT: A Provable Framework for Controllable Group-Fairness Calibration in Federated Learning [23.38141950440522]
我々はFedFACTという制御可能なグループフェアネス校正フレームワークを提案する。
FedFACTは、大域的および局所的公正性の制約の下でベイズ最適分類器を識別する。
我々は,FedFACTが精度とグローバル・ローカル・フェアネスのバランスをとる上で,ベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2025-06-04T09:39:57Z) - Mind the Gap: Confidence Discrepancy Can Guide Federated Semi-Supervised Learning Across Pseudo-Mismatch [50.632535091877706]
Federated Semi-Supervised Learning (FSSL)は、ラベル付きデータに制限のあるクライアント間でラベル付きデータを活用して、強力な一般化能力を持つグローバルモデルをトレーニングすることを目的としている。
ほとんどのFSSL手法は擬似ラベルによる整合正則化に依存しており、局所的またはグローバルなモデルからの予測を監督信号としてハード擬似ラベルに変換する。
擬似ラベルの品質は、フェデレーション学習の本質的な側面であるデータ不均一性によって大きく劣化していることを示す。
論文 参考訳(メタデータ) (2025-03-17T14:41:51Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Re-thinking Federated Active Learning based on Inter-class Diversity [16.153683223016973]
2つのセレクタモデルの優越性は、大域的および局所的なクラス間多様性に依存することを示す。
局所的不均一度と大域的不均衡比の変動に頑健なFALサンプリング戦略であるLoGoを提案する。
LoGoは、38の実験的な設定の合計で、6つのアクティブな学習戦略を一貫して上回っている。
論文 参考訳(メタデータ) (2023-03-22T05:21:21Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - An Experimental Study of Class Imbalance in Federated Learning [0.8122270502556371]
本稿では,クラス不均衡度(MID)と,クライアント間のクラス不均衡度(WCS)の局所的差という,クラス不均衡度を定義するための2つの新しい指標を提案する。
以上の結果から,MIDが向上し,WCSが大きくなると,グローバルモデルの性能が低下することが示唆された。
論文 参考訳(メタデータ) (2021-09-09T08:26:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。