論文の概要: Rethinking the Backbone in Class Imbalanced Federated Source Free Domain Adaptation: The Utility of Vision Foundation Models
- arxiv url: http://arxiv.org/abs/2509.08372v1
- Date: Wed, 10 Sep 2025 08:10:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.350158
- Title: Rethinking the Backbone in Class Imbalanced Federated Source Free Domain Adaptation: The Utility of Vision Foundation Models
- Title(参考訳): クラス不均衡ソースフリードメイン適応におけるバックボーンの再考:ビジョンファウンデーションモデルの有用性
- Authors: Kosuke Kihara, Junki Mori, Taiki Miyagawa, Akinori F. Ebihara,
- Abstract要約: Federated Learning(FL)は、各クライアントのデータプライバシを保持しながら、モデルを協調的にトレーニングするためのフレームワークを提供する。
FFREEDAバックボーンを凍結視覚基礎モデル(VFM)に置き換えることを提案する。
VFMは、ドメインギャップ、クラス不均衡、さらにはターゲットクライアント間の非IID性の影響を効果的に緩和する。
- 参考スコア(独自算出の注目度): 9.432150710329609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) offers a framework for training models collaboratively while preserving data privacy of each client. Recently, research has focused on Federated Source-Free Domain Adaptation (FFREEDA), a more realistic scenario wherein client-held target domain data remains unlabeled, and the server can access source domain data only during pre-training. We extend this framework to a more complex and realistic setting: Class Imbalanced FFREEDA (CI-FFREEDA), which takes into account class imbalances in both the source and target domains, as well as label shifts between source and target and among target clients. The replication of existing methods in our experimental setup lead us to rethink the focus from enhancing aggregation and domain adaptation methods to improving the feature extractors within the network itself. We propose replacing the FFREEDA backbone with a frozen vision foundation model (VFM), thereby improving overall accuracy without extensive parameter tuning and reducing computational and communication costs in federated learning. Our experimental results demonstrate that VFMs effectively mitigate the effects of domain gaps, class imbalances, and even non-IID-ness among target clients, suggesting that strong feature extractors, not complex adaptation or FL methods, are key to success in the real-world FL.
- Abstract(参考訳): Federated Learning(FL)は、各クライアントのデータプライバシを保持しながら、モデルを協調的にトレーニングするためのフレームワークを提供する。
近年,Federated Source-Free Domain Adaptation (FFREEDA) が注目されている。Federated Source-Free Domain Adaptation (FFREEDA) は,クライアントが保持するターゲットドメインデータがラベル付けされていないままで,サーバが事前トレーニング中にのみソースドメインデータにアクセス可能な,より現実的なシナリオである。
クラス不均衡FFREEDA(CI-FFREEDA)は、ソースドメインとターゲットドメインの両方でクラス不均衡を考慮に入れ、ソースとターゲットクライアント間のラベルシフトを考慮に入れます。
実験装置における既存手法の複製により,集約化とドメイン適応化手法の強化から,ネットワーク自体の機能抽出器の改良へ焦点を移すことができた。
本稿では,FFREEDAのバックボーンを凍結視覚基盤モデル (VFM) に置き換えることを提案する。
実験の結果,VFMはドメインギャップ,クラス不均衡,さらにはターゲットクライアント間の非IID性の影響を効果的に軽減し,複雑な適応やFL法ではなく,強力な特徴抽出器が現実のFLの成功の鍵であることを示唆した。
関連論文リスト
- SFedCA: Credit Assignment-Based Active Client Selection Strategy for Spiking Federated Learning [15.256986486372407]
フェデレーション学習のスパイクにより、リソースに制約のあるデバイスは、ローカルデータを交換することなく、低消費電力で協調的にトレーニングできる。
既存のスパイキングフェデレーション学習手法では、クライアントのアグリゲーションに対してランダムな選択アプローチを採用しており、不偏なクライアントの参加を前提としている。
本研究では,グローバルなサンプル分布バランスに寄与するクライアントを鑑定するために,クレジット割当に基づくアクティブクライアント選択戦略であるSFedCAを提案する。
論文 参考訳(メタデータ) (2024-06-18T01:56:22Z) - Source-Free Domain Adaptation Guided by Vision and Vision-Language Pre-Training [23.56208527227504]
ソースフリードメイン適応(SFDA)は、完全にラベル付けされたソースドメインでトレーニングされたソースモデルを、関連するがラベル付けされていないターゲットドメインに適応させることを目的としている。
従来のSFDAパイプラインでは、ソースモデルを初期化するために、大量のデータ(イメージネットなど)を事前訓練した特徴抽出器が使用される。
トレーニング済みネットワークを対象適応プロセスに組み込むための統合フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-05T14:48:13Z) - Efficient Cross-Domain Federated Learning by MixStyle Approximation [0.3277163122167433]
ハードウェア制約環境におけるクライアント適応のための,プライバシ保護,リソース効率の高いフェデレーション学習の概念を導入する。
このアプローチには、ソースデータに対するサーバモデル事前トレーニングと、ローエンドクライアントによるターゲットデータへの微調整が含まれる。
予備的な結果は,下流タスクにおける競合性能を維持しながら,計算コストと伝送コストを削減できることを示唆している。
論文 参考訳(メタデータ) (2023-12-12T08:33:34Z) - Federated Active Learning for Target Domain Generalisation [20.582521330618768]
アクティブラーニング(AL)とフェデレートドメイン一般化(FDG)を組み合わせたFEDALVを紹介する。
FDGは、限られたソースドメインクライアントのデータから訓練された画像分類モデルの一般化を可能にする。
FedaLVは、ソースクライアントのデータの5%をサンプリングしながら、完全なトレーニング対象精度のパフォーマンスを得る。
論文 参考訳(メタデータ) (2023-12-04T14:50:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation [80.03883315743715]
ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
論文 参考訳(メタデータ) (2022-08-22T18:18:47Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。