論文の概要: FedSCAl: Leveraging Server and Client Alignment for Unsupervised Federated Source-Free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2512.06738v1
- Date: Sun, 07 Dec 2025 09:04:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.498946
- Title: FedSCAl: Leveraging Server and Client Alignment for Unsupervised Federated Source-Free Domain Adaptation
- Title(参考訳): FedSCAl: 教師なしのソースフリードメイン適応のためのサーバとクライアントアライメントの活用
- Authors: M Yashwanth, Sampath Koti, Arunabh Singh, Shyam Marjit, Anirban Chakraborty,
- Abstract要約: 私たちはFedSCAlというFLフレームワークを紹介します。これは、提案したサーバクライアントアライメント(SCAl)メカニズムを利用して、クライアントとサーバモデルの予測を調整することで、クライアントの更新を規則化します。
SCAl機構がクライアントのドリフトを軽減するのに役立ち、クライアントの擬似ラベルの精度が向上するのを観察する。
- 参考スコア(独自算出の注目度): 3.359268528212487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We address the Federated source-Free Domain Adaptation (FFreeDA) problem, with clients holding unlabeled data with significant inter-client domain gaps. The FFreeDA setup constrains the FL frameworks to employ only a pre-trained server model as the setup restricts access to the source dataset during the training rounds. Often, this source domain dataset has a distinct distribution to the clients' domains. To address the challenges posed by the FFreeDA setup, adaptation of the Source-Free Domain Adaptation (SFDA) methods to FL struggles with client-drift in real-world scenarios due to extreme data heterogeneity caused by the aforementioned domain gaps, resulting in unreliable pseudo-labels. In this paper, we introduce FedSCAl, an FL framework leveraging our proposed Server-Client Alignment (SCAl) mechanism to regularize client updates by aligning the clients' and server model's predictions. We observe an improvement in the clients' pseudo-labeling accuracy post alignment, as the SCAl mechanism helps to mitigate the client-drift. Further, we present extensive experiments on benchmark vision datasets showcasing how FedSCAl consistently outperforms state-of-the-art FL methods in the FFreeDA setup for classification tasks.
- Abstract(参考訳): 我々はFFreeDA(Federated Source-Free Domain Adaptation)問題に対処し、クライアントはクライアント間の大きなギャップを持つラベルのないデータを保持する。
FFreeDAセットアップは、トレーニングラウンド中にソースデータセットへのアクセスを制限するため、FLフレームワークが事前トレーニングされたサーバモデルのみを使用するように制約する。
多くの場合、このソースドメインデータセットはクライアントのドメインに対して異なる分布を持つ。
FFreeDAのセットアップによって引き起こされる課題に対処するため、FLに対するSource-Free Domain Adaptation(SFDA)メソッドの適応は、前述のドメインギャップによって引き起こされる極端なデータ不均一性により、現実のシナリオにおいてクライアント-ドリフトに苦しむ。
本稿では,サーバ・クライアント・アライメント(SCAl)機構を利用したFLフレームワークであるFedSCAlを紹介する。
SCAl機構がクライアントのドリフトを軽減するのに役立ち、クライアントの擬似ラベルの精度が向上するのを観察する。
さらに、FedSCAlがFFreeDAの分類タスクにおいて、最新FL法よりも一貫して優れていることを示すベンチマークビジョンデータセットについて広範な実験を行った。
関連論文リスト
- Cross-Domain Federated Semantic Communication with Global Representation Alignment and Domain-Aware Aggregation [102.51096131854848]
本研究は,画像再構成作業における意味コミュニケーションシステムの訓練における領域シフトを考慮した最初の試みである。
提案手法は,SNRが1dBの3領域のPSNR値に対して,モデルコントラストFL(MOON)フレームワークを0.5倍に向上させる。
論文 参考訳(メタデータ) (2025-11-30T03:19:59Z) - Rethinking the Backbone in Class Imbalanced Federated Source Free Domain Adaptation: The Utility of Vision Foundation Models [9.432150710329609]
Federated Learning(FL)は、各クライアントのデータプライバシを保持しながら、モデルを協調的にトレーニングするためのフレームワークを提供する。
FFREEDAバックボーンを凍結視覚基礎モデル(VFM)に置き換えることを提案する。
VFMは、ドメインギャップ、クラス不均衡、さらにはターゲットクライアント間の非IID性の影響を効果的に緩和する。
論文 参考訳(メタデータ) (2025-09-10T08:10:57Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Combating Data Imbalances in Federated Semi-supervised Learning with
Dual Regulators [40.12377870379059]
フェデレートされた半教師付き学習(FSSL)は、少数のラベル付きデータからモデルをトレーニングするために現れる。
デュアルレギュレータであるFedDureを用いた新しいFSSLフレームワークを提案する。
FedDureは、さまざまな設定で既存のメソッドよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-11T15:45:03Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。