論文の概要: Federated Source-free Domain Adaptation for Classification: Weighted Cluster Aggregation for Unlabeled Data
- arxiv url: http://arxiv.org/abs/2412.13757v1
- Date: Wed, 18 Dec 2024 11:47:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:38.831962
- Title: Federated Source-free Domain Adaptation for Classification: Weighted Cluster Aggregation for Unlabeled Data
- Title(参考訳): 分類のためのFederated Source-free Domain Adaptation:未ラベルデータに対する重み付きクラスタアグリゲーション
- Authors: Junki Mori, Kosuke Kihara, Taiki Miyagawa, Akinori F. Ebihara, Isamu Teranishi, Hisashi Kashima,
- Abstract要約: Federated Source-Free Domain Adaptation TaskはFederated Source-Free Domain Adaptation (FFREEDA)として知られている。
私たちの貢献は、未ラベルのデータだけでドメインシフトとプライバシの問題を軽減するために設計された、重み付けクラスタアグリゲーション(FedWCA)メソッドによる新しいフェデレーション学習です。
FedWCAは、サーバ上でドメイン固有のグローバルモデルを取得するためのクライアントのプライベートおよびパラメータフリークラスタリング、クラスタ化されたクライアントのグローバルモデルの重み付け集約、擬似ラベル付きローカルドメイン適応の3つのフェーズから構成される。
- 参考スコア(独自算出の注目度): 22.961069029095988
- License:
- Abstract: Federated learning (FL) commonly assumes that the server or some clients have labeled data, which is often impractical due to annotation costs and privacy concerns. Addressing this problem, we focus on a source-free domain adaptation task, where (1) the server holds a pre-trained model on labeled source domain data, (2) clients possess only unlabeled data from various target domains, and (3) the server and clients cannot access the source data in the adaptation phase. This task is known as Federated source-Free Domain Adaptation (FFREEDA). Specifically, we focus on classification tasks, while the previous work solely studies semantic segmentation. Our contribution is the novel Federated learning with Weighted Cluster Aggregation (FedWCA) method, designed to mitigate both domain shifts and privacy concerns with only unlabeled data. FedWCA comprises three phases: private and parameter-free clustering of clients to obtain domain-specific global models on the server, weighted aggregation of the global models for the clustered clients, and local domain adaptation with pseudo-labeling. Experimental results show that FedWCA surpasses several existing methods and baselines in FFREEDA, establishing its effectiveness and practicality.
- Abstract(参考訳): フェデレートラーニング(FL)は一般的に、サーバまたは一部のクライアントがデータをラベル付けしていると仮定する。
この問題に対処するため,(1) サーバがラベル付きソースドメインデータ上に事前学習したモデルを保持し,(2) クライアントがさまざまなターゲットドメインからラベルなしデータのみを保有し,(3) サーバとクライアントが適応フェーズでソースデータにアクセスできないような,ソースフリーなドメイン適応タスクに注目した。
このタスクはFederated Source-Free Domain Adaptation (FFREEDA)として知られている。
具体的には、分類タスクに焦点をあてる一方で、以前の研究はセマンティックセグメンテーションのみを研究する。
FedWCA(Federated Learning with Weighted Cluster Aggregation)メソッドは、ドメインシフトとプライバシの問題の両方をラベルなしのデータで緩和するように設計されています。
FedWCAは、サーバ上でドメイン固有のグローバルモデルを取得するためのクライアントのプライベートおよびパラメータフリークラスタリング、クラスタ化されたクライアントのグローバルモデルの重み付け集約、擬似ラベル付きローカルドメイン適応の3つのフェーズから構成される。
実験の結果,FedWCAはFFREEDAの既存手法やベースラインを超越し,その有効性と実用性を確立した。
関連論文リスト
- FACT: Federated Adversarial Cross Training [0.0]
Federated Adrial Cross Training (FACT)は、ソースクライアント間の暗黙のドメイン差を利用して、ターゲットドメイン内のドメインシフトを特定する。
我々は、FACTが最先端のフェデレーション、非フェデレーション、およびソースフリードメイン適応モデルより優れていることを実証的に示す。
論文 参考訳(メタデータ) (2023-06-01T12:25:43Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Federated Unsupervised Domain Adaptation for Face Recognition [26.336693850812118]
顔認識のための非教師付きドメイン適応フェデレーションであるFedFRを提案する。
対象領域におけるラベルなしデータに対しては,距離制約付きクラスタリングアルゴリズムを強化し,予測された擬似ラベルの品質を向上させる。
また、フェデレート学習において、ソースドメイントレーニングを正規化するための新しいドメイン制約損失を提案する。
論文 参考訳(メタデータ) (2022-04-09T04:02:03Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Cluster-driven Graph Federated Learning over Multiple Domains [25.51716405561116]
グラフフェデレーション学習(FL)は、中央モデル(すなわち、学習)を扱う。
サーバ) プライバシに制約されたシナリオ。
本稿では,クラスタ型グラフフェデレーション学習(FedCG)を提案する。
論文 参考訳(メタデータ) (2021-04-29T19:31:19Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。