論文の概要: Gains: Fine-grained Federated Domain Adaptation in Open Set
- arxiv url: http://arxiv.org/abs/2510.15967v1
- Date: Sun, 12 Oct 2025 13:38:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.730616
- Title: Gains: Fine-grained Federated Domain Adaptation in Open Set
- Title(参考訳): Gains: オープンセットにおけるきめ細かいFederated Domain Adaptation
- Authors: Zhengyi Zhong, Wenzheng Jiang, Weidong Bao, Ji Wang, Cheems Wang, Guanbo Wang, Yongheng Deng, Ju Ren,
- Abstract要約: 新しいクライアントはFLプロセスに継続的に参加し、新しい知識を導入します。
既存の研究は、粗い粒度の知識発見に焦点を当てている。
開集合におけるきめ細かい連邦化領域適応法(Gains)を提案する。
- 参考スコア(独自算出の注目度): 14.04994851668009
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional federated learning (FL) assumes a closed world with a fixed total number of clients. In contrast, new clients continuously join the FL process in real-world scenarios, introducing new knowledge. This raises two critical demands: detecting new knowledge, i.e., knowledge discovery, and integrating it into the global model, i.e., knowledge adaptation. Existing research focuses on coarse-grained knowledge discovery, and often sacrifices source domain performance and adaptation efficiency. To this end, we propose a fine-grained federated domain adaptation approach in open set (Gains). Gains splits the model into an encoder and a classifier, empirically revealing features extracted by the encoder are sensitive to domain shifts while classifier parameters are sensitive to class increments. Based on this, we develop fine-grained knowledge discovery and contribution-driven aggregation techniques to identify and incorporate new knowledge. Additionally, an anti-forgetting mechanism is designed to preserve source domain performance, ensuring balanced adaptation. Experimental results on multi-domain datasets across three typical data-shift scenarios demonstrate that Gains significantly outperforms other baselines in performance for both source-domain and target-domain clients. Code is available at: https://github.com/Zhong-Zhengyi/Gains.
- Abstract(参考訳): 従来の連合学習(FL)では、クライアント数が固定されたクローズドワールドを前提としている。
対照的に、新しいクライアントは現実世界のシナリオでFLプロセスに継続的に参加し、新しい知識を導入します。
これは、新しい知識、すなわち知識発見を検出し、それをグローバルモデル、すなわち知識適応に統合する、という2つの重要な要求を提起する。
既存の研究は、粗粒度の知識発見に重点を置いており、しばしばソースドメインの性能と適応効率を犠牲にしている。
この目的のために、開集合(Gains)におけるきめ細かい連邦化領域適応手法を提案する。
ゲインはモデルをエンコーダと分類器に分割し、エンコーダによって抽出された特徴がドメインシフトに敏感であるのに対して、分類器パラメータはクラスインクリメントに敏感であることを実証的に明らかにする。
これに基づいて、我々は、新しい知識を識別し、組み込むための、きめ細かい知識発見とコントリビューション駆動アグリゲーション技術を開発した。
さらに、ソースドメインのパフォーマンスを保ち、バランスの取れた適応を確保するために、アンチフォッゲッティング機構が設計されている。
3つの典型的なデータシフトシナリオにわたるマルチドメインデータセットの実験結果は、Gainsがソースドメインクライアントとターゲットドメインクライアントの両方のパフォーマンスにおいて、他のベースラインを大きく上回っていることを示している。
コードは、https://github.com/Zhong-Zhengyi/Gains.comで入手できる。
関連論文リスト
- Towards Effective Federated Graph Foundation Model via Mitigating Knowledge Entanglement [9.87623531653534]
グラフ基礎モデル(GFM)は強力なドメイン一般化を提供するが、通常は単一のマシンで訓練される。
我々は,新しい分散GFMトレーニングパラダイムであるFedGFMを提案する。
主な課題は知識の絡み合いであり、多分野の知識は区別できない表現に融合する。
2つのコアモジュールを持つ拡張フレームワークであるFedGFM+を,知識の絡み合いを軽減するために提案する。
論文 参考訳(メタデータ) (2025-05-19T04:06:32Z) - Federated Class-Incremental Learning: A Hybrid Approach Using Latent Exemplars and Data-Free Techniques to Address Local and Global Forgetting [10.061328213032088]
FCIL(Federated Class-Incremental Learning)とは、動的に変化するクライアントの数が、継続的に増加するタスク数を共同で学習するシナリオを指す。
我々は,局所的およびグローバルな忘れを定式化するFCILの数学的枠組みを開発する。
局所的, グローバルな忘れを解消するために, 潜在例とデータフリー手法を利用したHybrid Rehearsalという手法を提案する。
論文 参考訳(メタデータ) (2025-01-26T01:08:01Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Momentum Benefits Non-IID Federated Learning Simply and Provably [22.800862422479913]
フェデレートラーニングは大規模機械学習の強力なパラダイムである。
FedAvgとSCAFFOLDは、これらの課題に対処する2つの顕著なアルゴリズムである。
本稿では,FedAvgとSCAFFOLDの性能向上のための運動量の利用について検討する。
論文 参考訳(メタデータ) (2023-06-28T18:52:27Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Multi-Source Domain Adaptation Based on Federated Knowledge Alignment [0.0]
フェデレートラーニング(FL)は、ユーザのプライバシを保護するために、分散モデル学習を容易にする。
我々は、異なるクライアントと対象タスクの特徴を整合させるフェデレーション知識アライメント(FedKA)を提案する。
論文 参考訳(メタデータ) (2022-03-22T11:42:25Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。