論文の概要: A Tale of Two Experts: Cooperative Learning for Source-Free Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2509.22229v2
- Date: Mon, 06 Oct 2025 15:55:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 14:28:10.788625
- Title: A Tale of Two Experts: Cooperative Learning for Source-Free Unsupervised Domain Adaptation
- Title(参考訳): 2人の専門家の物語:非教師なし領域適応のための協調学習
- Authors: Jiaping Yu, Muli Yang, Jiapeng Ji, Jiexi Yan, Cheng Deng,
- Abstract要約: Source-Free Unsupervised Domain Adaptation (SFUDA)は、ソースデータにアクセスすることなく、ターゲットドメインにソース学習モデルを適用するという現実的な課題に対処する。
既存のSFUDA手法は、ソースモデルの予測のみを利用するか、大きなマルチモーダルモデルを微調整する。
本稿では、補完的な洞察と対象データの潜在構造を利用するためのエキスパート協調学習(EXCL)を提案する。
- 参考スコア(独自算出の注目度): 59.88864205383671
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Source-Free Unsupervised Domain Adaptation (SFUDA) addresses the realistic challenge of adapting a source-trained model to a target domain without access to the source data, driven by concerns over privacy and cost. Existing SFUDA methods either exploit only the source model's predictions or fine-tune large multimodal models, yet both neglect complementary insights and the latent structure of target data. In this paper, we propose the Experts Cooperative Learning (EXCL). EXCL contains the Dual Experts framework and Retrieval-Augmentation-Interaction optimization pipeline. The Dual Experts framework places a frozen source-domain model (augmented with Conv-Adapter) and a pretrained vision-language model (with a trainable text prompt) on equal footing to mine consensus knowledge from unlabeled target samples. To effectively train these plug-in modules under purely unsupervised conditions, we introduce Retrieval-Augmented-Interaction(RAIN), a three-stage pipeline that (1) collaboratively retrieves pseudo-source and complex target samples, (2) separately fine-tunes each expert on its respective sample set, and (3) enforces learning object consistency via a shared learning result. Extensive experiments on four benchmark datasets demonstrate that our approach matches state-of-the-art performance.
- Abstract(参考訳): Source-Free Unsupervised Domain Adaptation (SFUDA)は、プライバシとコストに関する懸念から、ソースデータにアクセスせずにソーストレーニングされたモデルをターゲットドメインに適応するという現実的な課題に対処する。
既存のSFUDA手法は、ソースモデルの予測のみを利用するか、微調整された大規模なマルチモーダルモデルのみを利用するが、相補的な洞察やターゲットデータの潜在構造は無視する。
本稿では,Experts Cooperative Learning (EXCL)を提案する。
EXCLにはDual ExpertsフレームワークとRetrieval-Augmentation-Interaction最適化パイプラインが含まれている。
Dual Expertsフレームワークは、凍結したソースドメインモデル(Conv-Adapterで拡張)と事前訓練されたビジョン言語モデル(トレーニング可能なテキストプロンプトを含む)を平等な足場に配置し、ラベルのないターゲットサンプルからコンセンサス知識を抽出する。
これらのプラグインモジュールを純粋に教師なし条件下で効果的にトレーニングするために,(1)擬似ソースと複雑なターゲットサンプルを協調的に検索する3段階のパイプラインであるRetrieval-Augmented-Interaction(RAIN)を導入する。
4つのベンチマークデータセットに対する大規模な実験は、我々のアプローチが最先端のパフォーマンスと一致していることを示している。
関連論文リスト
- Robust Training of Federated Models with Extremely Label Deficiency [84.00832527512148]
フェデレーション半教師付き学習(FSSL)は、ラベル不足を伴う分散データを用いて機械学習モデルを協調訓練するための強力なパラダイムとして登場した。
我々は,ラベル付きおよびラベルなしデータの異なる視点から洞察を提供することにより相互指導を強化するために,ツインサイトと呼ばれる新しいツインモデルパラダイムを提案する。
4つのベンチマークデータセットに関する包括的な実験は、Twin-sightが様々な実験環境において最先端の手法を著しく上回っていることを示す重要な証拠となる。
論文 参考訳(メタデータ) (2024-02-22T10:19:34Z) - Adapter-based Selective Knowledge Distillation for Federated
Multi-domain Meeting Summarization [36.916155654985936]
会議要約は、利用者に凝縮した要約を提供するための有望な手法として登場した。
本稿では,適応型選択的知識蒸留法(AdaFedSelecKD)を提案する。
論文 参考訳(メタデータ) (2023-08-07T03:34:01Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - A Distinct Unsupervised Reference Model From The Environment Helps
Continual Learning [5.332329421663282]
Open-Set Semi-Supervised Continual Learning (OSSCL)は、より現実的な半教師付き連続学習環境である。
i) 参照ネットワークは、未ラベルサンプルの幅広いスペクトルを用いて、環境における汎用的およびタスク非依存的な知識をキャプチャし、(ii) 学習者ネットワークは、教師付きサンプルを利用してタスク固有表現を学習するように設計されている。
論文 参考訳(メタデータ) (2023-01-11T15:05:36Z) - DRFLM: Distributionally Robust Federated Learning with Inter-client
Noise via Local Mixup [58.894901088797376]
連合学習は、生データをリークすることなく、複数の組織のデータを使用してグローバルモデルをトレーニングするための有望なアプローチとして登場した。
上記の2つの課題を同時に解決するための一般的な枠組みを提案する。
我々は、ロバストネス解析、収束解析、一般化能力を含む包括的理論的解析を提供する。
論文 参考訳(メタデータ) (2022-04-16T08:08:29Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。