論文の概要: Collaborative Learning with Multiple Foundation Models for Source-Free Domain Adaptation
- arxiv url: http://arxiv.org/abs/2511.19147v1
- Date: Mon, 24 Nov 2025 14:12:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.243841
- Title: Collaborative Learning with Multiple Foundation Models for Source-Free Domain Adaptation
- Title(参考訳): ソースフリードメイン適応のための複数基礎モデルによる協調学習
- Authors: Huisoo Lee, Jisu Han, Hyunsouk Cho, Wonjun Hwang,
- Abstract要約: Source-Free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインに適応することを目的としている。
ファンデーションモデル(FM)の最近の進歩は、SFDAをガイドするための外部意味知識を活用する新たな機会をもたらした。
- 参考スコア(独自算出の注目度): 9.231185930198162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Source-Free Domain Adaptation (SFDA) aims to adapt a pre-trained source model to an unlabeled target domain without access to source data. Recent advances in Foundation Models (FMs) have introduced new opportunities for leveraging external semantic knowledge to guide SFDA. However, relying on a single FM is often insufficient, as it tends to bias adaptation toward a restricted semantic coverage, failing to capture diverse contextual cues under domain shift. To overcome this limitation, we propose a Collaborative Multi-foundation Adaptation (CoMA) framework that jointly leverages two different FMs (e.g., CLIP and BLIP) with complementary properties to capture both global semantics and local contextual cues. Specifically, we employ a bidirectional adaptation mechanism that (1) aligns different FMs with the target model for task adaptation while maintaining their semantic distinctiveness, and (2) transfers complementary knowledge from the FMs to the target model. To ensure stable adaptation under mini-batch training, we introduce Decomposed Mutual Information (DMI) that selectively enhances true dependencies while suppressing false dependencies arising from incomplete class coverage. Extensive experiments demonstrate that our method consistently outperforms existing state-of-the-art SFDA methods across four benchmarks, including Office-31, Office-Home, DomainNet-126, and VisDA, under the closed-set setting, while also achieving best results on partial-set and open-set variants.
- Abstract(参考訳): Source-Free Domain Adaptation (SFDA)は、トレーニング済みのソースモデルを、ソースデータにアクセスすることなく、ラベルなしのターゲットドメインに適応することを目的としている。
ファンデーションモデル(FM)の最近の進歩は、SFDAをガイドするための外部意味知識を活用する新たな機会をもたらした。
しかし、単一のFMに頼ることは、制限されたセマンティックカバレッジに適応する傾向があり、ドメインシフトの下で様々なコンテキストの手がかりをキャプチャできないため、しばしば不十分である。
この制限を克服するために,コラボレーティブ・マルチファウンデーション・アダプティブ(CoMA)フレームワークを提案する。
具体的には,(1)異なるFMをタスク適応のターゲットモデルに整合させ,(2)FMから目的モデルに相補的知識を伝達する,双方向適応機構を用いる。
ミニバッチトレーニングにおける安定した適応を確保するため,不完全なクラスカバレッジから生じる偽の依存関係を抑えつつ,真の依存関係を選択的に強化するDMI(Decomposed Mutual Information)を導入する。
大規模な実験により,Office-31,Office-Home,DomainNet-126,VisDAの4つのベンチマークにおいて,提案手法は従来手法よりも常に優れており,部分セットおよびオープンセットの変種に対する最良の結果が得られた。
関連論文リスト
- Rethinking the Backbone in Class Imbalanced Federated Source Free Domain Adaptation: The Utility of Vision Foundation Models [9.432150710329609]
Federated Learning(FL)は、各クライアントのデータプライバシを保持しながら、モデルを協調的にトレーニングするためのフレームワークを提供する。
FFREEDAバックボーンを凍結視覚基礎モデル(VFM)に置き換えることを提案する。
VFMは、ドメインギャップ、クラス不均衡、さらにはターゲットクライアント間の非IID性の影響を効果的に緩和する。
論文 参考訳(メタデータ) (2025-09-10T08:10:57Z) - Unified Source-Free Domain Adaptation [41.90015041165936]
統合食品医薬品局(SFDA)における潜在因果因子発見の新たなアプローチを提案する。
現実の統計的記述の学習を強調する従来の代替手段とは対照的に、因果性の観点からCausalDAを定式化する。
広義の世界知識を統合するために、CLIPのような事前学習された視覚言語モデルを利用する。
論文 参考訳(メタデータ) (2024-03-12T12:40:08Z) - RAIN: RegulArization on Input and Network for Black-Box Domain
Adaptation [80.03883315743715]
ソースのないドメイン適応は、ソースデータを公開することなく、ソース訓練されたモデルをターゲットドメインに転送する。
このパラダイムは、ソースモデルに対する敵対的な攻撃のため、データ漏洩のリスクがある。
そこで我々は,入力レベルとネットワークレベルの両方の正規化からブラックボックスドメインを適応させる新しい手法であるRAIN(RegulArization on Input and Network)を提案する。
論文 参考訳(メタデータ) (2022-08-22T18:18:47Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Towards Fair Knowledge Transfer for Imbalanced Domain Adaptation [61.317911756566126]
本研究では,不均衡なドメイン間学習における公平性問題に対処するTowards Fair Knowledge Transferフレームワークを提案する。
具体的には、新規なクロスドメインミックスアップ生成を利用して、ターゲット情報でマイノリティソースセットを増強し、公正性を高める。
本モデルでは,2つのベンチマークで全体の精度を20%以上向上させる。
論文 参考訳(メタデータ) (2020-10-23T06:29:09Z) - Universal Source-Free Domain Adaptation [57.37520645827318]
ドメイン適応のための新しい2段階学習プロセスを提案する。
Procurementの段階では、今後のカテゴリギャップやドメインシフトに関する事前知識を前提とせず、将来的なソースフリーデプロイメントのためのモデルの提供を目標としています。
Deploymentの段階では、幅広いカテゴリギャップをまたいで動作可能な統一適応アルゴリズムを設計することを目的としている。
論文 参考訳(メタデータ) (2020-04-09T07:26:20Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。