論文の概要: Selection, Ensemble, and Adaptation: Advancing Multi-Source-Free Domain Adaptation via Architecture Zoo
- arxiv url: http://arxiv.org/abs/2403.01582v2
- Date: Thu, 23 May 2024 13:46:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 06:19:24.035657
- Title: Selection, Ensemble, and Adaptation: Advancing Multi-Source-Free Domain Adaptation via Architecture Zoo
- Title(参考訳): Selection, Ensemble, and Adaptation: Architecture Zooによるマルチソースフリードメイン適応の改善
- Authors: Jiangbo Pei, Ruizhe Li, Aidong Men, Yang Liu, Xiahai Zhuang, Qingchao Chen,
- Abstract要約: 私たちはZoo-MSFDAを紹介します。これはより一般的な設定で、各ソースドメインが異なるアーキテクチャを持つ複数のソースモデルの動物園を提供することができます。
ソース知識を豊かにする一方で、Zoo-MSFDAは最適/有害なモデルによって支配されるリスクがある。
本稿では,転送可能性を測定するための新しいソースフリーな非教師なし転送可能性推定(SUTE)を提案する。
- 参考スコア(独自算出の注目度): 30.302672859216106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional Multi-Source Free Domain Adaptation (MSFDA) assumes that each source domain provides a single source model, and all source models adopt a uniform architecture. This paper introduces Zoo-MSFDA, a more general setting that allows each source domain to offer a zoo of multiple source models with different architectures. While it enriches the source knowledge, Zoo-MSFDA risks being dominated by suboptimal/harmful models. To address this issue, we theoretically analyze the model selection problem in Zoo-MSFDA, and introduce two principles: transferability principle and diversity principle. Recognizing the challenge of measuring transferability, we subsequently propose a novel Source-Free Unsupervised Transferability Estimation (SUTE). It enables assessing and comparing transferability across multiple source models with different architectures under domain shift, without requiring target labels and source data. Based on above, we introduce a Selection, Ensemble, and Adaptation (SEA) framework to address Zoo-MSFDA, which consists of: 1) source models selection based on the proposed principles and SUTE; 2) ensemble construction based on SUTE-estimated transferability; 3) target-domain adaptation of the ensemble model. Evaluations demonstrate that our SEA framework, with the introduced Zoo-MSFDA setting, significantly improves adaptation performance (e.g., 13.5% on DomainNet). Additionally, our SUTE achieves state-of-the-art performance in transferability estimation.
- Abstract(参考訳): 従来のMulti-Source Free Domain Adaptation (MSFDA)は、各ソースドメインが単一のソースモデルを提供し、すべてのソースモデルが統一アーキテクチャを採用することを前提としている。
本稿では,各ソースドメインが異なるアーキテクチャを持つ複数のソースモデルの動物園を提供するための,より一般的な設定であるZoo-MSFDAを紹介する。
ソース知識を豊かにする一方で、Zoo-MSFDAは最適/有害なモデルによって支配されるリスクがある。
この問題に対処するため,Zoo-MSFDAにおけるモデル選択問題を理論的に分析し,トランスファービリティの原則と多様性の原則という2つの原則を導入する。
トランスファービリティ測定の課題を認識し,新しいソースフリーな非教師なしトランスファービリティ推定(SUTE)を提案する。
ターゲットラベルやソースデータを必要とすることなく、ドメインシフトの下で異なるアーキテクチャで複数のソースモデル間での転送可能性の評価と比較を可能にする。
以上のことから,Zoo-MSFDAに対処するSEA(Selection, Ensemble, and Adaptation)フレームワークを導入する。
1)提案原則及びSUTEに基づくソースモデル選択
2)SUTE推定転送可能性に基づくアンサンブル構築
3)アンサンブルモデルのターゲットドメイン適応。
評価の結果,導入したZoo-MSFDA設定によるSEAフレームワークの適応性能(DomainNetの13.5%など)は著しく向上した。
また,SuTEは転送可能性推定における最先端性能を実現している。
関連論文リスト
- AdAM: Few-Shot Image Generation via Adaptation-Aware Kernel Modulation [71.58154388819887]
F SIG(Few-shot Image Generation)は、少数のトレーニングサンプル(例:10)が与えられた新しい多様な画像を生成することを目的としている。
最近の研究は、大規模ソースドメインで事前訓練されたGANを活用し、ターゲットドメインに適応することで、F SIGに対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対してAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2023-07-04T03:56:43Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - Few-shot Image Generation via Adaptation-Aware Kernel Modulation [33.191479192580275]
F SIG(Few-shot Image Generation)は、ドメインから非常に限られた数のサンプルが与えられた場合に、新しく多様なサンプルを生成することを目的としている。
最近の研究は、大規模なソースドメインデータセットで事前訓練されたGANを活用して、トランスファーラーニングアプローチを使用してこの問題に対処している。
本稿では、異なるソース・ターゲット領域近傍の一般F SIGに対処するためのAdaptation-Aware kernel Modulation (AdAM)を提案する。
論文 参考訳(メタデータ) (2022-10-29T10:26:40Z) - Learning to Diversify for Single Domain Generalization [46.35670520201863]
ドメイン一般化(DG)は、複数のソース(トレーニング)ドメインで訓練されたモデルを、分散的に異なるターゲット(テスト)ドメインに一般化することを目的としている。
本稿では、より現実的で困難なシナリオ、すなわちSingle-DG(Single-DG)について考察する。
このシナリオでは、限られた多様性は、目に見えないターゲット領域上のモデル一般化を危険にさらす可能性がある。
そこで本研究では,ソースコードに相補的な多種多様な分布の画像を合成することにより,モデルの一般化能力を高めるためのスタイル補完モジュールを提案する。
論文 参考訳(メタデータ) (2021-08-26T12:04:32Z) - Graphical Modeling for Multi-Source Domain Adaptation [56.05348879528149]
マルチソースドメイン適応(MSDA)は、複数のソースドメインからターゲットドメインへの知識の転送に焦点を当てている。
我々は2種類のグラフィカルモデルを提案する。
MSDAの条件付きランダムフィールド(CRF-MSDA)とMSDAのマルコフランダムフィールド(MRF-MSDA)
これらの2つのモデルを、ドメインシフトとデータの複雑さが異なるMSDAの4つの標準ベンチマークデータセットで評価します。
論文 参考訳(メタデータ) (2021-04-27T09:04:22Z) - Multi-source Heterogeneous Domain Adaptation with Conditional Weighting
Adversarial Network [18.168373838347126]
不均一領域適応(HDA)は、異なる確率分布と特徴表現の両方を持つクロスドメインサンプルの学習に取り組む。
本稿では,マルチソースHDA問題について検討し,それに対応する条件重み付き対向ネットワーク(CWAN)を提案する。
論文 参考訳(メタデータ) (2020-08-06T15:31:44Z) - Learning to Generate Novel Domains for Domain Generalization [115.21519842245752]
本稿では,未知の領域によく一般化するモデルとして,複数のソースドメインから学習するタスクに焦点を当てる。
我々は、擬似ノーベル領域からデータを合成し、ソースドメインを増強するためにデータジェネレータを用いる。
我々の手法であるL2A-OTは、4つのベンチマークデータセット上で現在最先端のDG手法より優れています。
論文 参考訳(メタデータ) (2020-07-07T09:34:17Z) - Mutual Learning Network for Multi-Source Domain Adaptation [73.25974539191553]
ML-MSDA(Multial Learning Network for Multiple Source Domain Adaptation)を提案する。
相互学習の枠組みのもと,提案手法は対象ドメインと各ソースドメインをペアリングし,条件付き対向ドメイン適応ネットワークを分岐ネットワークとして訓練する。
提案手法は, 比較手法より優れ, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-03-29T04:31:43Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。