論文の概要: FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2011.09230v2
- Date: Thu, 25 Mar 2021 07:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 04:30:35.599538
- Title: FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation
- Title(参考訳): FixBi: 教師なしドメイン適応のためのドメイン空間のブリッジ
- Authors: Jaemin Na, Heechul Jung, Hyung Jin Chang, Wonjun Hwang
- Abstract要約: 我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
- 参考スコア(独自算出の注目度): 26.929772844572213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) methods for learning domain invariant
representations have achieved remarkable progress. However, most of the studies
were based on direct adaptation from the source domain to the target domain and
have suffered from large domain discrepancies. In this paper, we propose a UDA
method that effectively handles such large domain discrepancies. We introduce a
fixed ratio-based mixup to augment multiple intermediate domains between the
source and target domain. From the augmented-domains, we train the
source-dominant model and the target-dominant model that have complementary
characteristics. Using our confidence-based learning methodologies, e.g.,
bidirectional matching with high-confidence predictions and self-penalization
using low-confidence predictions, the models can learn from each other or from
its own results. Through our proposed methods, the models gradually transfer
domain knowledge from the source to the target domain. Extensive experiments
demonstrate the superiority of our proposed method on three public benchmarks:
Office-31, Office-Home, and VisDA-2017.
- Abstract(参考訳): unsupervised domain adaptation (uda) method for learning domain invariant representationsは驚くべき進歩を遂げた。
しかし、ほとんどの研究はソースドメインからターゲットドメインへの直接適応に基づいており、大きなドメインの相違に苦しめられている。
本稿では,そのような大域不一致を効果的に処理するUDA法を提案する。
ソースドメインとターゲットドメインの間の複数の中間ドメインを強化するために,固定比率に基づくミックスアップを導入する。
拡張ドメインから、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
信頼度予測を用いた双方向マッチングや低信頼度予測を用いた自己報酬化など、信頼度に基づく学習手法を用いて、モデルは互いに、あるいはその結果から学習することができる。
提案手法により,モデルは徐々にソースから対象領域へドメイン知識を伝達する。
大規模な実験により,Office-31,Office-Home,VisDA-2017の3つの公開ベンチマークにおいて提案手法の優位性が示された。
関連論文リスト
- Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Increasing Model Generalizability for Unsupervised Domain Adaptation [12.013345715187285]
組込み空間におけるクラス間マージンの増大は, UDAアルゴリズムの開発に有効であることを示す。
提案手法を用いることで、4つの標準ベンチマーク UDA 画像分類データセットにおけるモデル一般化性が向上することが実証された。
論文 参考訳(メタデータ) (2022-09-29T09:08:04Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits [101.68525259222164]
本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
タスクの損失関数と協調して最小化するために,これらの距離測度を付加的な損失関数として用いるディスタンスネットモデルを開発した。
マルチアーム・バンド・コントローラを用いて複数のソース・ドメインを動的に切り替えるDistanceNet-Banditモデルに拡張する。
論文 参考訳(メタデータ) (2020-01-13T15:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。