論文の概要: Gradual Domain Adaptation via Self-Training of Auxiliary Models
- arxiv url: http://arxiv.org/abs/2106.09890v1
- Date: Fri, 18 Jun 2021 03:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:03:35.772324
- Title: Gradual Domain Adaptation via Self-Training of Auxiliary Models
- Title(参考訳): 補助モデルの自己学習による経時的ドメイン適応
- Authors: Yabin Zhang, Bin Deng, Kui Jia, Lei Zhang
- Abstract要約: ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
- 参考スコア(独自算出の注目度): 50.63206102072175
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain adaptation becomes more challenging with increasing gaps between
source and target domains. Motivated from an empirical analysis on the
reliability of labeled source data for the use of distancing target domains, we
propose self-training of auxiliary models (AuxSelfTrain) that learns models for
intermediate domains and gradually combats the distancing shifts across
domains. We introduce evolving intermediate domains as combinations of
decreasing proportion of source data and increasing proportion of target data,
which are sampled to minimize the domain distance between consecutive domains.
Then the source model could be gradually adapted for the use in the target
domain by self-training of auxiliary models on evolving intermediate domains.
We also introduce an enhanced indicator for sample selection via implicit
ensemble and extend the proposed method to semi-supervised domain adaptation.
Experiments on benchmark datasets of unsupervised and semi-supervised domain
adaptation verify its efficacy.
- Abstract(参考訳): ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
対象ドメインを分散させるためのラベル付きソースデータの信頼性に関する実証分析から,中間ドメインのモデルを学習し,ドメイン間の分散シフトに徐々に対処する補助モデル(AuxSelfTrain)の自己学習を提案する。
本稿では、ソースデータの割合の減少と、連続するドメイン間のドメイン距離を最小化するためにサンプリングされたターゲットデータの割合の増加の組合せとして、進化中の中間ドメインを紹介する。
次に、進化する中間領域上の補助モデルの自己学習により、ソースモデルが徐々にターゲット領域での使用に適応することができる。
また,暗黙的アンサンブルによるサンプル選択のための拡張指標を導入し,提案手法を半教師あり領域適応に拡張する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
関連論文リスト
- Stratified Domain Adaptation: A Progressive Self-Training Approach for Scene Text Recognition [1.2878987353423252]
シーンテキスト認識(STR)において、教師なしドメイン適応(UDA)がますます普及している。
本稿では,StrDA(Stratified Domain Adaptation)アプローチを導入し,学習プロセスにおける領域ギャップの段階的エスカレーションについて検討する。
本稿では,データサンプルの分布外および領域判別レベルを推定するために,領域判別器を用いる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-10-13T16:40:48Z) - SIDE: Self-supervised Intermediate Domain Exploration for Source-free
Domain Adaptation [36.470026809824674]
ドメイン適応は、ソースドメインからターゲットドメインに学習した知識を転送する際に、ドメインシフトを軽減することを目的としています。
プライバシの問題により、ソースフリードメイン適応(SFDA)は、最近非常に要求される一方で難しいものになっている。
本稿では、ドメインギャップを効果的に中間ドメインにブリッジする自己教師付き中間ドメイン探索(SIDE)を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:50:37Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Attention-based Cross-Layer Domain Alignment for Unsupervised Domain
Adaptation [14.65316832227658]
教師なしドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインから伝達可能な知識を学び、トレーニングされたモデルをラベルなしターゲットドメインに適応させることを目的としている。
1つの一般的な戦略は、ディープモデルによって抽出されたセマンティックな特徴を整合させることで、分布の相違を最小限にすることである。
論文 参考訳(メタデータ) (2022-02-27T08:36:12Z) - FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation [26.929772844572213]
我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
論文 参考訳(メタデータ) (2020-11-18T11:58:19Z) - Unsupervised BatchNorm Adaptation (UBNA): A Domain Adaptation Method for
Semantic Segmentation Without Using Source Domain Representations [35.586031601299034]
Unsupervised BatchNorm Adaptation (UBNA) は、与えられた事前訓練されたモデルを、目に見えないターゲットドメインに適応させる。
我々は指数的に減衰する運動量因子を用いて、正規化層統計を対象領域に部分的に適応させる。
標準的なUDAアプローチと比較して、ソースドメイン表現のパフォーマンスと利用のトレードオフを報告します。
論文 参考訳(メタデータ) (2020-11-17T08:37:40Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z) - Multi-Source Domain Adaptation for Text Classification via
DistanceNet-Bandits [101.68525259222164]
本研究では,NLPタスクのコンテキストにおいて,サンプル推定に基づく領域間の相違を特徴付ける様々な距離ベース尺度について検討する。
タスクの損失関数と協調して最小化するために,これらの距離測度を付加的な損失関数として用いるディスタンスネットモデルを開発した。
マルチアーム・バンド・コントローラを用いて複数のソース・ドメインを動的に切り替えるDistanceNet-Banditモデルに拡張する。
論文 参考訳(メタデータ) (2020-01-13T15:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。