論文の概要: Increasing Model Generalizability for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2209.14644v1
- Date: Thu, 29 Sep 2022 09:08:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-09-30 16:35:23.567226
- Title: Increasing Model Generalizability for Unsupervised Domain Adaptation
- Title(参考訳): 教師なし領域適応のためのモデル一般化性の向上
- Authors: Mohammad Rostami
- Abstract要約: 組込み空間におけるクラス間マージンの増大は, UDAアルゴリズムの開発に有効であることを示す。
提案手法を用いることで、4つの標準ベンチマーク UDA 画像分類データセットにおけるモデル一般化性が向上することが実証された。
- 参考スコア(独自算出の注目度): 12.013345715187285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A dominant approach for addressing unsupervised domain adaptation is to map
data points for the source and the target domains into an embedding space which
is modeled as the output-space of a shared deep encoder. The encoder is trained
to make the embedding space domain-agnostic to make a source-trained classifier
generalizable on the target domain. A secondary mechanism to improve UDA
performance further is to make the source domain distribution more compact to
improve model generalizability. We demonstrate that increasing the interclass
margins in the embedding space can help to develop a UDA algorithm with
improved performance. We estimate the internally learned multi-modal
distribution for the source domain, learned as a result of pretraining, and use
it to increase the interclass class separation in the source domain to reduce
the effect of domain shift. We demonstrate that using our approach leads to
improved model generalizability on four standard benchmark UDA image
classification datasets and compares favorably against exiting methods.
- Abstract(参考訳): 教師なしドメイン適応に対処する主要なアプローチは、ソースとターゲットドメインのデータポイントを、共有ディープエンコーダの出力空間としてモデル化された埋め込み空間にマッピングすることである。
エンコーダは、埋め込み空間ドメインを非依存にし、ターゲットドメイン上でソース訓練された分類器を一般化できるように訓練される。
UDAの性能をさらに向上するための二次的なメカニズムは、モデル一般化性を改善するために、ソース領域の分布をよりコンパクトにすることだ。
組込み空間におけるクラス間マージンの増加は, UDAアルゴリズムの開発に有効であることを示す。
我々は、ソースドメインに対する内部的に学習されたマルチモーダル分布を推定し、事前学習の結果から学習し、ソースドメインにおけるクラス間分離を増加させ、ドメインシフトの影響を低減する。
この手法を用いることで,4つの標準ベンチマーク uda 画像分類データセットにおけるモデルの一般化性が向上することを示す。
関連論文リスト
- Unsupervised Domain Adaptation Using Compact Internal Representations [23.871860648919593]
教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-14T05:53:33Z) - Unsupervised Domain Adaptation via Domain-Adaptive Diffusion [31.802163238282343]
非教師付きドメイン適応(UDA)は、ソースドメインとターゲットドメインの間に大きな分散不一致があるため、非常に難しい。
大規模なギャップをまたいでデータ分散を段階的に変換する能力を持つ拡散モデルに着想を得て,その課題に対処する拡散手法について検討する。
提案手法は, 広く使用されている3つのUDAデータセットに対して, 現在の最先端技術よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2023-08-26T14:28:18Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Adaptive Domain Generalization via Online Disagreement Minimization [17.215683606365445]
ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
論文 参考訳(メタデータ) (2022-08-03T11:51:11Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Gradual Domain Adaptation via Self-Training of Auxiliary Models [50.63206102072175]
ソースとターゲットドメイン間のギャップを増やすことで、ドメイン適応はより難しくなります。
中間領域のモデルを学習する補助モデル(AuxSelfTrain)の自己学習を提案する。
教師なしおよび半教師付きドメイン適応のベンチマークデータセットの実験は、その有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:15:25Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - FixBi: Bridging Domain Spaces for Unsupervised Domain Adaptation [26.929772844572213]
我々は、ソースとターゲットドメイン間の複数の中間ドメインを拡大するために、固定比に基づくミックスアップを導入する。
我々は、相補的な特性を持つソース支配モデルとターゲット支配モデルを訓練する。
提案手法により,モデルが対象ドメインに徐々にドメイン知識を伝達する。
論文 参考訳(メタデータ) (2020-11-18T11:58:19Z) - Unsupervised Model Adaptation for Continual Semantic Segmentation [15.820660013260584]
本研究では,ラベル付きソースドメインを用いて訓練されたセマンティックセグメンテーションモデルを,ラベル付きターゲットドメインで適切に一般化するアルゴリズムを開発した。
我々は,アルゴリズムが有効である条件を理論的に分析し,説明する。
ベンチマーク適応タスクの実験では, 共同UDA手法と比較して, 競争性能が向上することを示した。
論文 参考訳(メタデータ) (2020-09-26T04:55:50Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。