論文の概要: Adversarial-Learned Loss for Domain Adaptation
- arxiv url: http://arxiv.org/abs/2001.01046v1
- Date: Sat, 4 Jan 2020 06:24:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 12:29:00.386765
- Title: Adversarial-Learned Loss for Domain Adaptation
- Title(参考訳): ドメイン適応のための逆学習損失
- Authors: Minghao Chen, Shuai Zhao, Haifeng Liu, Deng Cai
- Abstract要約: 本稿では,ALDA(Adversarial-Learned Loss for Domain Adaptation)という新しい手法を提案する。
学習した混乱行列から新たな損失関数が自動構築され、未ラベル対象サンプルの損失として機能する。
ALDAは4つの標準ドメイン適応データセットにおいて最先端のアプローチよりも優れています。
- 参考スコア(独自算出の注目度): 37.13716214722436
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, remarkable progress has been made in learning transferable
representation across domains. Previous works in domain adaptation are majorly
based on two techniques: domain-adversarial learning and self-training.
However, domain-adversarial learning only aligns feature distributions between
domains but does not consider whether the target features are discriminative.
On the other hand, self-training utilizes the model predictions to enhance the
discrimination of target features, but it is unable to explicitly align domain
distributions. In order to combine the strengths of these two methods, we
propose a novel method called Adversarial-Learned Loss for Domain Adaptation
(ALDA). We first analyze the pseudo-label method, a typical self-training
method. Nevertheless, there is a gap between pseudo-labels and the ground
truth, which can cause incorrect training. Thus we introduce the confusion
matrix, which is learned through an adversarial manner in ALDA, to reduce the
gap and align the feature distributions. Finally, a new loss function is
auto-constructed from the learned confusion matrix, which serves as the loss
for unlabeled target samples. Our ALDA outperforms state-of-the-art approaches
in four standard domain adaptation datasets. Our code is available at
https://github.com/ZJULearning/ALDA.
- Abstract(参考訳): 近年、ドメイン間の転送可能表現の学習において目覚ましい進歩を遂げている。
ドメイン適応に関するこれまでの研究は、主に2つのテクニックに基づいている。
しかし、ドメイン-敵学習は、ドメイン間の特徴分布を整合させるだけでなく、対象の機能が差別的かどうかも考慮しない。
一方、自己学習はモデル予測を利用して対象特徴の識別を強化するが、ドメイン分布を明示的に整列することはできない。
この2つの手法の強みを組み合わせるために,alda(adversarial-learned loss for domain adaptation)と呼ばれる新しい手法を提案する。
まず,典型的な自己学習法である擬似ラベル法を解析した。
それでも、擬似ラベルと地上の真実の間にはギャップがあり、誤った訓練を引き起こす可能性がある。
そこで本研究では,ALDAの逆方向から学習する混乱行列を導入し,そのギャップを減らし,特徴分布を整列させる。
最後に、学習した混乱行列から新たな損失関数が自動構築され、未ラベル対象サンプルの損失となる。
ALDAは4つの標準ドメイン適応データセットにおいて最先端のアプローチよりも優れています。
私たちのコードはhttps://github.com/zjulearning/aldaで利用可能です。
関連論文リスト
- Pulling Target to Source: A New Perspective on Domain Adaptive Semantic Segmentation [80.1412989006262]
ドメイン適応セマンティックセグメンテーションは、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としています。
我々はT2S-DAを提案し、T2S-DAはドメイン適応のためのソースにターゲットを引っ張る形式として解釈する。
論文 参考訳(メタデータ) (2023-05-23T07:09:09Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Domain Adaptation via Prompt Learning [39.97105851723885]
Unsupervised Domain Adaption (UDA) は、十分にアノテーションされたソースドメインから学習したモデルをターゲットドメインに適応させることを目的としている。
我々は,Prompt Learning (DAPL) によるドメイン適応という,UDAのための新しいプロンプト学習パラダイムを導入する。
論文 参考訳(メタデータ) (2022-02-14T13:25:46Z) - Cross-Region Domain Adaptation for Class-level Alignment [32.586107376036075]
本稿では,2つの特徴分布を対象領域に整列させる手法を提案する。
自己学習フレームワークを使用して、イメージを2つのリージョンに分割し、特徴空間を整列させるために2つのディストリビューションを形成する。
このアプローチを、異なる領域分布を整合させる従来の方法と区別するために、クロスリージョン適応(CRA)と呼ぶ。
論文 参考訳(メタデータ) (2021-09-14T04:13:35Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Partially-Shared Variational Auto-encoders for Unsupervised Domain
Adaptation with Target Shift [11.873435088539459]
本稿では,教師なしドメイン適応(UDA)の目標シフトを考慮した新しいアプローチを提案する。
提案手法は部分共有変分オートエンコーダ (PS-VAE) であり, 特徴分布マッチングの代わりにペアワイズな特徴アライメントを用いる。
PS-VAEは、ラベル関連コンテンツを保存しながら、CycleGANベースのアーキテクチャで各サンプルの変換ドメインを相互変換する。
論文 参考訳(メタデータ) (2020-01-22T06:41:31Z) - A simple baseline for domain adaptation using rotation prediction [17.539027866457673]
目標は、あるドメインでトレーニングされたモデルを、注釈付きデータが少ない別のドメインに適応させることだ。
本稿では,自己教師付き学習に基づく簡易かつ効果的な手法を提案する。
提案手法は,DomainNetデータセット上での半教師付きドメイン適応における最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2019-12-26T17:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。