論文の概要、ライセンス

# (参考訳) 非教師なし領域適応のためのクロスドメイン勾配偏差最小化 [全文訳有]

Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain Adaptation ( http://arxiv.org/abs/2106.04151v1 )

ライセンス: CC BY 4.0
Zhekai Du, Jingjing Li, Hongzu Su, Lei Zhu, Ke Lu(参考訳) Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。 近年,2つの異なる分類器(bi分類器)による逆領域適応がudaに導入され,異なる領域間の分布の調整に有効である。 従来は2つの異なる分類器の出力間の類似性にのみ焦点をあてていた。 しかし、出力の類似性は、ターゲットサンプルの精度を保証できない。すなわち、2つの分類器間の差が小さい場合でも、ターゲットサンプルは間違ったカテゴリに一致する可能性がある。 この問題に対処するため,本論文では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン勾配離散化(CGDM)手法を提案する。 具体的には、この勾配は、ターゲットサンプルのセマンティック情報に対する手がかりを与え、ターゲットサンプルの精度を向上させるための優れた監視手段として使用できる。 対象サンプルの勾配信号を計算するため,クラスタリングに基づく自己教師付き学習により,ターゲット擬似ラベルを得る。 広範に使用されている3つのUDAデータセットに対する大規模な実験により、我々の手法は過去の多くの最先端技術を上回ることが示された。 コードはhttps://github.com/l ijin118/cgdmで入手できる。

Unsupervised Domain Adaptation (UDA) aims to generalize the knowledge learned from a well-labeled source domain to an unlabeled target domain. Recently, adversarial domain adaptation with two distinct classifiers (bi-classifier) has been introduced into UDA which is effective to align distributions between different domains. Previous bi-classifier adversarial learning methods only focus on the similarity between the outputs of two distinct classifiers. However, the similarity of the outputs cannot guarantee the accuracy of target samples, i.e., target samples may match to wrong categories even if the discrepancy between two classifiers is small. To challenge this issue, in this paper, we propose a cross-domain gradient discrepancy minimization (CGDM) method which explicitly minimizes the discrepancy of gradients generated by source samples and target samples. Specifically, the gradient gives a cue for the semantic information of target samples so it can be used as a good supervision to improve the accuracy of target samples. In order to compute the gradient signal of target samples, we further obtain target pseudo labels through a clustering-based self-supervised learning. Extensive experiments on three widely used UDA datasets show that our method surpasses many previous state-of-the-arts. Codes are available at https://github.com/l ijin118/CGDM.
公開日: Tue, 8 Jun 2021 07:35:40 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Cross-Domain Gradient Discrepancy Minimization クロスドメイン勾配偏差最小化 0.67
for Unsupervised Domain Adaptation 教師なしドメイン適応のための 0.45
1University of Electronic Science and Technology of China; 2Shandong Normal Unversity 第1回中国電子科学技術大学 : 2shandong normal unversity 0.75
{zhekaid, hongzus}@std.uestc.edu.cn, lijin117@yeah.net, leizhu0608@gmail.com , kel@uestc.edu.cn zhekaid, hongzus}@std.uestc.edu.cn, lijin117@yeah.net, leizhu0608@gmail.com , kel@uestc.edu.cn 0.66
Zhekai Du1, Jingjing Li *1, Hongzu Su1, Lei Zhu2, Ke Lu1 Zhekai Du1,Jingjing Li *1,Hongzu Su1,Lei Zhu2,Ke Lu1 0.92
1 2 0 2 n u J 1 2 0 2 n u J 0.85
8 ] V C . 8 ] 略称はC。 0.73
s c [ 1 v 1 5 1 4 0 sc [ 1 v 1 5 1 4 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
Abstract Unsupervised Domain Adaptation (UDA) aims to generalize the knowledge learned from a well-labeled source domain to an unlabeled target domain. 概要 Unsupervised Domain Adaptation (UDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに学習された知識を一般化することを目的としている。
訳抜け防止モード: 概要 Unsupervised Domain Adaptation (UDA) の目的は ラベル付きソースドメインから学習した知識を、ラベルなしのターゲットドメインに一般化する。
0.61
Recently, adversarial domain adaptation with two distinct classifiers (biclassifier) has been introduced into UDA which is effective to align distributions between different domains. 近年,2つの異なる分類器(biclassifier)による逆領域適応がudaに導入され,異なる領域間の分布の調整に有効である。 0.74
Previous bi-classifier adversarial learning methods only focus on the similarity between the outputs of two distinct classifiers. 従来は2つの異なる分類器の出力間の類似性にのみ焦点をあてていた。 0.68
However, the similarity of the outputs cannot guarantee the accuracy of target samples, i.e., target samples may match to wrong categories even if the discrepancy between two classifiers is small. しかし、出力の類似性は、ターゲットサンプルの精度を保証できない。すなわち、2つの分類器間の差が小さい場合でも、ターゲットサンプルは間違ったカテゴリに一致する可能性がある。 0.75
To challenge this issue, in this paper, we propose a cross-domain gradient discrepancy minimization (CGDM) method which explicitly minimizes the discrepancy of gradients generated by source samples and target samples. この問題に対処するため,本論文では,ソースサンプルとターゲットサンプルが生成する勾配の差を明示的に最小化する,クロスドメイン勾配離散化(CGDM)手法を提案する。 0.85
Specifically, the gradient gives a cue for the semantic information of target samples so it can be used as a good supervision to improve the accuracy of target samples. 具体的には、この勾配は、ターゲットサンプルのセマンティック情報に対する手がかりを与え、ターゲットサンプルの精度を向上させるための優れた監視手段として使用できる。 0.77
In order to compute the gradient signal of target samples, we further obtain target pseudo labels through a clustering-based self-supervised learning. 対象サンプルの勾配信号を計算するため,クラスタリングに基づく自己教師付き学習により,ターゲット擬似ラベルを得る。 0.81
Extensive experiments on three widely used UDA datasets show that our method surpasses many previous state-of-the-arts. 広範に使用されている3つのUDAデータセットに対する大規模な実験により、我々の手法は過去の多くの最先端技術を上回ることが示された。 0.41
1. Introduction Conventional deep learning methods suffer from the challenge of heavy dependency on large-scale labeled data, which is extremely expensive in many real-world scenarios such as medical image analysis. 1. はじめに 従来のディープラーニング手法は大規模ラベル付きデータに大きく依存する難しさに悩まされており、医療画像解析のような現実のシナリオでは極めて高価である。 0.69
To avoid expensive data annotation, unsupervised domain adaptation (UDA) [30, 19, 18] attempts to transfer a model trained on labeled data collected in the source domain to a similar target domain with unlabeled data. 高価なデータアノテーションを避けるため、unsupervised domain adaptation (UDA) [30, 19, 18] は、ソースドメインで収集されたラベル付きデータに基づいてトレーニングされたモデルを、ラベルなしデータで類似したターゲットドメインに転送しようとする。 0.69
To mitigate the domain shift, one popular paradigm in UDA is to reduce the distribution divergence between domains by minimizing a specific metric [24, 27, 42]. ドメインシフトを軽減するために、udaの一般的なパラダイムは、特定のメトリック [24, 27, 42] を最小化することで、ドメイン間の分散の分散を減らすことである。 0.68
Another widely used paradigm aims to learn もう一つの広く使われているパラダイムは 0.51
*Jingjing Li is the corresponding author. ※共起李は対応する著者である。 0.65
Figure 1. Illustration of the issue in previous bi-classifier adversarial learning. 図1。 先行する二分類子逆学習における問題例 0.69
Previous methods only consider the discrepancy between classifiers and neglect the accuracy of the target samples. 従来の手法では、分類器間の差異のみを検討し、対象サンプルの精度を無視する。 0.64
domain-invariant feature representations by leveraging the idea of adversarial learning [9], which has achieved remarkable success in the field of UDA recently. ドメイン不変の特徴表現は,最近UDA分野において顕著な成功を収めた,敵対的学習[9]の概念を活用することで実現されている。 0.65
Existing adversarial domain adaptation methods can be implemented in two ways. 既存のadversarial domain adaptation methodは2つの方法で実装できる。 0.73
One way is to apply an extra domain discriminator to distinguish whether a sample comes from the source or the target domain. 一つの方法は、サンプルがソースまたはターゲットドメインから来るかどうかを識別するために余分なドメイン判別器を適用することである。 0.64
At the same time, a feature extractor is used to fool the domain discriminator by learning undistinguishable features from input samples [10, 9, 25]. 同時に、特徴抽出器を用いて、入力サンプル[10,9,25]から識別不能な特徴を学習してドメイン判別器を騙す。 0.76
However, these domain adversarial methods neglect the category information of target samples, which may result in deterioration of the feature discriminability [5]. しかし,これらの手法は対象サンプルの分類情報を無視し,特徴識別性の低下を招く可能性がある[5]。 0.75
Another adversarial paradigm proposes a within-network adversarial strategy with two classifiers [36, 14]. 別の敵対的パラダイムは、2つの分類器 [36, 14] を持つネットワーク内敵戦略を提案する。 0.60
Through the minimax game between the classifiers and the generator on the cross-classifier outputs discrepancy, the target samples outside the support of the source domain can be detected by the decision boundaries effectively, thus the feature alignment could be established while the discriminability is also preserved. クラシファイタとクロスクラシファイタのジェネレータとのミニマックスゲームにより、誤差を出力し、ソースドメインの支持外のターゲットサンプルを判定境界により効果的に検出することができ、識別性も保持されている間に特徴アライメントを確立することができる。 0.77
Although bi-classifier adversarial learning has shown promising performance, methods with this paradigm only focus on the similarity between two distinct classifiers through a discrepancy metric such as (cid:96)1 distance [36] and slide wasserstein distance [14]. このパラダイムの手法は, (cid:96)1 距離 [36] とslide wasserstein 距離 [14] のような不一致メトリックによる2つの異なる分類器間の類似性にのみ焦点をあてている。 0.74
Here we argue that only considering the discrepancy between classifiers cannot guarantee the accuracy and diversity of classification on target samples, because it is possible that both classi- ここでは、分類器間の相違を考慮すれば、両方の分類が可能であるため、対象標本の分類の精度と多様性を保証できないと論じる。
訳抜け防止モード: ここでは,分類器間の相違を考慮すれば,対象試料の分類精度と多様性を保証できないと論じる。 なぜなら どちらのクラスも
0.84
Match to the wrong classSourceTargetDec ision boundaryAmbiguoustar getsamples 間違ったクラスSourceTargetDecision 境界 Ambiguoustargetsampl es 0.76
英語(論文から抽出)日本語訳スコア
fiers get wrong results. フィアーは間違った結果を得る。 0.34
As shown in Fig 1, ambiguous target samples may detected by wrong decision boundaries, which inevitably results in an inaccurate class-wise distribution alignment in subsequent adversarial procedure, although the discrepancy metric, e g , (cid:96)1 and wasserstein distance between the outputs of two classifiers is small. 図1に示すように、曖昧な対象サンプルは間違った判定境界によって検出され、2つの分類器の出力間の一致距離は小さいが、必然的にその後の逆行手順における不正確なクラスワイド分布アライメントをもたらす。 0.79
The main reason is that previous bi-classifier adversarial methods lack the consideration of the accuracy on target samples. 主な理由は、従来の二分類法では、ターゲット標本の精度を考慮していないためである。 0.62
In this paper, we aim to alleviate this issue. 本稿ではこの問題を軽減することを目的とする。 0.72
One straightforward idea is to label target samples by pseudo labels and fine-tune the model with data of both domains, which has been proven to be effctive in UDA [6]. 単純なアイデアの1つは、ターゲットのサンプルを擬似ラベルでラベル付けし、両方のドメインのデータでモデルを微調整することだ。
訳抜け防止モード: 単純なアイデアの1つは、ターゲットのサンプルを擬似ラベルでラベル付けし、両方のドメインのデータでモデルをチューニングするというものだ。 uda (複数形 udas)
0.60
However, directly using hard pseudo labels for supervised learning would lead to error diffusion and converge to the accuracy of pseudo labels. しかし、教師付き学習にハード擬似ラベルを直接使用するとエラー拡散が起こり、擬似ラベルの精度に収束する。 0.69
Here we tackle this issue from another perspective, we notice that the gradient discrepancy between source and target samples is related to the accuracy: assuming there is an accurate classifier, the source data and the target data would produce similar gradient signals for updating the classifier. ここでは、この問題に別の視点から取り組むと、ソースとターゲットのサンプル間の勾配差が精度に関係していることに気付き、正確な分類器が存在すると仮定すると、ソースデータとターゲットデータは、分類器を更新するための同様の勾配信号を生成する。
訳抜け防止モード: ここでは別の視点から この問題に取り組みます 音源と対象試料の勾配差は精度と相関する :正確な分類器が存在すると仮定する。 ソースデータとターゲットデータは、分類器を更新するために同様の勾配信号を生成する。
0.82
Our key idea is that we wish the loss of two domains to be close to not only the final model but also to follow a similar path to it throughout the optimization. 私たちのキーとなる考え方は、2つのドメインの損失が最終モデルだけでなく、最適化全体を通して同様の道をたどることを望むことです。 0.78
Therefore, we use the gradient signal as a surrogate supervision and make it an proxy to the classification accuracy, yielding a cross-domain gradient discrepancy minimization (CGDM) method for UDA. そこで,この勾配信号をサロゲートの監督として使用し,分類精度の指標とし,地域間勾配差最小化 (cgdm) 法を導出する。 0.73
CGDM employs the gradient discrepancy between source and target samples as an extra supervision. CGDMは、ソースとターゲットのサンプル間の勾配差を余分な監督に用いている。 0.61
Furthermore, considering that pseudo labels obtained by the source-only classifier may be not accurate enough, we leverage a clustering-based self-supervised method to obtain more reliable pseudo labels for target samples. さらに,ソースのみの分類器で取得した擬似ラベルは精度が十分でないことを考慮し,クラスタリングに基づく自己教師付き手法を用いて,対象サンプルに対する信頼性の高い擬似ラベルを得る。 0.67
By aligning gradient vectors, distributions of two domains can be better aligned at the category-level. 勾配ベクトルを整列することで、2つの領域の分布はカテゴリレベルでよりよく整列することができる。 0.63
The main contributions of this work are summarized as follows: 本作品の主な貢献は以下のとおりである。 0.76
• In order to solve the inaccurate alignment issue in previous bi-classifier adversarial learning, we propose a novel method which explicitly minimizes the discrepancy of gradient vectors produced by the source and the target samples. • 先行するbi-classifier adversarial learningにおける不正確なアライメント問題を解くために、ソースとターゲットサンプルが生成する勾配ベクトルの差を明示的に最小化する新しい手法を提案する。 0.86
Notably, we formulate the proposed gradient discrepancy minimization as a generalized learning loss which can be easily applied to other UDA paradigms. 特に、提案した勾配差分最小化を、他のUDAパラダイムにも容易に適用可能な一般化学習損失として定式化する。 0.57
• For computing the gradient of target samples, we employ a clustering-based strategy to obtain more reliable pseudo labels. • ターゲットサンプルの勾配を計算するために,より信頼性の高い擬似ラベルを得るためにクラスタリングに基づく戦略を用いる。 0.76
Then a self-supervised learning based on pseudo labels is conducted to fine-tune the model with both the source data and the target data in order to reduce the number of ambiguous target samples. そして、擬似ラベルに基づく自己教師付き学習を行い、ソースデータとターゲットデータの両方でモデルを微調整し、曖昧なターゲットサンプル数を削減する。 0.71
• We reformulate the vanilla bi-classifier adversarial framework with above two proposals and conduct extensive experiments on three open large-scale datasets. • 上述の2つの提案により,バニラ二分類逆数フレームワークを再構成し,3つの大規模データセットに対して広範な実験を行う。 0.61
The experimental results demonstrate the advantage of our method. 実験の結果,本手法の利点が示された。 0.72
2. Related Work The research line of existing unsupervised domain adaptation can be roughly divided into three branches: sample weighted adaptation, metric learning adaptation and adversarial learning adaptation. 2. 関連作品 既存の教師なしドメイン適応の研究は、サンプル重み付き適応、メトリック学習適応、逆学習適応の3つの分野に大別できる。
訳抜け防止モード: 2. 関連作品 既存の教師なし領域適応の研究ラインは、大まかに3つの枝に分けられる:サンプル重み付き適応、 メトリック学習適応と逆学習適応
0.76
Sample weighted adaptation aims to reduce the discrepancy between domains by inferring resampling weights of samples in a non-parameter way [38, 41, 17, 20]. 非パラメータ法[38, 41, 17, 20]でサンプルの再サンプリングを行い, ドメイン間の差を小さくすることを目的とする。 0.69
Metric learning methods try to mitigate the distribution gap directly by minimizing a discrepancy metric. メトリック学習法は、分散メトリックを最小化することで、分布ギャップを直接緩和しようとする。 0.68
For instance, maximum mean discrepancy (MMD) is a widely used criteria to measure the divergence between different domains in previous work. 例えば、最大平均差分(MMD)は、以前の研究における異なる領域間のばらつきを測定するために広く用いられる基準である。 0.74
Deep adaptation networks (DAN) [24] simultaneously minimize the multi-kernel MMD between two domains and the accuracy error on source samples, by which the distributions can be aligned. 深層適応ネットワーク(dan) [24] 2つのドメイン間のマルチカーネルmmdと、その分布をアライメントできるソースサンプルの精度誤差を同時に最小化する。 0.86
Joint adaptation networks (JAN) [27] extends DAN by aligning the joint distributions of multiple domainspecific layers using the joint maximum mean discrepancy (JMMD). 結合適応ネットワーク(JAN)[27]は、JMMD(Joint maximum mean discrepancy)を用いて複数のドメイン固有層の結合分布を整列することによりDANを拡張する。
訳抜け防止モード: 合同適応ネットワーク (jan ) [27 ] は dan by を拡張する ジョイント最大平均差(jmmd)を用いた複数のドメイン固有層のジョイント分布の調整
0.85
Besides, some other variants of MMD are also used for more appropriate divergence criteria [26, 21, 13]. さらに、MDDの他の変種はより適切な発散基準 [26, 21, 13] にも使用されている。 0.69
In addition, central moment discrepancy (CMD) [42] and maximum density divergence (MDD) [16] are another two criterias to align feature distributions in hidden layers. さらに, 中心モーメント差分(CMD) [42] と最大密度偏差(MDD) [16] は, 隠蔽層における特徴分布の整合性を示す2つの基準である。 0.81
Adversarial learning methods learns domain-invariant feature representations following an adversarial paradigm. 敵対的学習法は、敵対的パラダイムに従ってドメイン不変な特徴表現を学習する。 0.45
The adversarial learning of this paradigm can be realized through two strategies. このパラダイムの敵対的学習は2つの戦略によって実現できる。 0.74
The first way is to employ an additional domain discriminator to distinguish domain-specific features and a feature learner is then employed to learn undistinguishable features to fool the discriminator [9, 37]. 第1の方法は、ドメイン固有の特徴を識別するために追加のドメイン識別器を使用することであり、それから特徴学習者が識別不能な特徴を学習して識別器を騙すために使用される[9, 37]。 0.57
Later, some studies [25, 32, 44, 15] suggest to align conditional distributions in feature space to achieve accurate alignment at the category-level. 後に、[25, 32, 44, 15] の研究では、圏レベルで正確なアライメントを達成するために特徴空間の条件分布を整列することを示唆している。 0.62
Different from them, our method falls into the second adversarial paradigm, which uses two distinct task-specific classifiers to oppose the generator w.r.t. この手法は2つの異なるタスク固有の分類器を用いて生成元 w.r.t に反対する。 0.65
the prediction discrepancy of two classifiers. 2つの分類器の予測誤差。 0.76
This paradigm is first used in MCD [36]. このパラダイムは最初にmcd [36] で使われる。 0.79
SWD [14] further improves the discrepancy metric in MCD by applying the slide wasserstein discrepancy rather than simple (cid:96)1 distance. SWD[14]は、単純な (cid:96)1 距離ではなくスライドワッセルシュタインの差分を印加することにより、MDDの差分計量をさらに改善する。
訳抜け防止モード: SWD [14 ] は MCD における不一致度を更に改善する 単純な (cid:96)1 距離ではなく、スライスをスライスする。
0.68
Recently, CLAN [28] use cosine similarity of the classifier parameters to measure the discrepancy for semantic segmentation. 最近 clan [28] は分類器パラメータのコサイン類似性を用いて意味セグメンテーションの差異を計測している。
訳抜け防止モード: 最近 CLAN [28 ] は分類器パラメータのコサイン類似性を使用している 意味的セグメンテーションの相違を測ります
0.77
However, accurate alignment in this paradigm cannot be accessed by previous methods. しかし、このパラダイムの正確なアライメントは、以前の方法ではアクセスできない。 0.64
Pseudo label based methods. 擬似ラベルに基づく方法。 0.74
Some recent UDA methods use pseudo labeling technique to exploit semantic information of target samples. 最近のudaメソッドでは、ターゲットサンプルのセマンティクス情報を利用するために擬似ラベリング技術を使用している。
訳抜け防止モード: 擬似ラベリング技術を用いた最近のUDA法 ターゲットサンプルの 意味情報を利用するためです
0.73
Zhang et al in [43] directly use pseudo labels as a regularization. zhang et al in [43] は擬似ラベルを正規化として直接使用する。 0.69
Xie et al [39] utilize pseudo labels to estimate class centroids for the target domain and match them to the ones in the source domain. Xie et al [39] は擬似ラベルを使用して、ターゲットドメインのクラスセントロイドを推定し、ソースドメインのそれとマッチングする。 0.64
Long et al [25] use pseudo labels predicted by the model to achieve conditional distribution alignment. Long et al [25] は条件分布アライメントを達成するためにモデルによって予測される擬似ラベルを使用する。 0.72
Zou et al [45] further propose a self-training framework that alternately refines pseudo labels and performs model training. Zou et al [45]はさらに、擬似ラベルを交互に洗練し、モデルトレーニングを行う自己学習フレームワークを提案する。 0.64
Re- 再会 0.62
英語(論文から抽出)日本語訳スコア
Figure 2. An illustration of our framework. 図2。 私たちのフレームワークのイラスト。 0.76
Both source samples and target samples are passed through the generator G and two classifiers F1 and F2. ソースサンプルとターゲットサンプルの両方をジェネレータGと2つの分類器F1,F2を介して通過させる。 0.66
Then the supervised loss is used to minimize the classification error on source samples. 次に、教師付き損失を用いて、ソースサンプルの分類誤差を最小限に抑える。 0.61
We use a self-supervised mechanism to reduce the number of ambiguous target samples. 自己教師付き機構を使用して,曖昧な対象サンプル数を削減する。 0.60
The minimax process on the adversarial loss is used to detect target samples outside the support of the source domain. 逆損失のminimaxプロセスは、ソースドメインのサポートの外にあるターゲットサンプルを検出するために使用される。 0.72
The gradient discrepancy loss is further used to align distributions and improve the accuracy of target samples. 勾配差損失はさらに分布を調整し、ターゲットサンプルの精度を向上させるために用いられる。 0.82
cently, clustering-based pseudo labeling methods [2, 22, 13] have shown their superiority and successfully applied to domain adaptation. 集中的に、クラスタリングに基づく擬似ラベリング手法[2, 22, 13]は、その優位性を示し、ドメイン適応に成功している。 0.57
CAN [13] solves the target pseudo labels by performing k-means clustering in feature space for contrastive learning. CAN[13]は、コントラスト学習のための特徴空間においてk平均クラスタリングを行うことにより、ターゲットの擬似ラベルを解決する。
訳抜け防止モード: CAN [13 ] はターゲットの擬似ラベルを解決します k - 対照的な学習のための特徴空間におけるクラスタリングを意味する。
0.65
SHOT [22] leverages a weighted kmeans clustering strategy to obtain pseudo labels for selfsupervision in the source-free UDA. SHOT[22]は、重み付けされたkmeansクラスタリング戦略を利用して、ソースフリーUDAにおける自己スーパービジョンのための擬似ラベルを得る。
訳抜け防止モード: SHOT[22 ]は重み付きkmeansクラスタリング戦略を活用する ソースの自己スーパービジョンのための擬似ラベルを取得する。
0.62
Our method follow this strategy, instead of directly using pseudo labels for selftraining, we propose to minimize the cross-domain gradient discrepancy based on pseudo labels to reinforce the vanilla bi-classifier adversarial learning, which is illustrated in Fig 2 and elaborated on in subsequent sections. 本手法は, 自己学習に擬似ラベルを直接使用するのではなく, 擬似ラベルに基づくクロスドメイン勾配差を最小化して, 図2で説明し, 後続の節で詳述するバニラ双分類逆学習を補強する手法である。 0.81
3. Method In this section, we first revisit the UDA and the biclassifier adversarial setting. 3. 方法 本項目では,まずUDAと二分詞対逆の設定を再検討する。 0.72
Then we introduce the crossdomain gradient discrepancy minimization and the selfsupervised mechanism respectively. 次に,クロスドメイン勾配差最小化と自己監督機構を導入する。 0.67
Finally, we report the whole training schema of our CGDM. 最後に,CGDMのトレーニングスキーマ全体について報告する。 0.66
3.1. UDA with Bi-Classifier Adversarial Learning Suppose that we have the source data which consists i}ns of ns labeled samples {xs i=1 and corresponding labels {ys i }ns i=1 drawn from the source distribution P (X s,Y s), as well as the target data which consists of nt unlabeled sami}nt ples {xt i=1 drawn from the target distribution P (X t). 3.1. UDA with Bi-Classifier Adversarial Learning Suppose that we have the source data which consist i}ns of ns labeled sample {xs i=1 and corresponding labels {ys i }ns i=1 drawn from the source distribution P (X s,Y s) and the target data which consist of nt unlabeled sami}nt ples {xt i=1 drawn from the target distribution P (X t)。 0.79
UDA aims to obtain a function F that can predict the category of samples accurately with only source labels accessible and can be applied well to the target domain. UDAの目的は、サンプルのカテゴリを正確に予測し、ソースラベルのみにアクセス可能で、ターゲットドメインに適切に適用できる関数Fを得ることである。 0.78
The bi-classifier adversarial learning methods employ a feature generator G which extracts discriminative deep features of raw inputs, and two distinct task-specific classifiers F1 and F2, which are fed with the output of the generator 本手法は、生入力の識別的深層特徴を抽出する特徴生成器gと、生成器の出力に供給される2つの異なるタスク固有分類器f1,f2を用いる。 0.79
then produce the prediction probability p1(y | x), p2(y | x) respectively. 次に予測確率 p1(y | x) と p2(y | x) を生成する。 0.82
Following MCD [36] and SWD [14], we first revisit the standard three-step principle of bi-classifier adversarial learning, which is used as our starting point: Step 1. MCD [36] とSWD [14] に続いて、まず二クラス化対数学習の標準3段階の原則を再検討し、この原則を出発点として用いた。 0.64
Learn G, F1 and F2 jointly by minimizing the classification loss Lcls(·,·) on the labeled source samples to reduce the empirical risk over the source distribution, which can be formulated as follows: ラベル付きソースサンプルの分類損失Lcls(·,·)を最小化し、ソース分布に対する経験的リスクを低減することにより、G、F1、F2を共同で学習し、次のように定式化することができる。 0.74
min θg,θf 1,θf 2 ミン θg,θf 1,θf 2 0.67
Lcls (X s,Y s) = Lcls (X s,Y s) = 0.85
1 2ns Lce (Fn (G (xs 12n lce (fn (g (xs)) 0.68
i )) , ys i ) ys i (複数形 ys i) 0.67
ns(cid:88) ns(cid:88) 0.84
2(cid:88) i=1 2(cid:88) i=1 0.71
n=1 (1) where Lce(·,·) denotes the standard cross entropy loss function, θg, θf 1 and θf 2 represent the parameters of G, F1 and F2 respectively. n=1 1) Lce(·,·) が標準クロスエントロピー損失関数を表すとき、θg, θf 1 と θf 2 はそれぞれ G, F1, F2 のパラメータを表す。
訳抜け防止モード: n=1 ( 1 ) ここで lce ( · · ) は標準クロスエントロピー損失関数を表す。 θg, θf 1, θf 2 はそれぞれ g, f1, f2 のパラメータを表す。
0.74
Step 2. Frozen the parameters of the generator G and update classifiers F1 and F2 to maximize the divergence between their probabilistic outputs on target samples while preserving the classification accuracy on source samples: ステップ2。 ジェネレータgおよび更新分類器f1,f2のパラメータを凍結し、ソースサンプルの分類精度を維持しつつ、ターゲットサンプルの確率出力の相違を最大化する。 0.77
Lcls (X s,Y s) − Ldis Lcls (X s,Y s) − Ldis 0.85
min θf 1,θf 2 min θf 1,θf 2 0.92
(2) where Ldis(·) denotes the function that measures the divergence between the probabilistic outputs of two classifiers and can be customized by specific algorithms like (cid:96)1 distance [35] and slide wasserstein distance [14]. 2) ldis(·) は2つの分類器の確率的出力の発散を測定する関数を表し、(cid:96)1 距離 [35] やスライド・ワッサースタイン距離 [14] のような特定のアルゴリズムによってカスタマイズできる。 0.84
Step 3. Frozen the parameters of two classifiers F1 and F2, then update the generator G to minimize the divergence between the probabilistic outputs of two classifiers: ステップ3。 2つの分類器 F1 と F2 のパラメータを凍結し、生成器 G を更新し、2つの分類器の確率出力間のばらつきを最小限にする。 0.70
(cid:0)X t(cid:1) (cid:0)X t(cid:1) 0.81
(cid:0)X t(cid:1) (cid:0)X t(cid:1) 0.81
Ldis min θg Ldis min θg 0.87
(3) After repeating above steps several times, the model can effectively detect target samples outside the support of the (3) 上のステップを何度も繰り返すと、モデルが効果的にターゲットサンプルを検出できる。 0.77
𝐹𝐹1𝐹𝐹2Adversarial LossSupervised LossSelf-supervised LossSource GradientsTarget GradientsGradient Discrepancy LossComputational flow of source samplesComputational flow of target samples:FeatureGener ator𝐹𝐹1,2:Classifier𝐺𝐺𝐺𝐺Common flow𝑝𝑝1,2:Prediction vector𝑝𝑝1𝑝𝑝2DiscrepancySource Ground-truth LabelTarget Pseudo LabelSource DomainTarget DomainInput FF1FF2Adversarial Loss Supervised LossSelf-supervised LossSource GradientsTarget Gradients Gradients Gradients Disrepancy LossComputational Flow of Source sample:FeatureGenera torFF1,2:ClassifierG GGGCommon flowpp1,2:Prediction vectorpp1pp2Discrepa ncySource Ground-Truth LabelTarget Pseudo LabelSource DomainTarget DomainInput 0.73
英語(論文から抽出)日本語訳スコア
source domain by decision boundaries and align distributions of two domains to some extent. 決定境界によるソースドメインと2つのドメインの分布をある程度調整する。 0.83
3.2. Minimizing Cross-Domain Gradient Discrep- 3.2. クロスドメイン勾配偏差の最小化- 0.61
ancy As mentioned above, it is difficult to guarantee that the model can classify the target sample with high accuracy if only considering the discrepancy of two classifiers without any other constraints. アンシー 上記のように、他の制約なしに2つの分類器の相違を考慮するだけで、モデルがターゲットサンプルを高精度に分類できることを保証することは困難である。 0.60
For instance, we have two predictions [0.95, 0.03, 0.02] and [0.96, 0.02, 0.02] of a target sample, one for each classifier. 例えば、2つの予測 [0.95, 0.03, 0.02] と [0.96, 0.02, 0.02] がある。
訳抜け防止モード: 例えば、2つの予測 [0.95, 0.03, 0.02 ]および [ 0.96, 0.02, 0.02 ] 分類器ごとに1つ
0.82
Although the discrepancy metric of two classifiers is quite small, we can not guarantee it is a good prediction because the vanilla bi-classifier adversarial learning is accuracy-agnostic, the groudtruth label of this sample may be [0,1,0] or [0,0,1]. 2つの分類器の判別基準は非常に小さいが、バニラ二分類器の逆学習は精度に依存せず、このサンプルのグラウトルートラベルは [0,1,0] あるいは [0,0,1] であるので、良い予測であることは保証できない。 0.63
Thus there is a strong incentive to tackle this issue. したがって、この問題に取り組むための強いインセンティブがある。 0.73
Based on the above motivation, we look at the problem from another perspective: if we want to learn a classifier through which all samples from both domains can be classified correctly, then the gradient vector produced by the samples from the source and the target should be similar for learning such a classifier. 上記の動機に基づいて、別の視点から問題を考察する: 両方の領域からすべてのサンプルを正しく分類できる分類器を学習したい場合、ソースとターゲットから生成されたサンプルによって生成される勾配ベクトルは、そのような分類器を学習するために類似すべきである。 0.82
Therefore, we introduce the gradient similarity metric between two domains. そこで,2つの領域間の勾配類似度メトリックを導入する。 0.67
To this end, we first denote the expected gradient over the source and target examples by gs and gt respectively. この目的のために、まずソース上の期待勾配と対象の例をそれぞれ gs と gt で表現する。 0.67
The appropriate gradient of source samples is formulated as follows, ソースサンプルの適切な勾配を次のように定式化する。 0.68
2(cid:88) n=1 2(cid:88) n=1 0.71
gs = 1 2 E gs = 1 2 E 0.85
(xs i ,ys (xs) 私は... 0.56
i )∼(X s,Y s) i) (X s,Y s) 0.59
(cid:2)∇θf nLce (Fn (G (xs (落語2)→θf nLce(Fn(G(xs)) 0.67
i )(cid:3) . I (cid:3)。 0.78
i )) , ys ys (複数形 yss) 0.58
(4) For computing the gradient produced by target samples, the label information is required, however, this is exactly what we want to obtain in the UDA problem. (4) 対象サンプルが生成する勾配を計算するためにはラベル情報が必要であるが、これはまさにUDA問題において取得したい問題である。 0.70
To tackle this awkward situation, we assign pseudo labels to target samples, denoted by Y∗. このような厄介な状況に対処するため、Y∗ で表されるターゲットサンプルに擬似ラベルを割り当てる。 0.65
Since the pseudo labels may still incorrect, to alleviate the noise of ambiguous target samples which may have incorrect pseudo labels, we use the weighted classification loss based on the prediction entropy of each target sample to compute the gradient. 擬似ラベルはいまだに誤りである可能性があるため,不正確な擬似ラベルを持つ不明瞭な対象サンプルのノイズを軽減するために,各対象試料の予測エントロピーに基づく重み付き分類損失を用いて勾配を計算する。 0.82
The gradient vector of the target samples is formulated as follows, 対象試料の勾配ベクトルを次のように定式化する。 0.77
2(cid:88) n=1 2(cid:88) n=1 0.71
gt = 1 2 E gt = 1 2 E 0.85
(xt i,y∗ i )∼(X t,Y∗) (xt) i,y∗ i ) (x t, y∗) である。 0.79
Here LW which is formulated as follows, LW ここで LW を次のように定式化する。 0.69
(cid:0)G(cid:0)xt (cid:0)G(cid:0)xt 0.81
(cid:1)(cid:1) , y∗ (cid:1)(cid:1) , y∗ 0.76
(cid:0)Fn ce (cid:0)Fn チッ 0.69
i i (cid:2)∇θf nLW (cid:1) = wj(xt 私は 私は (cid:2)=θf nLW (cid:1) = wj(xt) 0.61
i)Lce ce (cid:0)Fn (cid:0)Fn i) チッ (cid:0)Fn (cid:0)Fn 0.62
(cid:0)G(cid:0)xt (cid:0)G(cid:0)xt 0.81
(cid:1)(cid:1) , y∗ (cid:1)(cid:1) , y∗ 0.76
(cid:1)(cid:3) . (cid:1)(cid:3)。 0.69
i i (cid:0)G(cid:0)xt 私は 私は (cid:0)G(cid:0)xt 0.63
(cid:1)(cid:1) , y∗ (cid:1)(cid:1) , y∗ 0.76
(cid:1) , i (cid:1) 私は 0.64
i (5) ce (·,·) is the weighted cross entropy loss function 私は (5) ce (·,·) は重み付きクロスエントロピー損失関数である 0.61
(6) (7) where δ represents the softmax output and E(·) denotes the standard information entropy. (6) (7) ここで δ はソフトマックス出力を表し、e(·) は標準情報エントロピーを表す。 0.82
At present, we have obtained i) = 1 + e−E(δ(Fn(G(xt 現在 私たちは i) = 1 + e−E(δ(Fn(G(xt)) 0.65
wj(xt i),y∗ wj(xt) i)y∗ 0.79
i ))), the gradient vector of source samples and target samples respectively. I))。 ソースサンプルの勾配ベクトルとターゲットサンプルはそれぞれである。 0.68
We minimize the discrepancy between these two gradient vectors when updating the generator in step 3 through a gradient discrepancy loss LGD, here we use cosine similarity to express the discrepancy, ステップ3における2つの勾配ベクトルの差を勾配差損失lgdにより最小化し、コサイン類似性を用いて差を表現する。
訳抜け防止モード: この2つの勾配ベクトルの差を最小化します 勾配差損失lgdによるステップ3の発電機更新 ここではコサイン類似性を用いて不一致を表現する。
0.77
LGD = 1 − gT s gt LGD = 1 − gT s gt 0.85
(cid:107)gs(cid:107) 2 (cid:107)gt(cid:107) 2 (cid:107)gs(cid:107) 2 (cid:107)gt(cid:107) 2 0.80
, (8) by which the distributions of the source domain and the target domain are aligned while the semantic information of samples is also considered. , (8) これにより、ソースドメインとターゲットドメインの分布が一致し、サンプルの意味情報も考慮される。 0.79
3.3. Self-supervised Learning for Target Samples 3.3. 対象試料に対する自己教師あり学習 0.65
In our method, pseudo labels of target samples are indispensable to compute the gradient signal. 本手法では,対象サンプルの擬似ラベルが勾配信号の計算に不可欠である。 0.82
Pseudo labeling has gained popularity in domain adaptation in recent years. 擬似ラベリングは近年、ドメイン適応で人気を集めている。 0.60
Some previous studies [43, 6, 39] directly incorporate naive pseudo labeling strategy into their methods. 従来の研究(43, 6, 39)では, ナイーブな擬似ラベリング戦略を直接取り入れている。 0.70
However, target pseudo labels that produced by the source model are still unreliable owing to the domain shift. しかし、ソースモデルによって生成されたターゲットの擬似ラベルは、ドメインシフトのためまだ信頼できない。 0.71
Inspired by DeepCluster [2] and SHOT [22], in this paper, we use a weighted clustering strategy to obtain more reliable pseudo labels. 本稿では,DeepCluster [2]とSHOT [22]にインスパイアされたクラスタリング戦略を用いて,より信頼性の高い擬似ラベルを得る。 0.82
Here we use softmax outputs of two classifiers to weight the samples for obtaining the centroid ck of the k-th class, ここでは, 2つの分類器のソフトマックス出力を用いてサンプルの重み付けを行い, k-thクラスの遠心ckを得る。 0.70
(cid:80)2 (cid:80) (cid:80)2 (cid:80)2 (cid:80)(cid:80)2 0.80
n=1 n=1 (cid:80) n=1 n=1 (cid:80) 0.65
ck = i∈X t δk (Fn (G (xt xt ck = i∂X t δk (Fn (G (xt xt)) 0.78
i))) G (xt i) i) G (xt i) 0.63
i∈X t δk (Fn (G (xt xt i∂X t δk (Fn (G (xt xt)) 0.72
i))) , (9) where δk means the corresponding k-th element of the softmax output δ. I) , (9) ここでδkはソフトマックス出力δの対応するk番目の要素を意味する。 0.67
Then pseudo labels could be obtained by the nearest centroid strategy, i.e., すると、擬似ラベルは最も近いセントロイド戦略、すなわち、取得できる。 0.57
y∗ i = arg min y∗ i = arg min 0.99
k d(cid:0)G(cid:0)xt k d(cid:0)G(cid:0)xt 0.85
i (cid:1) , ck 私は (cid:1)、ck 0.69
(cid:1) , (10) (cid:1) (10) 0.80
here d could be any specific distance metric function and we use cosine distance in this paper. ここで D は特定の距離メートル関数であり この論文ではコサイン距離を使っています 0.72
In order to exploit unlabeled samples, we reinforce the step 1 with the self-supervised learning mechanism to induce the model to learn a discriminative original target distribution and encourage each sample to lie around the correct decision boundary. ラベルのないサンプルを活用すべく,自己教師付き学習機構を用いてステップ1を補強し,識別可能な元のターゲット分布をモデルに学習させ,各サンプルが正しい決定境界付近に横たわるように促す。 0.81
The weighted classification loss cls(·,·) for self-supervised learning can be formulated as LW follows, 自己教師付き学習のための重み付き分類損失 cls(·,·) は、lw が従うように定式化できる。 0.62
(cid:0)X t,Y∗(cid:1) = (cid:0)X t,Y∗(cid:1) = 0.88
LW cls nt(cid:88) LW cls nt(cid:88) 0.85
2(cid:88) i=1 2(cid:88) i=1 0.71
n=1 1 2nt (cid:0)Fn n=1 1 2nt (cid:0)Fn 0.77
(cid:0)G(cid:0)xt (cid:0)G(cid:0)xt 0.81
(cid:1)(cid:1) , y∗ (cid:1)(cid:1) , y∗ 0.76
(cid:1) , i (cid:1) 私は 0.64
i LW ce (11) Through the above self-supervised process, we make an improvement on the discriminability of the target distribution in step 1 by fine-tuning the model with both source and target data, so that the samples between two domains could be aligned at category-level subsequently. 私は LW チッ (11) 上記の自己教師ありプロセスを通じて, モデルにソースデータとターゲットデータの両方を微調整することにより, 対象分布の判別性を向上し, その後, 2つの領域間のサンプルをカテゴリレベルで整列させることができる。 0.67
英語(論文から抽出)日本語訳スコア
(12) (13) 3.4. (12) (13) 3.4. 0.80
Overall Objective and Optimization Procedure In this work, we aim to tackle potential drawbacks of the bi-classifier adversarial learning by using self-supervised learning and minimizing the discrepancy of gradient signal produced by the source and the target domain. 本研究における総合的目標と最適化手法は,自己教師付き学習と,ソースと対象領域が生成する勾配信号の差を最小化することにより,双方向学習の潜在的な欠点に取り組むことを目的としている。 0.68
To sum up, by utilizing the self-supervised loss, the optimization objective of step 1 could be reformulated as follows, まとめると、自己監督損失を利用して、ステップ1の最適化目的を次のように再定義することができる。 0.59
(cid:0)X t,Y∗(cid:1) , (cid:0)X t,Y∗(cid:1), 0.88
min θg,θf 1,θf 2 ミン θg,θf 1,θf 2 0.67
Lcls (X s,Y s) + αLW Lcls (X s,Y s) + αLW 0.93
cls where α > 0 is the trade-off parameter and could be adjusted according to the validation set. cls ここで α > 0 はトレードオフパラメータであり、検証セットに従って調整できる。 0.79
Following MCD, we use the (cid:96)1 distance to estimate the discrepancy between two distinct classifiers in Step 2. MCDの後、ステップ2における2つの異なる分類器間の差を推定するために (cid:96)1 距離を用いる。 0.73
In step 3, we add a constraint on the gradient discrepancy between two domains, thus the final optimization objective becomes ステップ3では、2つの領域間の勾配差に制約を加え、最終的な最適化目標となる。 0.74
(cid:0)X t(cid:1) + βLGD (cid:0)X t(cid:1) + βLGD 0.81
Ldis min θg Ldis min θg 0.87
where β > 0 denotes the trade-off hyper-parameter. ここで β > 0 はトレードオフハイパーパラメータを表す。 0.74
After this step, the target feature manifold will be closer to the source one while the classification accuracy of target samples is also preserved. このステップの後、ターゲット特徴多様体はソース多様体に近くなり、ターゲットサンプルの分類精度も保存される。 0.62
We repeat the above process until it converges. 上記のプロセスは収束するまで繰り返す。 0.65
The overall framework is shown in Fig 2 and the training procedure is summarized in Algorithm 1. 全体的なフレームワークは図2に示され、トレーニング手順はアルゴリズム1にまとめられている。 0.78
4. Theoretical Analysis 1 2 4. 理論的分析 1 2 0.84
∀h ∈ H, RT (h) ≤ RS (h) + yh ∈ H, RT (h) ≤ RS (h) + 0.81
In this section, we explain our motivation by briefly analyzing the relationship between our method and the theory of domain adaptation [1], which gives the upper bound of the expected error on the target domain as follows, dH∆H(S,T ) + λ, 本稿では,本手法と領域適応理論([1])の関係を簡潔に解析し,対象領域上の期待誤差の上界を,次のように説明する。
訳抜け防止モード: 本節では,提案手法間の関係を簡潔に分析し,その動機について述べる。 そして、対象領域における期待誤差の上界を与える領域適応の理論 [1 ] は、dh(s, t ) + λ である。
0.74
(14) where H is the hypothesis class, RS (h) is the expected error on the source domain which can be minimized explicitly since we have ground-truth source labels. (14) H が仮説クラスである場合、RS (h) はソース領域の期待誤差であり、基底構造を持つソースラベルを持つため、明示的に最小化できる。 0.75
dH∆H(S,T ) stands for the the domain divergence, and λ is the error of the ideal joint hypothesis, i.e., h∗ = arg minh∈H RS (h) + RT (h). dH\H(S,T) は領域の発散を表し、λ は理想的な合同仮説、すなわち h∗ = arg minh∂H RS (h) + RT (h) の誤差である。 0.79
MCD employs two distinct hypotheses to reduce dH∆H(S,T ) and it treats λ as a negligible constant. MCDは2つの異なる仮説を用いてdH\H(S,T)を減少させ、λを無視できる定数として扱う。 0.65
However, [4] shows there is an optimality gap between the optimal source hypothesis and the optimal target hypothesis in UDA, if two domains are misaligned at the category-level, we can hardly find a joint hypothesis that simultaneously minimizes the source and target expected errors, leading to a large λ. しかし、[4] は、UDAの最適源仮説と最適目標仮説の間に最適性ギャップがあることを示し、もし2つの領域がカテゴリーレベルで不一致であるなら、ソースとターゲットの予測誤差を同時に最小化する合同仮説は見つからないので、大きなλとなる。 0.79
Hence, our motivation is to design a model that preserves the low dH∆H(S,T ) in MCD and alleviates the problem caused by incorrect category-level alignment (i.e., minimizing λ). したがって、我々のモチベーションは、MDD の低 dH\H(S,T ) を保存し、不正確な圏レベルのアライメント(すなわち λ の最小化)に起因する問題を緩和するモデルを設計することである。 0.66
To this end, pseudo labels are necessary. この目的のためには擬似ラベルが必要である。 0.57
Instead of using pseudo labels predicted by the source hypothesis as a direct supervision, which measures the loss of target samples w.r.t. ソース仮説によって予測される擬似ラベルを直接の監督として使用する代わりに、ターゲットサンプルの損失を測定する。 0.77
the trained source hypothesis rather than the expected loss of the joint hypothesis 合同仮説の予想損失よりもむしろ訓練された情報源仮説 0.70
Algorithm 1 Cross-Domain Gradient Discrepancy Minimization for Unsupervised Domain Adaptation Require: The set of labeled source samples {X s,Y s} and the set of unlabeled target samples {X t}, the initialized generator G and classifiers F1 and F2, the maximal epoch number N and the hyper-parameter α and β. for epoch ← 1 to N do アルゴリズム1 教師なしドメイン適応のためのクロスドメインのグラディエント離散性最小化:ラベル付きソースサンプル {X s,Y s} とラベルなしターゲットサンプル {X t}、初期化生成器 G と分類器 F1 と F2、最大エポック数 N と超パラメータ α と β のセット。
訳抜け防止モード: アルゴリズム1 非教師付きドメイン適応要求に対するドメイン勾配の離散性最小化 : ラベル付きソースサンプルの集合 {X s, Y s } ラベルなしのターゲットサンプルの集合 { X t } 初期化生成器Gと分類器F1,F2,最大エポック数N そして、エポック 1 から N への超パラメータ α と β は、
0.87
step 1: Obtain the set of pseudo target labels {Y∗} through the Eq (7) and Eq (8). ステップ1: Eq (7) と Eq (8) を通して擬似的ターゲットラベル {Y∗} の集合を取得する。 0.80
Then train G, F1 and F2 on both source and target samples: 次に、ソースとターゲットの両方でG、F1、F2をトレーニングします。 0.59
min θg,θf 1,θf 2 ミン θg,θf 1,θf 2 0.67
Lcls (X s,Y s) + αLW Lcls (X s,Y s) + αLW 0.93
cls step 2: Train F1 and F2 to maximize the divergence between the outputs of two classifiers on target samples without label information, as well as preserve the accuracy on source samples: cls ステップ2:F1とF2をトレーニングし、2つの分類器の出力間のばらつきをラベル情報なしで最大化し、ソースサンプルの精度を維持する。 0.84
(cid:0)X t,Y∗(cid:1) , (cid:0)X t,Y∗(cid:1), 0.88
(cid:0)X t(cid:1) (cid:0)X t(cid:1) 0.81
min θf 1,θf 2 min θf 1,θf 2 0.92
Lcls (X s,Y s) − Ldis Lcls (X s,Y s) − Ldis 0.85
step 3: Train G to minimize the divergence between the outputs of two classifiers with gradient similarity constraint: ステップ3: 勾配類似性制約のある2つの分類器の出力間のばらつきを最小限にするためにGを訓練する。 0.65
(cid:0)X t(cid:1) + βLGD (cid:0)X t(cid:1) + βLGD 0.81
Ldis min θg Ldis min θg 0.87
end for trained on them, we resort to minimizing the gradient discrepancy between domains. 終止符 それらに基づいて訓練された私たちは、ドメイン間の勾配の不一致を最小限にする。 0.55
The insight of this trick is that we expect learning procedures of two domains not only finally yield a shared hypothesis, but also follow a similar optimization path. このトリックの見識は、2つのドメインの学習手順が最終的に共有仮説をもたらすだけでなく、同様の最適化パスに従うことを期待していることである。 0.65
While this may restrict the optimization dynamics for the joint hypothesis, we argue that it enables a more fine-grained optimization and effective use of the incomplete optimizer, thus enabling a more accurate joint hypothesis and improving the accuracy of UDA. これは結合仮説の最適化力学を制限する可能性があるが、不完全最適化器のよりきめ細かい最適化と有効利用を可能にし、より正確な結合仮説を可能にし、UDAの精度を向上させることができると論じる。 0.68
5. Experiments 5.1. Dataset Description 5. 実験5.1。 データセット記述 0.74
DomainNet [33] is the lagest and most challenging dataset to date for domain adaptation which contains about 600 thousand images distributed in 345 categories over 6 domains, including Clipart (clp), Infograph (inf), Painting (pnt), Quickdraw (qdr), Real (rel) and Sketch (skt). DomainNet[33]は、Clipart(clp)、Infograph(inf)、Painting(pnt)、Quickdraw(qdr)、Real(rel)、Sketch(skt)など、約6つのドメインで345のカテゴリに分散された約6万の画像を含む、ドメイン適応のための最も遅れて最も難しいデータセットである。 0.75
We adapt each domain to the other 5 domains. それぞれのドメインを他の5つのドメインに適応させます。 0.63
VisDA-2017 [34] is a challenging large-scale dataset for UDA, which focuses on the simulation-to-realit y shift. visda-2017 [34]は、シミュレーションから現実へのシフトに焦点を当てた、udaの大規模データセットである。 0.49
It consists of over 280K images across 12 categories. 12のカテゴリで280K以上の画像で構成されている。 0.60
We use the training set and the validation set as the source domain and the target domain, respectively. それぞれ、トレーニングセットと検証セットをソースドメインとターゲットドメインとして使用します。 0.68
The source domain contains 152,397 synthetic images generated by rendering レンダリングによって生成された152,397の合成画像を含むソースドメイン 0.59
英語(論文から抽出)日本語訳スコア
Table 1. Accuracy(%) on DomainNet dataset for unsupervised domain adaptation (ResNet-50). 表1。 教師なしドメイン適応(ResNet-50)のためのDomainNetデータセットの精度(%)。 0.71
We evaluate all pairwise transfers among 6 domains. 6つの領域間の全てのペア転送を評価する。 0.57
The column-wise fields are applied as the source domain while the row-wise fields represent the target domain. 列ワイズフィールドはソースドメインとして適用され、行ワイズフィールドはターゲットドメインを表す。 0.74
ResNet clp inf pnt qdr rel skt Avg. ResNet clp inf pnt qdr rel skt Avg。 0.81
CDAN clp inf pnt qdr rel skt Avg. CDAN clp inf pnt qdr rel skt Avg。 0.81
clp - 21.8 24.1 12.2 32.1 30.4 24.1 clp - clp - 21.8 24.1 12.2 32.1 30.4 24.1 clp - 0.68
18.9 29.6 11.8 36.4 38.2 27.0 18.9 29.6 11.8 36.4 38.2 27.0 0.43
inf 14.2 - inf 14.2 - 0.78
15.0 1.5 17.0 11.3 11.8 inf 13.5 15.0 1.5 17.0 11.3 11.8 inf 13.5 0.47
- 14.4 1.2 18.3 14.7 12.4 - 14.4 1.2 18.3 14.7 12.4 0.65
pnt 29.6 23.2 pnt 29.6 23.2 0.59
4.9 36.7 27.8 24.4 pnt 28.3 21.4 4.9 36.7 27.8 24.4 pnt 28.3 21.4 0.47
4.0 40.9 33.9 25.7 4.0 40.9 33.9 25.7 0.45
qdr 9.5 2.3 4.63.6 3.4 4.7 qdr 9.3 1.9 4.13.4 7.0 5.1 qdr 9.5 2.3 4.63.6 3.4 4.7 qdr 9.3 1.9 4.13.4 7.0 5.1 0.41
rel 43.8 40.6 45.0 5.6 - rel 43.8 40.6 45.0 5.6 - 0.55
32.9 33.6 rel 43.8 36.3 45.2 9.4 - 32.9 33.6 rel 43.8 36.3 45.2 9.4 - 0.50
36.6 34.3 skt 34.3 20.8 29.0 5.7 26.2 36.6 34.3 skt 34.3 20.8 29.0 5.7 26.2 0.49
- 23.2 skt 30.2 21.3 27.4 9.5 24.6 - 23.2 skt 30.2 21.3 27.4 9.5 24.6 0.66
- 22.6 Avg. - 22.6 avgだ 0.67
MCD clp 26.3 inf 21.7 pnt 23.5 qdr 6.0 23.1 rel skt 21.2 Avg. MCD clp 26.3 inf 21.7 pnt 23.5 qdr 6.0 23.1 rel skt 21.2 Avg 0.66
20.3 SWD Avg. clp 25.0 inf 20.0 pnt 24.2 7.2 qdr rel 24.7 skt 26.1 21.2 Avg. 20.3 SWD。 clp 25.0 inf 20.0 pnt 24.2 qdr rel 24.7 skt 26.1 21.2 Avg 0.72
clp - 24.1 31.1 8.5 39.4 37.3 28.1 clp - clp - 24.1 31.1 8.5 39.4 37.3 28.1 clp - 0.68
22.9 33.6 15.5 41.2 44.2 31.5 22.9 33.6 15.5 41.2 44.2 31.5 0.43
inf 15.4 - inf 15.4 - 0.78
14.8 2.1 17.8 12.6 12.5 inf 14.7 14.8 2.1 17.8 12.6 12.5 inf 14.7 0.47
- 15.3 2.2 18.1 15.2 13.1 - 15.3 2.2 18.1 15.2 13.1 0.65
pnt 25.5 24.0 pnt 25.5 24.0 0.59
4.6 41.2 27.2 24.5 pnt 31.9 24.2 4.6 41.2 27.2 24.5 pnt 31.9 24.2 0.47
6.4 44.2 37.3 28.8 6.4 44.2 37.3 28.8 0.45
qdr 3.3 1.6 1.71.5 4.1 2.4 qdr 10.1 2.5 4.44.6 10.3 6.4 qdr 3.3 1.6 1.71.5 4.1 2.4 qdr 10.1 2.5 4.44.6 10.3 6.4 0.41
rel 44.6 35.2 48.1 7.9 - rel 44.6 35.2 48.1 7.9 - 0.55
34.5 34.1 rel 45.3 33.2 46.1 11.1 34.5 34.1 rel 45.3 33.2 46.1 11.1 0.47
- 44.7 36.1 - 44.7 36.1 0.68
skt 31.2 19.7 22.8 7.1 25.2 skt 31.2 19.7 22.8 7.1 25.2 0.48
- 21.2 skt 36.5 21.3 30.7 10.2 31.6 - 21.2 skt 36.5 21.3 30.7 10.2 31.6 0.66
- 26.1 Avg. - 26.1 avgだ 0.67
24.0 20.9 23.7 6.0 25.0 23.1 20.5 Avg. 24.0 20.9 23.7 6.0 25.0 23.1 20.5 Avg. 0.49
27.7 20.0 26.0 9.1 27.9 30.3 23.6 27.7 20.0 26.0 9.1 27.9 30.3 23.6 0.43
clp - BNM clp 26.6 inf 39.9 pnt 17.8 qdr 48.6 rel 54.9 skt Avg. clp - BNM clp 26.6 inf 39.9 pnt 17.8 qdr 48.6 rel 54.9 skt Avg 0.77
37.6 CGDM clp - 37.6 CGDM clp 0.93
clp inf pnt qdr rel skt Avg. clp inf pnt qdr rel skt Avg。 0.77
27.8 37.7 14.9 49.4 50.1 36.0 27.8 37.7 14.9 49.4 50.1 36.0 0.43
inf 12.1 - inf 12.1 - 0.78
12.2 1.0 13.2 12.8 10.3 inf 16.9 12.2 1.0 13.2 12.8 10.3 inf 16.9 0.47
- 14.5 1.5 20.8 16.5 14.0 - 14.5 1.5 20.8 16.5 14.0 0.65
pnt 33.1 28.5 pnt 33.1 28.5 0.59
3.6 49.7 42.3 31.4 pnt 35.3 28.2 3.6 49.7 42.3 31.4 pnt 35.3 28.2 0.47
6.2 47.2 43.7 32.1 6.2 47.2 43.7 32.1 0.45
qdr 6.2 2.4 3.43.6 5.4 4.2 qdr 10.8 4.4 4.64.8 11.1 7.1 qdr 6.2 2.4 3.43.6 5.4 4.2 qdr 10.8 4.4 4.64.8 11.1 7.1 0.41
rel 50.8 38.5 54.5 9.2 - rel 50.8 38.5 54.5 9.2 - 0.55
51.3 40.9 rel 53.5 48.2 59.4 10.9 51.3 40.9 rel 53.5 48.2 59.4 10.9 0.47
- 55.6 45.5 - 55.6 45.5 0.68
skt 40.2 18.1 36.2 8.3 33.9 skt 40.2 18.1 36.2 8.3 33.9 0.48
- 27.3 skt 36.9 22.5 33.5 10.2 38.2 - 27.3 skt 36.9 22.5 33.5 10.2 38.2 0.66
- 28.3 Avg. - 28.3 avgだ 0.67
28.5 22.8 29.2 8.0 29.8 33.3 25.3 Avg. 28.5 22.8 29.2 8.0 29.8 33.3 25.3 Avg. 0.49
30.7 26.2 30.0 8.7 32.0 35.4 27.2 30.7 26.2 30.0 8.7 32.0 35.4 27.2 0.43
3D models and the target domain includs 55,388 real images cropped from the Microsoft COCO dataset [23]. 3Dモデルとターゲットドメインは、Microsoft COCOデータセット[23]から収集された実画像55,388枚を含む。 0.69
ImageCLEF 1 is a standard dataset for ImageCLEF 2014 domain adaptation challenge. ImageCLEF 1は、ImageCLEF 2014ドメイン適応チャレンジの標準データセットである。 0.84
It is established by selecting 12 common categories shared by the following three datasets: Caltech-256 (C), ImageNet ILSVRC2012 (I) and PASCALVOC2012(P). Caltech-256(C)、ImageNet ILSVRC2012(I)、PASCALVOC2012(P)の3つのデータセットで共有される12の共通カテゴリを選択して確立されている。 0.67
There are 600 images in each domain and 50 for each category, whcih makes a good property for experiments. 各ドメインには600のイメージがあり、各カテゴリには50のイメージがある。
訳抜け防止モード: 各ドメインに600のイメージがあり、各カテゴリに50のイメージがある。 whcihは実験に良い性質を持っている。
0.66
5.2. Implementation Details We choose PyTorch [31] framework for implementing our models. 5.2. 実施内容 私たちはモデルを実装するためにPyTorch [31]フレームワークを選択します。 0.57
NIVIDIA GeForce RTX 2080 Ti GPU is used as our hardware platform. NIVIDIA GeForce RTX 2080 Ti GPUをハードウェアプラットフォームとして使用しています。 0.80
Following MCD, we add the class balance loss in addition to the aforementioned framework to improve the diversity and accuracy in all experiments during the training procedure, the weight of which is fixed to 0.1 in this paper. 本報告では, トレーニング手順における全ての実験の多様性と精度を向上させるため, 上述のフレームワークに加えて, クラスバランス損失を加味し, 重みを0.1に固定する。 0.83
For all experiments, we resize all images to 224 × 224 × 3. すべての実験に対して、すべての画像を 224 × 224 × 3 にリサイズする。 0.81
The network architecture and the hyper-parameters setting are demonstrated as follows. ネットワークアーキテクチャとハイパーパラメータの設定は以下のとおりである。 0.81
Network Architecture. ネットワークアーキテクチャ。 0.70
In our experiments, we realize the generator G with the ResNet-50 (for DomainNet and ImageCLEF) or ResNet-101 (for VisDA-2017) [12] pretrained on ImageNet [8] to extract features from raw images. 実験では,ResNet-50(DomainNet およびImageCLEF用)とResNet-101(VisDA-201 7用)のジェネレータGをImageNet [8]で事前訓練し,生画像の特徴を抽出する。 0.73
Following [36, 14], the original fully connected (FC) layer is replaced with a bottleneck layer of 256 units and a three-layer FC network, which are employed as our classifier F1 and F2, the unit number of the hidden layer is set to 1000 in all experiments. 第36,14]の後、元の完全連結(FC)層を256ユニットのボトルネック層とF1,F2の分類器として使用される3層FCネットワークに置き換え、すべての実験において隠蔽層の単位数を1000に設定する。 0.86
A dropout layer is utilized before each FC layer and a batch normalization (BN) layer is applied after that FC layer. 各FC層の前にドロップアウト層を利用し、そのFC層の後、バッチ正規化(BN)層を適用する。 0.82
Hyper-parameters. ハイパーパラメータ。 0.66
We train the whole network in an end-to-end fashion through back-propagation. ネットワーク全体をバックエンドを通じてエンドツーエンドでトレーニングします。 0.57
Momentum SGD algorithm is used to optimize the network parameters with momentum 0.9 and weight decay ratio 5e−4. モメンタムSGDアルゴリズムは、運動量0.9と重量減衰比5e−4でネットワークパラメータを最適化するために用いられる。
訳抜け防止モード: モーメントムSGDアルゴリズム 運動量0.9と重量減衰比5e−4でネットワークパラメータを最適化する。
0.76
The classifiers are trained with learning rate 1e−3 for DomainNet and ImageCLEF, 3e−4 for VisDA-2017 since it can easily converge. 分類器は、容易に収束できるため、DomainNetとImageCLEFの学習率1e−3、VisDA-2017の3e−4で訓練される。
訳抜け防止モード: 分類器は、DomainNetとImageCLEFの学習率1e−3で訓練される。 3e−4, VisDA-2017。
0.74
The learning of the pre-trained ResNet backbone is 10 times lower that of the classifiers. 事前学習されたresnetバックボーンの学習は、分類器の10倍低い。 0.68
The batch size is set to 32 and the trade-off parameters α and β are set to 0.1 and バッチサイズを32に設定し、トレードオフパラメータα、βを0.1に設定する。
訳抜け防止モード: バッチサイズは32に設定されます オフパラメータ α と β は 0.1 に設定され
0.87
1https://www.imagecl ef.org/2014/adaptati on 1https://www.imagecl ef.org/2014/adaptati on 0.31
0.01 respectively in all experiments. Note that we do not use data augmentation such as the ten-crop ensemble used in [25, 40] during the evaluation, for fair comparison, the experimental results cited from previous works are also the versions without data augmentation. 001であった。 また, [25,40] で使用される10曲アンサンブルなどのデータ拡張は使用しないが, 比較のために, 先行研究から引用した実験結果もデータ拡張のないバージョンであることに留意されたい。 0.49
5.3. Results Here we show the comparison between our CGDM framework and other well-known UDA baselines, especially the methods that are most related to our work (e g MCD and SWD), to verify that our formulation can significantly boost the accuracy w.r.t. 5.3. 結果 本稿では、CGDMフレームワークと、他のよく知られたUDAベースラインの比較、特に我々の研究に最も関係している手法(例えば、MCDやSWD)を比較して、我々の定式化が精度を著しく向上させることを示す。 0.71
to these baselines. Note that in our experiments, the classification results are obtained by averaging the outputs of two distinct classifiers. このベースラインに 実験では、2つの異なる分類器の出力を平均することで分類結果を得る。 0.61
The quantitative results are described as follows. 定量的な結果は以下の通りである。 0.69
Results on DomainNet. DomainNetによる結果。 0.83
In this experiment, we transfer each domain to the other five domains, and the class-wise average accuracy of each adaptation is recported in Table 1. この実験では、各ドメインを他の5つのドメインに転送し、各適応のクラス毎の平均精度を表1に書き込む。 0.82
From Table 1, our CGDM evidently supresses other mainstream domain adaptation methods in mean accuracy. 表1からcgdmは,他の主流領域適応法を平均的精度で抑圧する。 0.73
The results are obtained after 10 epochs. 結果は10時間後に得られます。 0.75
In particular, both MCD and SWD perform significantly poorer than our method with 6.7% and 3.6% lower mean accuracy. 特に, MCDとSWDは, 平均精度が6.7%, 平均精度が3.6%の手法よりも有意に劣っている。 0.70
The low accuracy of the source only model can infer that original target samples are likely to be distributed in a mess facing such a challenging dataset with a large number of categories. ソースのみのモデルの精度が低いことは、元のターゲットサンプルが、多くのカテゴリで困難なデータセットに直面した混乱の中で分散される可能性が高いことを推測することができる。
訳抜け防止モード: ソースのみモデルの低い精度は、元のターゲットサンプルが可能性が高いことを推測できる さまざまなカテゴリのデータセットに直面する混乱の中で分散されます。
0.79
Although the target samples outside the suport of the source can be detected by the classifiers, they seem like to be matched to wrong decision boundaries, resulting in the wrong category-level alignment. ソースのサポート外のターゲットサンプルは分類器によって検出できるが、誤った決定境界と一致しているようで、結果としてカテゴリレベルのアライメントが間違っている。 0.75
For other adversarial methods, they just forcibly align distributions and neglect the inherent gap between the source domain and the target domain, which may result in negative transfer. 他の敵対的手法では、分布を強制的に整列させ、ソースドメインとターゲットドメインの間に固有のギャップを無視するだけで、負の移動をもたらす可能性がある。 0.58
Our method applies a clustering-based self-supervised mechanism to improve the original accuracy of target samples, and the discrepancy between gradients of two domains is minimized to induce the generator to learn towards the direction of accurate classification for both source domain and target domain samples. 本手法は,ターゲットサンプルの本来の精度を向上させるためにクラスタリングに基づく自己教師付き機構を適用し,2つのドメインの勾配間の不一致を最小限に抑え,ソース領域とターゲット領域のサンプルの正確な分類の方向をジェネレータに学習させる。 0.78
The results on Table 1 suggest that our model can still achieve a more accurate adaptation in the target domain when facing such 表1の結果は、このモデルが対象領域においてより正確に適応できることを示唆している。 0.75
英語(論文から抽出)日本語訳スコア
Method ResNet [12] DAN [24] DANN [9] MinEnt [11] MCD [36] ADR [35] SWD [14] 方法 ResNet [12] DAN [24] DANN [9] MinEnt [11] MCD [36] ADR [35] SWD [14] 0.81
CDAN+E [25] CDAN+E[25] 0.83
AFN [40] BNM [7] AFN[40]BNM[7] 0.82
MSTN+DSBN [3] MSTN+DSBN[3] 0.83
CGDM (ours) CGDM (ours) 0.85
Table 2. Accuracy(%) on VisDA-2017 dataset for unsupervised domain adaptation (ResNet-101). 表2。 教師なしドメイン適応(ResNet-101)のためのVisDA-2017データセットの精度(%)。 0.64
train 73.5 85.8 82.8 79.3 83.0 85.5 85.6 81.9 89.0 89.1 88.3 86.8 train 73.5 85.8 82.8 79.3 83.0 85.5 85.6 81.9 89.0 89.1 88.3 86.8 0.43
knife mcycl 79.7 17.9 85.9 42.9 65.1 29.5 27.3 69.7 84.7 79.6 88.9 61.8 86.3 69.5 88.1 74.9 91.8 79.0 81.3 69.1 87.9 75.1 94.5 88.7 knife mcycl 79.7 17.9 85.9 42.9 65.1 29.5 27.3 69.7 84.7 79.6 88.9 61.8 86.3 69.5 88.1 74.9 91.8 79.0 81.3 69.1 87.9 75.1 94.5 88.7 0.42
person 31.2 53.1 28.6 40.2 76.9 73.2 77.5 74.5 79.6 65.5 81.3 82.1 person 31.2 53.1 28.6 40.2 76.9 73.2 77.5 74.5 79.6 65.5 81.3 82.1 0.43
sktbrd 26.5 36.3 54.6 46.6 40.3 60.0 63.6 76.0 55.6 47.3 68.9 82.5 sktbrd 26.5 36.3 54.6 46.6 40.3 60.0 63.6 76.0 55.6 47.3 68.9 82.5 0.43
plane 55.1 87.1 81.9 80.3 87.0 87.8 90.8 85.2 93.6 89.6 94.7 93.4 plane 55.1 87.1 81.9 80.3 87.0 87.8 90.8 85.2 93.6 89.6 94.7 93.4 0.43
horse 80.6 90.3 81.2 77.9 88.9 92.3 91.7 84.2 94.1 89.3 95.2 92.9 horse 80.6 90.3 81.2 77.9 88.9 92.3 91.7 84.2 94.1 89.3 95.2 92.9 0.43
bcycl 53.3 63.0 77.7 75.5 60.9 79.5 82.5 66.9 61.3 61.5 86.7 82.7 bcycl 53.3 63.0 77.7 75.5 60.9 79.5 82.5 66.9 61.3 61.5 86.7 82.7 0.43
plant 81.0 49.7 51.9 46.5 88.6 87.8 87.4 83.4 89.9 90.0 91.1 93.4 plant 81.0 49.7 51.9 46.5 88.6 87.8 87.4 83.4 89.9 90.0 91.1 93.4 0.43
bus 61.9 76.5 82.8 75.8 83.7 83.7 81.7 83.0 84.1 76.9 76.0 73.2 bus 61.9 76.5 82.8 75.8 83.7 83.7 81.7 83.0 84.1 76.9 76.0 73.2 0.43
car 59.1 42.0 44.3 48.3 64.0 65.3 70.5 50.8 70.6 55.0 72.0 68.4 car 59.1 42.0 44.3 48.3 64.0 65.3 70.5 50.8 70.6 55.0 72.0 68.4 0.43
truck 8.5 20.7 7.8 16.0 25.8 32.3 29.2 38.0 24.4 30.1 45.5 49.2 truck 8.5 20.7 7.8 16.0 25.8 32.3 29.2 38.0 24.4 30.1 45.5 49.2 0.43
Avg. 52.4 61.6 57.4 57.0 71.9 74.8 76.4 73.9 76.1 70.4 80.2 82.3 avgだ 52.4 61.6 57.4 57.0 71.9 74.8 76.4 73.9 76.1 70.4 80.2 82.3 0.49
(a) ResNet-50 (a)ResNet-50 0.73
(d) Ours Figure 3. Visualization of features using t-SNE. (d)第3図 t-SNEによる特徴の可視化 0.60
We take C (red) → I (green) on ImageCLEF as an example. 例として、ImageCLEF 上で C (red) → I (green) を例に挙げる。 0.80
(b) DANN (c) MCD (b)DANN (c)mcd 0.78
(a) Classification Loss (b) Target Accuracy a) 分類上の損失 (b)目標精度 0.84
Figure 4. Training process. We take C → I on ImageCLEF as an example. 図4。 訓練過程。 例として ImageCLEF の C → I を挙げる。 0.75
The left figure depicts the classification loss during training. 左図は訓練中の分類損失を描いている。 0.76
The right figure reports the accuracy of the target domain during the training. 適切な図は、トレーニング中にターゲットドメインの精度を報告します。 0.75
(a) Parameter Sensitivity (a)パラメータの感度 0.93
(b) Ablation Analysis (b)アブレーション分析 0.90
Figure 5. Model analysis. 図5。 モデル分析。 0.77
The left figure shows the parameter sensitivity of our model (We take the task C → I as an example). 左図は我々のモデルのパラメータ感度を示しています(タスク C → I を例にとります)。 0.82
While the right figure shows the ablation study on ImageCLEF. 右図はImageCLEFのアブレーション研究を示している。 0.70
The w/o is short for without, sup for self-supervised learning and gdm for gradient discrepancy minimization, respectively. w/o は、自己教師付き学習用sup と、勾配差最小化用gdm である。
訳抜け防止モード: w/oは無用で、自己指導型学習のためのsup 差分最小化はgdmであった。
0.61
a large-scale dataset. 大規模なデータセット。 0.69
Results on VisDA-2017. VisDA-2017の結果。 0.72
We obtain the results on VisDA-2017 dataset after 10 epochs. visda-2017データセットで10エポックの後に結果を得る。 0.62
The results in Table 2 illustrate our method can still outperform other popular ap- 表2の結果は、この方法が他の人気のあるapよりも優れていることを示している。 0.45
proaches even if there is a large domain gap between synthetic and real images. 合成画像と実画像の間に大きな領域ギャップがあっても 痛む。 0.65
Specifically, our method performs much better than the source only model in all categories with the improvement up to 29.9% in terms of mean accuracy. 具体的には,平均精度が最大29.9%向上した全カテゴリにおいて,ソースモデルよりもはるかに優れた性能を示す。 0.80
For MCD and SWD which also apply the bi-classifier adversarial learning paradigm, our method also significantly supresses them with the improvement of 10.4% and 5.9% respectively. 両分類器の逆学習パラダイムを適用したmcdとswdでは、それぞれ10.4%と5.9%の改善で、これらを著しく抑圧している。 0.54
In general, our method achieves the best in 5 categories: knife, person, plant, sktbrd and truck. 本手法は一般的に, ナイフ, 人, 植物, スクトブレッド, トラックの5つのカテゴリーで最適である。 0.64
In more difficult categories such as knife, sktbrd and truck, our method is much better than other existing methods, achieving 94.5%, 82.5% and 49.2% respectively. ナイフ、sktbrd、トラックなどのより難しい分類では、従来の方法よりもはるかに優れた手法であり、それぞれ94.5%、82.5%、49.2%となっている。 0.60
These excellent results strongly demonstrate the advantage of our method in improving the accuracy of the target domain. これらの優れた結果から,本手法は対象領域の精度を向上させる効果を強く示している。 0.71
Results on ImageCLEF. ImageCLEFによる結果。 0.81
We access 6 types of adaptation scenarios on ImageCLEF and Table 3 reports the experimental results. imageclef上で6種類の適応シナリオにアクセスし,実験結果を表3に報告する。 0.75
We stop the training process after 100 epochs. 100エポックの後にトレーニングプロセスを止めます。 0.68
The experimental results of the comparative methods are cited from previous papers, sine some of them do not reported the randomness on this dataset, so we do not report their randomness too. 比較手法の実験結果は過去の論文から引用され,その一部はこのデータセットのランダム性を報告していないため,それらのランダム性も報告していない。 0.84
Table 3 shows that our method outperforms other popular baselines and achieves the best average accuracy (89.5%). 表3は、我々の手法が他の一般的なベースラインより優れ、最高の平均精度(89.5%)を達成することを示している。 0.51
As for the difficult scenarios (e g C → P), our method can obviously improve the accuracy of the target domain, which shows the effectiveness of our approach. 難解なシナリオ(eg C → P)について、本手法は対象領域の精度を明らかに向上させ、アプローチの有効性を示す。
訳抜け防止モード: 難解なシナリオ(e g C → P )について 我々の方法は 明らかに ターゲットドメインの精度を向上できる このアプローチの有効性を示します
0.72
In addition, in scenarios that involve many categories (DomainNet) or there is a large domain gap (VisDA-2017), our model outperforms other methods by a large margin. さらに、多くのカテゴリ(DomainNet)や大きなドメインギャップ(VisDA-2017)を含むシナリオでは、我々のモデルは、大きなマージンで他のメソッドよりも優れています。 0.76
We can empirically conclude that the the consideration of accuracy is particularly important in these scenarios. これらのシナリオでは精度の考慮が特に重要であると実証的に結論付けることができる。 0.69
02550751001251501752 00Number of Iterations0.00.51.01 .52.02.5Classificati on Loss0255075100125150 175Number of Iterations0204060801 00Accuracy (%)00.0010.0050.010. 10.30.51.03.05.0Valu es of the parameter70758085909 5Accuracy (%)w/o bothw/o sup w/o gdmwith bothSettings80828486 88909294Accuracy (%)85.188.088.489.5 0255075100125150175N umber of Iterations0.00.51.52 .5Classification Loss0255075100125150 175Number of Iterations0204060801 00Accuracy (%)00.0010.00.00.00. 010.10.30.51.03.05.0 Values of the parameter70758085909 5Accuracy (%)w/o bothw/o sup w/o gdmwith both Settings808286889092 94Accuracy (%)85.188.088.489.5 0.37
英語(論文から抽出)日本語訳スコア
Method (Source → Target) メソッド(ソース → ターゲット) 0.74
Table 3. Accuracy(%) on ImageCLEF dataset for unsupervised domain adaptation (ResNet-50). 表3。 教師なしドメイン適応(ResNet-50)のためのImageCLEFデータセット上の精度(%)。 0.69
I → P 74.8±0.3 74.5±0.4 75.0±0.6 I → P 74.8±0.3 74.5±0.4 75.0±0.6 0.33
75.6 P → I 83.9±0.1 82.2±0.2 86.0±0.3 75.6 P → I 83.9±0.1 82.2±0.2 86.0±0.3 0.46
86.8 I → C 91.5±0.3 92.8±0.2 96.2±0.4 86.8 I → C 91.5±0.3 92.8±0.2 96.2±0.4 0.46
95.3 C → I 78.0±0.2 86.3±0.4 87.0±0.5 95.3 C → I 78.0±0.2 86.3±0.4 87.0±0.5 0.46
86.9 C → P 65.5±0.3 69.2±0.4 74.3±0.5 86.9 C → P65.5±0.3 69.2±0.474.3±0.5 0.46
72.7 P → C 91.2±0.3 89.80±0.4 91.5±0.6 72.7 P → C 91.2±0.3 89.80±0.4 91.5±0.6 0.46
92.2 Avg 80.7 82.5 84.9 85.0 83.0 85.1 87.7 88.9 88.1 89.5 92.2 Avg 80.7 82.5 84.9 85.0 83.0 85.1 87.7 88.9 88.1 89.5 0.51
ResNet [12] DAN [24] RTN [26] DANN [9] MinEnt [11] MCD [36] ResNet [12] DAN [24] RTN [26] DANN [9] MinEnt [11] MCD [36] 0.85
CDAN+E [25] CDAN+E[25] 0.83
AFN [40] BNM [7] AFN[40]BNM[7] 0.82
CGDM (ours) CGDM (ours) 0.85
76.2 77.3 77.7±0.3 79.3±0.1 78.7±0.2 76.2 77.3 77.7±0.3 79.3±0.1 78.7±0.2 0.36
77.2 85.7 89.2 77.2 85.7 89.2 0.55
90.7±0.2 93.3±0.4 93.3±0.1 90.7±0.2 93.3±0.4 93.3±0.1 0.21
91.2 93.5 92.7 91.2 93.5 92.7 0.55
97.7±0.3 96.3±0.4 97.5±0.3 97.7±0.3 96.3±0.4 97.5±0.3 0.21
96.2 83.5 88.2 96.2 83.5 88.2 0.55
91.3±0.3 91.7±0.0 92.7±0.2 91.3±0.3 91.7±0.0 92.7±0.2 0.21
91.7 69.3 71.0 91.7 69.3 71.0 0.55
74.2±0.2 77.6±0.1 79.2±0.1 74.2±0.2 77.6±0.1 79.2±0.1 0.21
75.7 89.7 92.3 75.7 89.7 92.3 0.55
94.3±0.3 95.3±0.1 95.7±0.2 94.3±0.3 95.3±0.1 95.7±0.2 0.21
96.7 5.4. Model Analysis 96.7 5.4. モデル分析 0.71
In this section, we take a further step to analyze the properties of the model in terms of convergence, feature visualization, parameter sensitivity and ablation study. 本稿では,モデルの収束,特徴の可視化,パラメータの感度,アブレーション研究の観点から,モデルの性質を分析するためのさらなるステップについて述べる。 0.79
Feature Visualization. To further demonstrate the effectiveness of our model and have an intuitive understanding, we visualize the feature distribution learned by the model using t-SNE [29]. 特徴可視化。 モデルの有効性をさらに実証し、直感的な理解を得るため、t-SNE [29] を用いてモデルで学習した特徴分布を可視化する。 0.77
We take C → I on ImageCLEF as an example. 例として ImageCLEF の C → I を挙げる。 0.81
It shows that in all scenarios, the source samples present a discriminative distribution. すべてのシナリオにおいて、ソースサンプルは差別的な分布を示す。 0.77
While in the absence of domain adaptation, the target samples likely to be disorganized, as shown in Fig 3(a). ドメイン適応がない場合、ターゲットサンプルは、図3(a)に示すように、分解される可能性が高い。 0.69
Fig 3(b) shows that using the domain adversarial neural network, the distribution discrepancy between the source domain and the target domain is reduced, while the discriminability of the target domain is relatively poor. 図3(b)は、ドメイン逆ニューラルネットワークを用いて、ソース領域とターゲット領域との分布不一致を低減し、ターゲット領域の判別性が比較的低いことを示す。 0.76
Fig 3(c) shows that MCD improves the discriminability of features. fig 3(c)は、mcdが特徴の判別性を改善することを示している。 0.54
After using our method, the distribution of target samples aligns well with the source one at category-level. 本手法を用いた場合,対象試料の分布は,カテゴリレベルではソース試料とよく一致する。 0.75
The result verifies the effectiveness and feasibility of our method. その結果,本手法の有効性と妥当性が検証された。 0.58
Convergence. In order to verify the convergence tendency of our method, we report the classification loss on source samples in Fig 4(a), this loss is obtained on the classifier F1. 収束。 本手法の収束傾向を検証するために,第4(a)図のソースサンプルの分類損失を報告し,この損失を分類器f1で求める。 0.63
Fig 4(b) depicts the accuracy curve of target samples during the training process. 図4(b)は、トレーニングプロセス中のターゲットサンプルの精度曲線を示している。 0.85
Here we take C → I on ImageCLEF as an example. ここでは ImageCLEF 上の C → I を例に挙げる。 0.88
These figures show that our method can markedly reduce the loss and improve the accuracy with the number of iterations increases, which proves that the training process is smooth and convergent. これらの結果から,本手法は,反復数の増加に伴う損失を著しく低減し,精度を向上させることが可能であり,トレーニングプロセスがスムーズで収束することを示す。 0.75
Sensitivity to Hyper-Parameter. ハイパーパラメータに対する感度 0.76
We check the hyperparameter sensitivity of our model. 私たちはモデルのハイパーパラメータの感度をチェックします。 0.63
Our framework involves two hyper-parameters α and β, the gradient discrepancy loss constitutes the main new methodological contribution in this paper while the self-supervised loss is used as an auxiliary loss, so we fix the α as 0.1 because we empirically find that it performs well in this value. この枠組みは2つの超パラメータαとβを含み, 勾配差損失は本論文における主要な新しい方法論的貢献であり, 自己教師付き損失は補助損失として用いられるため, αを0.1に固定する。 0.79
Then we report the accuracy of C → I by turning β form 0 to 5, which is shown in Fig 5(a). 次に、β を 0 から 5 に変換することにより、C → I の精度を報告し、図 5(a) に示す。 0.76
When β is between 0 and 1, there was no obvious deterioration in accuracy, when β is larger than 1, the accuracy begins to decline since the weight of the gradient discrepancy loss is larger than that of the supervised β が 0 と 1 の間にあるとき,β が 1 より大きい場合には,勾配差損失の重みが監督者のそれよりも大きいため,精度が低下し始める。
訳抜け防止モード: β が 0 から 1 の間にある場合、精度の明らかな低下は認められなかった。 βが1より大きい場合、精度は始まります 勾配差の重みが教師の重みよりも大きいので,減少する
0.77
learning loss on source samples. ソースサンプルでの学習損失。 0.79
In general, our model is not sensitive to parameters. 一般に、我々のモデルはパラメータに敏感ではない。 0.78
Ablation Study. アブレーション研究。 0.69
Our framework is composed of a selfsupervised learning module and a gradient discrepancy minimization module. 本フレームワークは,自己教師付き学習モジュールと勾配偏差最小化モジュールから構成される。 0.79
In order to test the effectiveness of each module, we conduct experiments without the selfsupervised learning and the gradient discrepancy minimization, respectively. 本研究は,各モジュールの有効性をテストするために,自己教師型学習と勾配差最小化を用いない実験を行う。 0.79
Limited by space, we take the mean accuracy on ImageCLEF as an example. 空間によって制限される場合、画像CLEFの平均精度を例に挙げる。 0.70
As shown in Fig 5(b), both two modules can significantly improve the accuracy compared to the vanilla bi-classifier adversarial learning, and the model performs better when they work together. 図5(b)に示すように、2つのモジュールは、バニラ双分類子対逆学習と比較して精度が大幅に向上し、協調作業時のモデルの性能が向上する。 0.76
Conditional Gradient Discrepancy. We use two types of gradient discrepancy in this paper. 条件勾配の不一致。 本論文では2種類の勾配差を用いる。 0.61
In addition to align marginal gradients by regarding all samples in a batch as a whole, we have tried to align gradients for source and target samples within the same category separately. バッチ内のすべてのサンプルを全体として考慮し,限界勾配の調整に加えて,同じカテゴリ内のソースとターゲットサンプルの勾配を別々に調整することを試みた。 0.81
However, in our experiments, we could not see obvious improvement using the latter version. しかし、我々の実験では、後者のバージョンで明らかな改善が見られなかった。 0.77
It indicates that the overall gradient of a batch is able to express the category information of the domain, thus we use the former one for less computation. これは、バッチの全体的な勾配がドメインのカテゴリ情報を表現可能であることを示し、計算量を減らすために前者を使用する。 0.66
6. Conclusion In this paper, we investigate the inaccurate issue of the conventional bi-classifier adversarial learning for domain adaptation. 6. 結論 本稿では,従来の二分類型逆学習のドメイン適応における不正確な問題について検討する。 0.72
To alleviate this issue, we propose a novel UDA method which aims to minimize the gradient discrepancy between two domains to achieve a better distribution alignment at category-level. そこで本研究では,2つの領域間の勾配差を最小化し,カテゴリレベルでの分布アライメントを改善するための新しいuda法を提案する。 0.77
In addition, self-supervised learning is used to obtain more reliable pseudo labels of target samples. さらに, 自己教師付き学習を用いて, 対象サンプルのより信頼性の高い擬似ラベルを得る。 0.73
Extensive experimental results on large scale datasets demonstrate the advantage of our method. 大規模データセットの大規模な実験結果から,本手法の利点が示された。 0.64
Acknowledgement This work was supported in part by the National Natural Science Foundation of China under Grant 61806039, 62073059 and 61832001, and in part by Sichuan Science and Technology Program under Grant 2020YFG0080. 承諾 この研究は、Grant 61806039、62073059、および61832001の下で中国自然科学財団(National Natural Science Foundation of China)によって支援され、Grant 2020YFG0080の下で中国科学技術プログラム(Sichuan Science and Technology Program)によって支援された。
訳抜け防止モード: 承諾 この研究は、Grant 61806039、62073059、および61832001の下で中国自然科学財団によって部分的に支援された。 一部は、Grant 2020YFG0080の四川科学技術プログラムによるものだ。
0.57
英語(論文から抽出)日本語訳スコア
References [1] Shai Ben-David, 参照 [1] Shai Ben-David 0.88
John Blitzer, Koby Crammer, Alex Kulesza, Fernando Pereira, and Jennifer Wortman Vaughan. John Blitzer、Koby Crammer、Alex Kulesza、Fernando Pereira、Jennifer Wortman Vaughan。 0.71
A theory of learning from different domains. 異なる領域から学ぶ理論。 0.50
Machine learning, 79(1):151–175, 2010. 機械学習, 79(1):151–175, 2010 0.85
5 [2] Mathilde Caron, Piotr Bojanowski, Armand Joulin, and Matthijs Douze. 5 ^ Mathilde Caron, Piotr Bojanowski, Armand Joulin, Matthijs Douze 0.71
Deep clustering for unsupervised learning of visual features. 視覚的特徴の教師なし学習のための深いクラスタリング。 0.62
In Proceedings of the European Conference on Computer Vision (ECCV), pages 132–149, 2018. Proceedings of the European Conference on Computer Vision (ECCV) 2018年、132-149頁。 0.79
3, 4 [3] Woong-Gi Chang, Tackgeun You, Seonguk Seo, Suha Kwak, and Bohyung Han. 3, 4 [3]Woong-Gi Chang、Takgeun You、Seonguk Seo、Suha Kwak、Bohyung Han。 0.80
Domain-specific batch normalization In Proceedings of for unsupervised domain adaptation. ドメイン固有のバッチ正規化 教師なしドメイン適応の証明。 0.62
the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 7354–7362, 2019. IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 7354–7362, 2019 0.91
7 [4] Chaoqi Chen, Zebiao Zheng, Xinghao Ding, Yue Huang, and Qi Dou. 7 [4]Chaoqi Chen、Zebiao Zheng、Xinghao Ding、Yue Huang、Qi Dou。 0.77
Harmonizing transferability and discriminability for adapting object detectors. 物体検出器適応のための搬送性と識別性の調和 0.62
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 8869–8878, 2020. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 8869–8878, 2020。 0.92
5 [5] Xinyang Chen, Sinan Wang, Mingsheng Long, and Jianmin Wang. 5 [5]新陽陳、四南王、明宗長、鑑民王。 0.68
Transferability vs. discriminability: Batch spectral penalization for adversarial domain adaptation. transferability vs. discriminability: 逆領域適応のためのバッチスペクトルペナルティ 0.81
In International Conference on Machine Learning, pages 1081–1090, 2019. International Conference on Machine Learningで、2019年1081-1090頁。 0.82
1 [6] Jaehoon Choi, Minki Jeong, Taekyung Kim, and Changick Kim. 1 [6]Jeehoon Choi,Minki Jeong,Tekyung Kim,Changick Kim。 0.77
Pseudo-labeling curriculum for unsupervised domain adaptation. 教師なしドメイン適応のための擬似ラベルカリキュラム 0.54
arXiv preprint arXiv:1908.00262, 2019. arXiv preprint arXiv:1908.00262, 2019 0.81
2, 4 [7] Shuhao Cui, Shuhui Wang, Junbao Zhuo, Liang Li, Qingming Huang, and Qi Tian. 2, 4 [7]周波王・周海王・順波王・梁利・清明王・清天。 0.64
Towards discriminability and diversity: Batch nuclear-norm maximization under label insufficient situations. 識別性と多様性に向けて:ラベル不足条件下でのバッチ核ノルム最大化。 0.55
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 3941–3950, 2020. The Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 3941–3950, 2020。 0.91
7, 8 [8] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. 7, 8 [8]Jia Deng、Wei Dong、Richard Socher、Li-Jia Li、Kai Li、Li Fei-Fei。 0.82
Imagenet: A large-scale hierarchical image database. Imagenet: 大規模な階層型イメージデータベース。 0.85
In 2009 IEEE conference on computer vision and pattern recognition, pages 248–255. 2009年、ieee conference on computer vision and pattern recognition 248-255ページ。 0.80
Ieee, 2009. Ieee, 2009年。 0.89
6 [9] Yaroslav Ganin and Victor Lempitsky. 6 9]ヤロスラフ・ガニンとヴィクトル・レンピツキー。 0.63
Unsupervised domain adaptation by backpropagation. バックプロパゲーションによる教師なしドメイン適応 0.53
In International conference on machine learning, pages 1180–1189, 2015. 機械学習に関する国際会議、2015年1180-1189頁。 0.73
1, 2, 7, 8 1, 2, 7, 8 0.85
[10] Yaroslav Ganin, Evgeniya Ustinova, Hana Ajakan, Pascal Germain, Hugo Larochelle, Franc¸ois Laviolette, Mario Marchand, and Victor Lempitsky. Yaroslav Ganin, Evgeniya Ustinova, Hana Ajakan, Pascal Germain, Hugo Larochelle, Franc sois Laviolette, Mario Marchand, Victor Lempitsky. [10] Yaroslav Ganin, Evgeniya Ustinova, Hana Ajakan, Pascal Germain, Hugo Larochelle. 0.73
Domain-adversarial training of neural networks. ニューラルネットワークのドメイン・adversarial training。 0.72
The Journal of Machine Learning Research, 17(1):2096–2030, 2016. journal of machine learning research, 17(1):2096–2030, 2016を参照。 0.84
1 [11] Yves Grandvalet and Yoshua Bengio. 1 [11]Yves GrandvaletとYoshua Bengio。 0.80
Semi-supervised In Advances in neural learning by entropy minimization. エントロピー最小化によるニューラルネットワークの進歩に関する半教師あり 0.55
information processing systems, pages 529–536, 2005. 情報処理システム、2005年529-536頁。 0.83
7, 8 [12] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. 7. 8[12]開明,Xiangyu Zhang,Shaoqing Ren,Jian Sun。 0.59
Deep residual learning for image recognition. 画像認識のための深い残差学習 0.81
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 770–778, 2016. Proceedings of the IEEE conference on computer vision and pattern recognition, page 770–778, 2016 0.80
6, 7, 8 [13] Guoliang Kang, Lu Jiang, Yi Yang, and Alexander G Hauptmann. 6, 7, 8 13]guoliang kang、lu jiang、yi yang、alexander g hauptmann。 0.65
Contrastive adaptation network for unsupervised domain adaptation. 教師なしドメイン適応のためのコントラスト適応ネットワーク 0.68
In Proceedings of the IEEE/CVF Confer- IEEE/CVF会議の成果- 0.85
ence on Computer Vision and Pattern Recognition, pages 4893–4902, 2019. ence on Computer Vision and Pattern Recognition, page 4893–4902, 2019 0.86
2, 3 [14] Chen-Yu Lee, Tanmay Batra, Mohammad Haris Baig, and Daniel Ulbricht. 2, 3 14]Chen-Yu Lee, Tanmay Batra, Mohammad Haris Baig, Daniel Ulbricht。 0.79
Sliced wasserstein discrepancy for unsupervised domain adaptation. 無監督領域適応に対するスライスワッセルシュタインの相違 0.41
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 10285–10295, 2019. The Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, page 10285–10295, 2019。 0.89
1, 2, 3, 6, 7 1, 2, 3, 6, 7 0.85
[15] Jingjing Li, Erpeng Chen, Zhengming Ding, Lei Zhu, Ke Lu, and Zi Huang. [15]ジンジン・リ、エルペン・チェン、Zhengming Ding、Lei Zhu、Ke Lu、Zi Huang。 0.60
Cycle-consistent conditional adversarial In Proceedings of the 27th ACM Intertransfer networks. 第27回acmインタートランスファーネットワークの手続におけるサイクル一貫性条件付き逆境 0.63
national Conference on Multimedia, pages 747–755, 2019. 全国マルチメディア会議 747-755頁、2019年。 0.70
2 [16] Jingjing Li, Erpeng Chen, Zhengming Ding, Lei Zhu, Ke Lu, and Heng Tao Shen. 2 [16]ジンジン・リ、エルペン・チェン、Zhengming Ding、Lei Zhu、Ke Lu、Heng Tao Shen。 0.73
Maximum density divergence for IEEE transactions on pattern analysis domain adaptation. パターン解析領域適応におけるIEEEトランザクションの最大密度分散 0.75
and machine intelligence, 2020. マシン・インテリジェンス、2020年。 0.72
2 [17] Jingjing Li, Mengmeng Jing, Ke Lu, Lei Zhu, and Heng Tao Shen. 2 [17]Jingjing Li、Mengmeng Jing、Ke Lu、Lei Zhu、Hong Tao Shen。 0.76
Locality preserving joint transfer for domain adaptation. ドメイン適応のためのジョイント転送の局所性保存 0.68
IEEE Transactions on Image Processing, 28(12):6103– 6115, 2019. IEEE Transactions on Image Processing, 28(12):6103–6115, 2019 0.87
2 [18] Jingjing Li, Mengmeng Jing, Hongzu Su, Ke Lu, Lei Zhu, and Heng Tao Shen. 2 【18]李清、満州清、ホンズスー、ケ・ル、レイ・ズー、 heng tao shen
訳抜け防止モード: 2 [18 ]ジンジン・リー、メンメン・ジン、ホンズ・スー、 Ke Lu , Lei Zhu, and Heng Tao Shen
0.71
Faster domain adaptation networks. ドメイン適応ネットワークの高速化。 0.66
IEEE Transactions on Knowledge and Data Engineering, 2021. IEEE Transactions on Knowledge and Data Engineering, 2021。 0.80
1 [19] Jingjing Li, Ke Lu, Zi Huang, Lei Zhu, and Heng Tao Shen. 1 19]ジンジュ・リー、ケ・ル、ジ・フアン、レイ・ズー、ヘン・タオ・シェン 0.69
Heterogeneous domain adaptation through progressive alignment. プログレッシブアライメントによる異種ドメイン適応。 0.73
IEEE transactions on neural networks and learning systems, 30(5):1381–1391, 2018. IEEEによるニューラルネットワークと学習システムのトランザクション 30(5):1381–1391, 2018。 0.87
1 [20] Jingjing Li, Ke Lu, Zi Huang, Lei Zhu, and Heng Tao Shen. 1 20]ジンジュ・リー、ケ・ル、ジ・フアン、レイ・ズー、ヘン・タオ・シェン 0.68
Transfer independently together: A generalized framework IEEE transactions on cybernetics, for domain adaptation. transfer independent together: ドメイン適応のための、サイバネティックスでのieeeトランザクションの汎用フレームワーク。 0.65
49(6):2144–2155, 2018. 49(6):2144–2155, 2018. 0.88
2 [21] Shuang Li, Chi Harold Liu, Qiuxia Lin, Qi Wen, Limin Su, Gao Huang, and Zhengming Ding. 2 [21]Shuang Li、Chi Harold Liu、Qiuxia Lin、Qi Wen、Limin Su、Gao Huang、Zhengming Ding。 0.77
Deep residual correction IEEE Transactions network for partial domain adaptation. 部分領域適応のための深い残差補正IEEEトランザクションネットワーク 0.70
on Pattern Analysis and Machine Intelligence, 2020. パターン分析とマシンインテリジェンスについて、2020年。 0.75
2 [22] Jian Liang, Dapeng Hu, and Jiashi Feng. 2 [22]Jian Liang, Dapeng Hu, Jiashi Feng 0.72
Do we really need to access the source data? 本当にソースデータにアクセスする必要があるのか? 0.80
source hypothesis transarXiv preprint fer for unsupervised domain adaptation. source hypothesis transarXiv preprint fer for unsupervised domain adaptation 0.72
arXiv:2002.08546, 2020. arXiv:2002.08546, 2020。 0.63
3, 4 [23] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Doll´ar, and C Lawrence Zitnick. 3, 4 [23]tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Doll ́ar, C Lawrence Zitnick。 0.86
Microsoft coco: Common objects in context. Microsoft Coco: コンテキスト内の共通オブジェクト。 0.83
In European conference on computer vision, pages 740–755. 欧州のコンピュータビジョン会議において、740-755頁。 0.72
Springer, 2014. 6 [24] Mingsheng Long, Yue Cao, Jianmin Wang, and Michael Jordan. 2014年春。 6 [24]Mingsheng Long、Yue Cao、Jianmin Wang、Michael Jordan。 0.69
Learning transferable features with deep adaptation netIn International conference on machine learning, works. 深層適応ネットを用いたトランスファー可能な機能 マシンラーニングに関する国際会議は、動作する。 0.63
pages 97–105. PMLR, 2015. 97-105頁。 2015年、PMLR。 0.67
1, 2, 7, 8 1, 2, 7, 8 0.85
[25] Mingsheng Long, Zhangjie Cao, [25]明宗長、張江曹 0.54
Jianmin Wang, and Michael I Jordan. ジャンミン・ワンとマイケル・i・ジョーダン 0.50
Conditional adversarial domain adaptation. 条件付き対向ドメイン適応。 0.77
In Advances in Neural Information Processing Systems, pages 1640–1650, 2018. Advanceds in Neural Information Processing Systems, page 1640–1650, 2018。 0.83
1, 2, 6, 7, 8 1, 2, 6, 7, 8 0.85
[26] Mingsheng Long, Han Zhu, Jianmin Wang, and Michael I Jordan. [26]明宗長、漢周、Jianmin Wang、マイケル1世ヨルダン。 0.66
Unsupervised domain adaptation with residual transfer networks. 残差転送ネットワークを用いた教師なしドメイン適応 0.74
In Advances in neural information processing systems, pages 136–144, 2016. Advanceds in Neural Information Processing System, page 136–144, 2016 0.71
2, 8 2, 8 0.85
英語(論文から抽出)日本語訳スコア
IEEE International Conference on Computer Vision, pages 1426–1435, 2019. IEEE International Conference on Computer Vision, page 1426–1435, 2019 0.88
6, 7, 8 [41] Hongliang Yan, Zhetao Li, Qilong Wang, Peihua Li, Yong Xu, and Wangmeng Zuo. 6, 7, 8 [41]ホングリアン・ヤン、ヘタオ・リー、キロン・ワン、ペイワ・リー、ヨン・ク、ワン・メン・ズー 0.68
Weighted and class-specific maximum mean discrepancy for unsupervised domain adaptation. 教師なし領域適応のための重み付きおよびクラス特異的最大平均偏差 0.58
IEEE Transactions on Multimedia, 2019. IEEE Transactions on Multimedia, 2019 0.71
2 [42] Werner Zellinger, Thomas Grubinger, Edwin Lughofer, Thomas Natschl¨ager, and Susanne Saminger-Platz. 2 Werner Zellinger氏、Thomas Grubinger氏、Edwin Lughofer氏、Thomas Natschl氏、Susanne Saminger-Platz氏。 0.83
Central moment discrepancy (cmd) for domain-invariant representation learning. ドメイン不変表現学習における中心モーメント差分(cmd) 0.78
arXiv preprint arXiv:1702.08811, 2017. arXiv preprint arXiv:1702.08811, 2017 0.80
1, 2 [43] Weichen Zhang, Wanli Ouyang, Wen Li, and Dong Xu. 1, 2 [43]Weichen Zhang、Wanli Ouyang、Wen Li、Dong Xu。 0.73
Collaborative and adversarial network for unsupervised doIn Proceedings of the IEEE Conference main adaptation. IEEE ConferenceのメインアダプタであるdoIn Proceedingsのための協調的および敵対的ネットワーク。 0.68
on Computer Vision and Pattern Recognition, pages 3801– 3809, 2018. コンピュータビジョンとパターン認識』3801-3809頁、2018年。 0.69
2, 4 [44] Yabin Zhang, Hui Tang, Kui Jia, and Mingkui Tan. 2, 4 [44]yabin zhang、hui tang、kui jia、mingkui tan 0.66
Domainsymmetric networks for adversarial domain adaptation. 逆領域適応のためのドメイン対称ネットワーク 0.78
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 5031–5040, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 5031–5040, 2019。 0.93
2 [45] Yang Zou, Zhiding Yu, BVK Kumar, and Jinsong Wang. 2 [45]ヤン・ゾウ、Zhiding Yu、BVK Kumar、Jinsong Wang。 0.75
Unsupervised domain adaptation for semantic segmentation via class-balanced self-training. クラスバランスによるセグメンテーションのための教師なしドメイン適応 0.67
In Proceedings of the European conference on computer vision (ECCV), pages 289– 305, 2018. Proceedings of the European Conference on Computer Vision (ECCV) において、289–305, 2018。 0.84
2 [27] Mingsheng Long, Han Zhu, Jianmin Wang, and Michael I Jordan. 2 [27]明宗長、漢周、Jianmin Wang、マイケル1世ヨルダン。 0.76
Deep transfer learning with joint adaptation netIn International conference on machine learning, works. ディープトランスファー学習とジョイントアダプションネット マシンラーニングに関する国際会議は、動作する。 0.66
pages 2208–2217, 2017. 2017年、2208-2217頁。 0.56
1, 2 [28] Yawei Luo, Liang Zheng, Tao Guan, Junqing Yu, and Yi Yang. 1, 2 [28]ヤワイ・ルオ、Liang Zheng、Tao Guan、Junqing Yu、Yi Yang。 0.77
Taking a closer look at domain shift: Category-level adversaries for semantics consistent domain adaptation. ドメインシフトを詳しく見る: セマンティクスのカテゴリレベルの敵がドメイン適応を一貫性付けます。 0.67
In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pages 2507–2516, 2019. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, page 2507–2516, 2019。 0.92
2 [29] Laurens van der Maaten and Geoffrey Hinton. 2 29] laurens van der maaten と geoffrey hinton です。 0.71
Visualizing data using t-sne. t-sneによるデータの可視化 0.51
Journal of machine learning research, 9(Nov):2579–2605, 2008. Journal of Machine Learning Research, 9(Nov):2579–2605, 2008 0.90
8 [30] Sinno Jialin Pan, Ivor W Tsang, James T Kwok, and Qiang Yang. 8 30]シンノ・ジャリン・パン、アイヴァー・w・チャン、ジェームズ・t・クウォク、チアン・ヤン。 0.66
Domain adaptation via transfer component analysis. 転送コンポーネント分析によるドメイン適応。 0.82
IEEE Transactions on Neural Networks, 22(2):199–210, 2010. IEEE Transactions on Neural Networks, 22(2):199–210, 2010 0.93
1 [31] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, et al Pytorch: An imperative style, high-performance deep learning library. 1 [31]Adam Paszke氏、Sam Gross氏、Francisco Massa氏、Adam Lerer氏、James Bradbury氏、Gregory Chanan氏、Trevor Killeen氏、Zeming Lin氏、Natalia Gimelshein氏、Luca Antiga氏、al Pytorch氏。
訳抜け防止モード: 1 [31]Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen Zeming Lin, Natalia Gimelshein, Luca Antiga, et al Pytorch : 命令型スタイル High - パフォーマンスの深い学習ライブラリ。
0.83
In Advances in neural information processing systems, pages 8026–8037, 2019. 神経情報処理システムの進歩』8026-8037, 2019。 0.66
6 [32] Zhongyi Pei, Zhangjie Cao, Mingsheng Long, and Jianmin Wang. 6 [32]Zhongyi Pei,Zhangjie Cao,Mingsheng Long,Jianmin Wang 0.72
Multi-adversarial domain adaptation. 多言語ドメイン適応。 0.64
arXiv preprint arXiv:1809.02176, 2018. arXiv preprint arXiv:1809.02176, 2018 0.79
2 [33] Xingchao Peng, Qinxun Bai, Xide Xia, Zijun Huang, Kate Saenko, and Bo Wang. 2 [33]Xingchao Peng、Qinxun Bai、Xide Xia、Zijun Huang、Kate Saenko、Bo Wang。 0.75
Moment matching for multi-source domain adaptation. マルチソースドメイン適応のためのモーメントマッチング 0.74
In Proceedings of the IEEE International Conference on Computer Vision, pages 1406–1415, 2019. In Proceedings of the IEEE International Conference on Computer Vision, page 1406–1415, 2019。 0.91
5 [34] Xingchao Peng, Ben Usman, Neela Kaushik, Judy Hoffman, Dequan Wang, and Kate Saenko. 5[34]Xingchao Peng、Ben Usman、Neela Kaushik、Judy Hoffman、Dequan Wang、Kate Saenko。 0.70
Visda: The visual domain arXiv preprint arXiv:1710.06924, adaptation challenge. Visda: ビジュアルドメイン arXiv preprint arXiv:1710.06924, アダプティブチャレンジ。 0.84
2017. 5 [35] Kuniaki Saito, Yoshitaka Ushiku, Tatsuya Harada, and Kate Saenko. 2017. 5 [35]斎藤邦明、牛久義隆、原田辰也、ケイト・サエンコ 0.70
Adversarial dropout regularization. 反対のドロップアウト規則化。 0.40
arXiv preprint arXiv:1711.01575, 2017. arXiv preprint arXiv:1711.01575, 2017 0.80
3, 7 [36] Kuniaki Saito, Kohei Watanabe, Yoshitaka Ushiku, and Tatsuya Harada. 3, 7 [36]斎藤邦明、渡辺孝平、牛久義隆、原田辰也 0.62
Maximum classifier discrepancy for unsupervised domain adaptation. 教師なしドメイン適応のための最大分類器の相違 0.58
In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pages 3723–3732, 2018. IEEE Conference on Computer Vision and Pattern RecognitionのProceedings of the Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, page 3723–3732, 2018。
訳抜け防止モード: IEEE Conference on Computer Vision and Pattern Recognition に参加して 3723-3732頁、2018年。
0.82
1, 2, 3, 6, 7, 8 1, 2, 3, 6, 7, 8 0.85
[37] Eric Tzeng, Judy Hoffman, Kate Saenko, and Trevor Darrell. Eric Tzeng氏、Judy Hoffman氏、Kate Saenko氏、Trevor Darrell氏。 0.63
Adversarial discriminative domain adaptation. 敵対的差別的ドメイン適応。 0.50
In Proceedings of the IEEE conference on computer vision and pattern recognition, pages 7167–7176, 2017. Proceedings of the IEEE conference on computer vision and pattern recognition, page 7167–7176, 2017 0.80
2 [38] Rui Wang, Masao Utiyama, Lemao Liu, Kehai Chen, and Eiichiro Sumita. 2 [38]王従、宇山正雄、李馬雄、陳華海、住田栄一郎 0.70
Instance weighting for neural machine translation domain adaptation. ニューラルネットワーク翻訳ドメイン適応のためのインスタンス重み付け。 0.62
In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 1482–1488, 2017. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, page 1482–1488, 2017 0.86
2 [39] Shaoan Xie, Zibin Zheng, Liang Chen, and Chuan Chen. 2 [39]Shaoan Xie、Zibin Zheng、Liang Chen、そしてChuan Chen。 0.80
Learning semantic representations for unsupervised domain adaptation. 教師なしドメイン適応のための意味表現の学習 0.60
In International conference on machine learning, pages 5423–5432. 機械学習に関する国際会議』5423-5432頁。 0.76
PMLR, 2018. 2018年、PMLR。 0.68
2, 4 [40] Ruijia Xu, Guanbin Li, Jihan Yang, and Liang Lin. 2, 4 40]ruijia xu、guanbin li、jihan yang、liang lin。 0.68
Larger norm more transferable: An adaptive feature norm approach for unsupervised domain adaptation. より大きなノルム: 教師なしドメイン適応のための適応的特徴ノルムアプローチ。 0.68
In Proceedings of the 訴訟の手続において 0.51
                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。