論文の概要: Co-Teaching for Unsupervised Domain Adaptation and Expansion
- arxiv url: http://arxiv.org/abs/2204.01210v1
- Date: Mon, 4 Apr 2022 02:34:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 15:26:02.171455
- Title: Co-Teaching for Unsupervised Domain Adaptation and Expansion
- Title(参考訳): 教師なしドメイン適応と拡張のためのコティーチング
- Authors: Kaibin Tian, Qijie Wei, Xirong Li
- Abstract要約: 教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ターゲットドメインのパフォーマンスを改善するために、ソースドメインでモデルのパフォーマンスを交換することが知られている。
本稿では,ドメイン間の視覚的あいまいさの存在を報告する。
知識蒸留型CT(kdCT)とミキサップ型CT(miCT)を組み合わせたコティーチング(CT)を提案する。
- 参考スコア(独自算出の注目度): 8.708472924872796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) is known to trade a model's performance
on a source domain for improving its performance on a target domain. To resolve
the issue, Unsupervised Domain Expansion (UDE) has been proposed recently to
adapt the model for the target domain as UDA does, and in the meantime maintain
its performance on the source domain. For both UDA and UDE, a model tailored to
a given domain, let it be the source or the target domain, is assumed to well
handle samples from the given domain. We question the assumption by reporting
the existence of cross-domain visual ambiguity: Due to the lack of a crystally
clear boundary between the two domains, samples from one domain can be visually
close to the other domain. We exploit this finding and accordingly propose in
this paper Co-Teaching (CT) that consists of knowledge distillation based CT
(kdCT) and mixup based CT (miCT). Specifically, kdCT transfers knowledge from a
leader-teacher network and an assistant-teacher network to a student network,
so the cross-domain visual ambiguity will be better handled by the student.
Meanwhile, miCT further enhances the generalization ability of the student.
Comprehensive experiments on two image-classification benchmarks and two
driving-scene-segmentation benchmarks justify the viability of the proposed
method.
- Abstract(参考訳): 教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ターゲットドメインのパフォーマンスを改善するために、ソースドメインでモデルのパフォーマンスを交換することが知られている。
この問題を解決するために、UDAが行っているようにターゲットドメインのモデルを適応させるために、Unsupervised Domain Expansion (UDE) が最近提案されている。
UDAとUDEの両方の場合、与えられたドメインに合わせたモデル(ソースまたはターゲットドメイン)は、与えられたドメインからのサンプルをうまく処理すると仮定される。
2つのドメイン間に結晶的に明確な境界がないため、あるドメインからのサンプルは他のドメインに視覚的に近付くことができる。
そこで本研究では, 知識蒸留によるCT(kdCT)とミキサアップによるCT(miCT)を組み合わせたCT(Co-Teaching)を提案する。
具体的には、kdCTは、リーダー-教師ネットワークとアシスタント-教師ネットワークから学生ネットワークに知識を伝達するので、クロスドメインな視覚的曖昧さは学生によってより良く扱われる。
一方、mictは学生の一般化能力をさらに向上させる。
2つの画像分類ベンチマークと2つの運転シーン分割ベンチマークに関する総合的な実験は、提案手法の有効性を正当化する。
関連論文リスト
- CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - Unsupervised Domain Adaptation for Cross-Modality Retinal Vessel
Segmentation via Disentangling Representation Style Transfer and
Collaborative Consistency Learning [3.9562534927482704]
ドメインシフトが大きいタスクに対する、新しいクロスモーダルな教師なしドメイン適応フレームワークDCDAを提案する。
本フレームワークは,OCTAからOCT,OCTからOCTAまで,目標に訓練されたオラクルに近いDiceスコアを達成し,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T07:03:16Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Unsupervised Domain Expansion for Visual Categorization [12.427064803221729]
Unsupervised Domain expansion (UDE)は、モデルのパフォーマンスをソースドメインで維持しながら、ラベルのないデータでターゲットドメインのディープモデルを適用することを目的としています。
我々は知識蒸留に基づく学習機構を開発し、kddeはソース領域とターゲット領域が等しく扱われる単一の目的を最適化できる。
論文 参考訳(メタデータ) (2021-04-01T03:27:35Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Dual-Teacher++: Exploiting Intra-domain and Inter-domain Knowledge with
Reliable Transfer for Cardiac Segmentation [69.09432302497116]
最先端の半教師付きドメイン適応フレームワークである Dual-Teacher++ を提案する。
ソースドメイン(MRなど)からのクロスモダリティ優先度を探索するドメイン間教師モデルと、ラベルのないターゲットドメインの知識を調査するドメイン内教師モデルを含む、新しいデュアル教師モデルを設計する。
このようにして、学生モデルは信頼できる二重ドメイン知識を得て、ターゲットドメインデータのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-01-07T05:17:38Z) - Conditional Coupled Generative Adversarial Networks for Zero-Shot Domain
Adaptation [31.334196673143257]
あるドメインでトレーニングされた機械学習モデルは、ドメインシフトが存在するため、他のドメインではうまく機能しない。
本研究では,CoGANを条件付きモデルに拡張することにより,条件付き生成逆数ネットワーク(CoCoGAN)を提案する。
提案したCoCoGANは,2つの異なるタスク,すなわち関連タスク (RT) と非関連タスク (IRT) で二重ドメインサンプルの連成分布を捉えることができる。
論文 参考訳(メタデータ) (2020-09-11T04:36:42Z) - Domain2Vec: Domain Embedding for Unsupervised Domain Adaptation [56.94873619509414]
従来の教師なしドメイン適応は、限られた数のドメイン間の知識伝達を研究する。
本稿では,特徴不整合とグラム行列の連成学習に基づいて,視覚領域のベクトル表現を提供する新しいDomain2Vecモデルを提案する。
我々の埋め込みは、異なるドメイン間の視覚的関係に関する直感と一致するドメイン類似性を予測できることを示した。
論文 参考訳(メタデータ) (2020-07-17T22:05:09Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。