論文の概要: Co-Teaching for Unsupervised Domain Adaptation and Expansion
- arxiv url: http://arxiv.org/abs/2204.01210v3
- Date: Thu, 14 Sep 2023 01:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 20:03:32.470937
- Title: Co-Teaching for Unsupervised Domain Adaptation and Expansion
- Title(参考訳): 教師なしドメイン適応と拡張のためのコティーチング
- Authors: Kaibin Tian, Qijie Wei, Xirong Li
- Abstract要約: Unsupervised Domain Adaptation (UDA)は基本的に、ターゲットドメインのパフォーマンスを改善するために、ソースドメインでモデルのパフォーマンスを交換する。
UDEは、UDAのようにターゲットドメインにモデルを適応させようとするが、その間には、そのソースドメインのパフォーマンスを維持している。
UDAとUDEの両方の設定では、与えられたドメインに合わせたモデル(ソースまたはターゲットドメイン)が、与えられたドメインからのサンプルをうまく処理すると仮定される。
我々はこの発見を生かし、コ・ティーチング(CT)を提案する。
- 参考スコア(独自算出の注目度): 12.455364571022576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) essentially trades a model's performance
on a source domain for improving its performance on a target domain. To resolve
the issue, Unsupervised Domain Expansion (UDE) has been proposed recently. UDE
tries to adapt the model for the target domain as UDA does, and in the meantime
maintains its source-domain performance. In both UDA and UDE settings, a model
tailored to a given domain, let it be the source or the target domain, is
assumed to well handle samples from the given domain. We question the
assumption by reporting the existence of cross-domain visual ambiguity: Given
the lack of a crystally clear boundary between the two domains, samples from
one domain can be visually close to the other domain. Such sorts of samples are
typically in minority in their host domain, so they tend to be overlooked by
the domain-specific model, but can be better handled by a model from the other
domain. We exploit this finding, and accordingly propose Co-Teaching (CT). The
CT method is instantiated with knowledge distillation based CT (kdCT) plus
mixup based CT (miCT). Specifically, kdCT transfers knowledge from a
leading-teacher network and an assistant-teacher network to a student network,
so the cross-domain ambiguity will be better handled by the student. Meanwhile,
miCT further enhances the generalization ability of the student. Extensive
experiments on two image classification datasets and two driving-scene
segmentation datasets justify the viability of CT for UDA and UDE.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は基本的に、ターゲットドメインのパフォーマンスを改善するために、ソースドメインでモデルのパフォーマンスを交換する。
この問題を解決するために、Unsupervised Domain Expansion (UDE) が最近提案されている。
UDEは、UDAのようにターゲットドメインにモデルを適応させようとするが、その間には、そのソースドメインのパフォーマンスを維持している。
UDAとUDEの両方の設定では、与えられたドメインに合わせたモデル(ソースまたはターゲットドメイン)が、与えられたドメインからのサンプルをうまく処理すると仮定される。
二つの領域の間に結晶的に明確な境界が存在しないことを考慮すれば、ある領域からのサンプルは他の領域に視覚的に近づくことができる。
このようなサンプルは通常、ホストドメインでは少数派であるため、ドメイン固有のモデルによって見落とされがちだが、他のドメインのモデルによってよりよく扱われる。
そこで我々は,この発見を活かし,CT(Co-Teaching)を提案する。
知識蒸留法CT(kdCT)とミキサップ法CT(miCT)を併用したCT法である。
特に、kdctは知識を指導者ネットワークと補助教員ネットワークから学生ネットワークに転送するので、クロスドメイン曖昧性は学生によってより良く処理される。
一方、mictは学生の一般化能力をさらに向上させる。
2つの画像分類データセットと2つの駆動シーンセグメンテーションデータセットの大規模な実験は、UDAとUDEのCTの生存可能性を正当化する。
関連論文リスト
- CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - Unsupervised Domain Adaptation for Cross-Modality Retinal Vessel
Segmentation via Disentangling Representation Style Transfer and
Collaborative Consistency Learning [3.9562534927482704]
ドメインシフトが大きいタスクに対する、新しいクロスモーダルな教師なしドメイン適応フレームワークDCDAを提案する。
本フレームワークは,OCTAからOCT,OCTからOCTAまで,目標に訓練されたオラクルに近いDiceスコアを達成し,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-01-13T07:03:16Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Unsupervised Domain Expansion for Visual Categorization [12.427064803221729]
Unsupervised Domain expansion (UDE)は、モデルのパフォーマンスをソースドメインで維持しながら、ラベルのないデータでターゲットドメインのディープモデルを適用することを目的としています。
我々は知識蒸留に基づく学習機構を開発し、kddeはソース領域とターゲット領域が等しく扱われる単一の目的を最適化できる。
論文 参考訳(メタデータ) (2021-04-01T03:27:35Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Dual-Teacher++: Exploiting Intra-domain and Inter-domain Knowledge with
Reliable Transfer for Cardiac Segmentation [69.09432302497116]
最先端の半教師付きドメイン適応フレームワークである Dual-Teacher++ を提案する。
ソースドメイン(MRなど)からのクロスモダリティ優先度を探索するドメイン間教師モデルと、ラベルのないターゲットドメインの知識を調査するドメイン内教師モデルを含む、新しいデュアル教師モデルを設計する。
このようにして、学生モデルは信頼できる二重ドメイン知識を得て、ターゲットドメインデータのパフォーマンスを向上させることができる。
論文 参考訳(メタデータ) (2021-01-07T05:17:38Z) - Conditional Coupled Generative Adversarial Networks for Zero-Shot Domain
Adaptation [31.334196673143257]
あるドメインでトレーニングされた機械学習モデルは、ドメインシフトが存在するため、他のドメインではうまく機能しない。
本研究では,CoGANを条件付きモデルに拡張することにより,条件付き生成逆数ネットワーク(CoCoGAN)を提案する。
提案したCoCoGANは,2つの異なるタスク,すなわち関連タスク (RT) と非関連タスク (IRT) で二重ドメインサンプルの連成分布を捉えることができる。
論文 参考訳(メタデータ) (2020-09-11T04:36:42Z) - Domain2Vec: Domain Embedding for Unsupervised Domain Adaptation [56.94873619509414]
従来の教師なしドメイン適応は、限られた数のドメイン間の知識伝達を研究する。
本稿では,特徴不整合とグラム行列の連成学習に基づいて,視覚領域のベクトル表現を提供する新しいDomain2Vecモデルを提案する。
我々の埋め込みは、異なるドメイン間の視覚的関係に関する直感と一致するドメイン類似性を予測できることを示した。
論文 参考訳(メタデータ) (2020-07-17T22:05:09Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。