論文の概要: Vicinal and categorical domain adaptation
- arxiv url: http://arxiv.org/abs/2103.03460v1
- Date: Fri, 5 Mar 2021 03:47:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:02:57.690523
- Title: Vicinal and categorical domain adaptation
- Title(参考訳): Vicinal と categorical Domain の適応
- Authors: Hui Tang and Kui Jia
- Abstract要約: ドメインレベルとカテゴリレベルでの敵対的トレーニングの新たな損失を提案します。
本稿では,2つのドメインからそれぞれ対のインスタンスの凸結合によってインスタンスが生成されるビジナルドメインの概念を提案する。
- 参考スコア(独自算出の注目度): 43.707303372718336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation aims to learn a task classifier that performs
well on the unlabeled target domain, by utilizing the labeled source domain.
Inspiring results have been acquired by learning domain-invariant deep features
via domain-adversarial training. However, its parallel design of task and
domain classifiers limits the ability to achieve a finer category-level domain
alignment. To promote categorical domain adaptation (CatDA), based on a joint
category-domain classifier, we propose novel losses of adversarial training at
both domain and category levels. Since the joint classifier can be regarded as
a concatenation of individual task classifiers respectively for the two
domains, our design principle is to enforce consistency of category predictions
between the two task classifiers. Moreover, we propose a concept of vicinal
domains whose instances are produced by a convex combination of pairs of
instances respectively from the two domains. Intuitively, alignment of the
possibly infinite number of vicinal domains enhances that of original domains.
We propose novel adversarial losses for vicinal domain adaptation (VicDA) based
on CatDA, leading to Vicinal and Categorical Domain Adaptation (ViCatDA). We
also propose Target Discriminative Structure Recovery (TDSR) to recover the
intrinsic target discrimination damaged by adversarial feature alignment. We
also analyze the principles underlying the ability of our key designs to align
the joint distributions. Extensive experiments on several benchmark datasets
demonstrate that we achieve the new state of the art.
- Abstract(参考訳): 教師なしドメイン適応は、ラベル付きソースドメインを利用することで、ラベルなしターゲットドメインでうまく機能するタスク分類子を学習することを目的としています。
刺激的な結果は、ドメイン-敵のトレーニングを通じて、ドメイン-不変の深い特徴を学ぶことによって得られる。
しかし、タスクとドメインの分類器の並列設計は、より細かいカテゴリレベルのドメインアライメントを達成する能力を制限する。
共同カテゴリ領域分類器に基づくカテゴリ領域適応(CatDA)を促進するために, ドメインレベルとカテゴリレベルでの敵対的トレーニングの新たな損失を提案する。
統合型分類器は2つのドメインに対してそれぞれ個別のタスク分類器の結合と見なすことができるので、2つのタスク分類器間のカテゴリ予測の一貫性を強制する設計原理である。
さらに,2つのドメインからそれぞれ対のインスタンスの凸結合によってインスタンスが生成されるビジナルドメインの概念を提案する。
直感的には、無限個のヴィジナル領域のアライメントは元の領域のアライメントを高める。
CatDAに基づくVicinal Domain Adaptation (VicDA) に対する新たな逆転的損失を提案し,Vicinal and Categorical Domain Adaptation (ViCatDA) につながる。
また,敵対的特徴アライメントによって損傷された本質的目標識別を回復するために,TDSR(Target Discriminative Structure Recovery)を提案する。
また、共同分布を整合させるキーデザインの能力の基礎となる原則を分析します。
いくつかのベンチマークデータセットに関する広範な実験は、我々は技術の新しい状態を達成することを実証します。
関連論文リスト
- CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Birds of A Feather Flock Together: Category-Divergence Guidance for
Domain Adaptive Segmentation [35.63920597305474]
教師なしドメイン適応(UDA)は、ソースドメインからターゲットドメインへの特定のモデルの一般化能力を高めることを目的としている。
本研究では,クラス間分離・クラス内アグリゲーション(ISIA)機構を提案する。
各カテゴリの整合複雑性を計測することにより、適応重み付きインスタンスマッチング(AIM)戦略を設計し、インスタンスレベルの適応をさらに最適化する。
論文 参考訳(メタデータ) (2022-04-05T11:17:19Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Cross-Domain Grouping and Alignment for Domain Adaptive Semantic
Segmentation [74.3349233035632]
深層畳み込みニューラルネットワーク(CNN)内のソースドメインとターゲットドメインにセマンティックセグメンテーションネットワークを適用する既存の技術は、対象ドメイン自身や推定カテゴリ内のクラス間変異を考慮していない。
学習可能なクラスタリングモジュールと、クロスドメイングルーピングとアライメントと呼ばれる新しいドメイン適応フレームワークを導入する。
本手法はセマンティクスセグメンテーションにおける適応性能を一貫して向上させ,様々なドメイン適応設定において最先端を上回っている。
論文 参考訳(メタデータ) (2020-12-15T11:36:21Z) - Adversarial Consistent Learning on Partial Domain Adaptation of
PlantCLEF 2020 Challenge [26.016647703500883]
我々は、部分的ドメイン適応のための統合された深層アーキテクチャにおいて、逆一貫した学習(ACL$)を開発する。
ソースドメインの分類損失、逆学習損失、特徴整合損失からなる。
2つのドメインの共有カテゴリは、ソースドメインの無関係なカテゴリを低重み付けすることで見つける。
論文 参考訳(メタデータ) (2020-09-19T19:57:41Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z) - Universal Domain Adaptation through Self Supervision [75.04598763659969]
教師なし領域適応法は、全てのソースカテゴリが対象領域に存在すると仮定する。
本稿では、任意のカテゴリシフトを処理するために、エントロピー最適化(DANCE)によるドメイン適応近傍クラスタリングを提案する。
我々は、DANCEがオープンセット、オープンパーティル、部分的なドメイン適応設定でベースラインより優れていることを示す広範な実験を通して示す。
論文 参考訳(メタデータ) (2020-02-19T01:26:11Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。