論文の概要: Partial Domain Adaptation without Domain Alignment
- arxiv url: http://arxiv.org/abs/2108.12867v1
- Date: Sun, 29 Aug 2021 15:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:54:35.895773
- Title: Partial Domain Adaptation without Domain Alignment
- Title(参考訳): ドメインアライメントのない部分ドメイン適応
- Authors: Weikai Li and Songcan Chen
- Abstract要約: 教師なしドメイン適応(Unsupervised domain adapt, UDA)は、よくラベル付けされたソースドメインから、同一のラベル空間を持つ関連するラベル付けされていないターゲットドメインに知識を伝達することを目的としている。
現在、UDAを解決するための主要な作業はドメインアライメントであり、成功している。
より実践的なシナリオは、ソースラベルセットまたは空間が対象のドメインを仮定する部分的ドメイン適応(PDA)である。
- 参考スコア(独自算出の注目度): 25.917657531750976
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to transfer knowledge from a
well-labeled source domain to a different but related unlabeled target domain
with identical label space. Currently, the main workhorse for solving UDA is
domain alignment, which has proven successful. However, it is often difficult
to find an appropriate source domain with identical label space. A more
practical scenario is so-called partial domain adaptation (PDA) in which the
source label set or space subsumes the target one. Unfortunately, in PDA, due
to the existence of the irrelevant categories in the source domain, it is quite
hard to obtain a perfect alignment, thus resulting in mode collapse and
negative transfer. Although several efforts have been made by down-weighting
the irrelevant source categories, the strategies used tend to be burdensome and
risky since exactly which irrelevant categories are unknown. These challenges
motivate us to find a relatively simpler alternative to solve PDA. To achieve
this, we first provide a thorough theoretical analysis, which illustrates that
the target risk is bounded by both model smoothness and between-domain
discrepancy. Considering the difficulty of perfect alignment in solving PDA, we
turn to focus on the model smoothness while discard the riskier domain
alignment to enhance the adaptability of the model. Specifically, we
instantiate the model smoothness as a quite simple intra-domain structure
preserving (IDSP). To our best knowledge, this is the first naive attempt to
address the PDA without domain alignment. Finally, our empirical results on
multiple benchmark datasets demonstrate that IDSP is not only superior to the
PDA SOTAs by a significant margin on some benchmarks (e.g., +10% on Cl->Rw and
+8% on Ar->Rw ), but also complementary to domain alignment in the standard UDA
- Abstract(参考訳): unsupervised domain adaptation (uda) は、十分にラベル付けされたソースドメインから、同じラベル空間を持つ異なるが関連していないターゲットドメインへ知識を転送することを目的としている。
現在、UDAを解決するための主要な作業はドメインアライメントであり、成功している。
しかし、同じラベル空間を持つ適切なソースドメインを見つけることはしばしば困難である。
より現実的なシナリオは、ソースラベルセットまたは空間が対象のドメインを仮定するいわゆる部分的ドメイン適応(PDA)である。
残念なことに、pdaでは、ソースドメインに無関係なカテゴリが存在するため、完全なアライメントを得るのは非常に困難であり、モードの崩壊と負の転送をもたらす。
無関係なソースカテゴリを下げることによって、いくつかの取り組みがなされてきたが、使用する戦略は、無関係なカテゴリが正確に不明であるため、重荷になり、危険が伴う傾向がある。
これらの課題は、PDAを解決するための比較的単純な選択肢を見つける動機となります。
そこで本研究ではまず,モデルの滑らかさとドメイン間の相違によって対象のリスクが拘束されることを示す。
PDAの解決における完全整合性の難しさを考慮すると、モデルの適用性を高めるためにリスクの高いドメインアライメントを捨てながら、モデルの滑らかさに焦点をあてる。
具体的には、モデルスムーズさを非常に単純なドメイン内構造保存(IDSP)としてインスタンス化する。
私たちの知る限りでは、ドメインのアライメントなしにPDAに対処しようとする最初の素直な試みである。
最後に、複数のベンチマークデータセットに対する実験結果から、IDSPはPDA SOTAよりも有意差(Cl->Rwでは+10%、Ar->Rwでは+8%)で優れているだけでなく、標準UDAにおけるドメインアライメントと相補的であることが示された。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - Continual Unsupervised Domain Adaptation for Semantic Segmentation using
a Class-Specific Transfer [9.46677024179954]
セグメンテーションモデルは 目に見えない領域に一般化しません
2つのクラス条件のAdaIN層を組み込んだ軽量なスタイル転送フレームワークを提案する。
合成シーケンスに対する我々のアプローチを広く検証し、さらに実領域からなる挑戦的なシーケンスを提案する。
論文 参考訳(メタデータ) (2022-08-12T21:30:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Domain-Agnostic Prior for Transfer Semantic Segmentation [197.9378107222422]
教師なしドメイン適応(UDA)はコンピュータビジョンコミュニティにおいて重要なトピックである。
ドメインに依存しない事前学習(DAP)を用いてドメイン間表現学習を規則化する機構を提案する。
我々の研究は、UDAがより良いプロキシ、おそらく他のデータモダリティの恩恵を受けていることを明らかにしている。
論文 参考訳(メタデータ) (2022-04-06T09:13:25Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Unsupervised Domain Adaptation with Progressive Adaptation of Subspaces [26.080102941802107]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインからの知識をドメインシフトで転送することで、ラベル付きターゲットドメインを分類することを目的としている。
そこで我々は,これらの直観を利用して,信頼性の高い擬似ラベルを徐々に取得する,プログレッシブ・アダプティブ・オブ・サブスペース・アプローチ (PAS) という新しいUDA手法を提案する。
我々の徹底的な評価は、PASが一般的なUDAに有効であるだけでなく、より挑戦的な部分的ドメイン適応(PDA)の状況において、最先端の技術を上回っていることを示している。
論文 参考訳(メタデータ) (2020-09-01T15:40:50Z) - Learning Target Domain Specific Classifier for Partial Domain Adaptation [85.71584004185031]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送する際の分散不一致を低減することを目的としている。
本稿では,ターゲットラベル空間をソースラベル空間に仮定する,より現実的なUDAシナリオに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-25T02:28:24Z) - Simultaneous Semantic Alignment Network for Heterogeneous Domain
Adaptation [67.37606333193357]
本稿では,カテゴリ間の相関を同時に利用し,各カテゴリ毎のセントロイドを整列させるために,aSimultaneous Semantic Alignment Network (SSAN)を提案する。
対象の擬似ラベルを利用することで、各カテゴリの特徴表現を整列させるために、ロバストな三重項中心のアライメント機構を明示的に適用する。
テキスト・ツー・イメージ、画像・画像・テキスト・ツー・テキストにわたる様々なHDAタスクの実験は、最先端のHDA手法に対するSSANの優位性を検証することに成功した。
論文 参考訳(メタデータ) (2020-08-04T16:20:37Z) - Contradistinguisher: A Vapnik's Imperative to Unsupervised Domain
Adaptation [7.538482310185133]
本研究では,コントラスト特徴を学習するContradistinguisherと呼ばれるモデルを提案する。
Office-31とVisDA-2017における最先端のデータセットを、シングルソースとマルチソースの両方で実現しています。
論文 参考訳(メタデータ) (2020-05-25T19:54:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。