論文の概要: Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2201.01806v1
- Date: Wed, 5 Jan 2022 20:16:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 23:22:09.310110
- Title: Revisiting Deep Subspace Alignment for Unsupervised Domain Adaptation
- Title(参考訳): 教師なし領域適応のための深部部分空間アライメントの再検討
- Authors: Kowshik Thopalli, Jayaraman J Thiagarajan, Rushil Anirudh, and Pavan K
Turaga
- Abstract要約: Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間に基づく手法はこの問題に対する重要な解のクラスを形成する。
本稿では,UDAにおける部分空間アライメントの利用を再検討し,一貫した一般化をもたらす新しい適応アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 42.16718847243166
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Unsupervised domain adaptation (UDA) aims to transfer and adapt knowledge
from a labeled source domain to an unlabeled target domain. Traditionally,
subspace-based methods form an important class of solutions to this problem.
Despite their mathematical elegance and tractability, these methods are often
found to be ineffective at producing domain-invariant features with complex,
real-world datasets. Motivated by the recent advances in representation
learning with deep networks, this paper revisits the use of subspace alignment
for UDA and proposes a novel adaptation algorithm that consistently leads to
improved generalization. In contrast to existing adversarial training-based DA
methods, our approach isolates feature learning and distribution alignment
steps, and utilizes a primary-auxiliary optimization strategy to effectively
balance the objectives of domain invariance and model fidelity. While providing
a significant reduction in target data and computational requirements, our
subspace-based DA performs competitively and sometimes even outperforms
state-of-the-art approaches on several standard UDA benchmarks. Furthermore,
subspace alignment leads to intrinsically well-regularized models that
demonstrate strong generalization even in the challenging partial DA setting.
Finally, the design of our UDA framework inherently supports progressive
adaptation to new target domains at test-time, without requiring retraining of
the model from scratch. In summary, powered by powerful feature learners and an
effective optimization strategy, we establish subspace-based DA as a highly
effective approach for visual recognition.
- Abstract(参考訳): Unsupervised domain adapt (UDA) は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識の転送と適応を目的としている。
伝統的に、部分空間ベースのメソッドはこの問題に対する重要な解のクラスを形成する。
数学的エレガンスとトラクタビリティにもかかわらず、これらの手法は複雑な実世界のデータセットでドメイン不変の特徴を生成できないことがしばしば見出される。
深層ネットワークを用いた表現学習の最近の進歩に触発されて,UDAにおける部分空間アライメントの利用を再考し,一貫した一般化につながる新しい適応アルゴリズムを提案する。
本手法は,既存の逆行訓練に基づくDA手法とは対照的に,特徴学習と分散アライメントのステップを分離し,ドメイン不変性やモデル忠実性の目的を効果的にバランスさせるために一次最適化戦略を利用する。
ターゲットデータと計算要求を大幅に削減する一方で、我々のサブスペースベースのDAは競争力が高く、時にはいくつかの標準UDAベンチマークにおける最先端のアプローチよりも優れています。
さらに、部分空間アライメントは、挑戦的な部分DA設定においても強い一般化を示す固有的によく規則化されたモデルをもたらす。
最後に、UDAフレームワークの設計は、スクラッチからモデルを再トレーニングすることなく、テスト時に新しいターゲットドメインへのプログレッシブ適応を本質的にサポートしています。
要約すると、強力な特徴学習者と効果的な最適化戦略を駆使して、サブスペースベースのDAを視覚認識の高効率なアプローチとして確立する。
関連論文リスト
- Progressive Conservative Adaptation for Evolving Target Domains [76.9274842289221]
従来のドメイン適応は、典型的には、ソースドメインから定常ターゲットドメインに知識を転送する。
このような対象データに対する復元と適応は、時間とともに計算とリソース消費をエスカレートする。
我々は、進歩的保守的適応(PCAda)と呼ばれる、単純で効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-07T04:11:25Z) - DSD-DA: Distillation-based Source Debiasing for Domain Adaptive Object Detection [37.01880023537362]
我々は、ドメイン適応オブジェクト検出(DAOD)のための新しい蒸留系ソースデバイアス(DSD)フレームワークを提案する。
このフレームワークは、事前訓練された教師モデルからドメインに依存しない知識を抽出し、両方のドメインにおける検出器の性能を向上させる。
また,DCE(Domain-Aware Consistency Enhancing)戦略を提案し,これらの情報を新たなローカライゼーション表現に定式化する。
論文 参考訳(メタデータ) (2023-11-17T10:26:26Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - AVATAR: Adversarial self-superVised domain Adaptation network for TARget
domain [11.764601181046496]
本稿では,未ラベル対象領域データの予測のための教師なし領域適応(UDA)手法を提案する。
本稿では,AVATAR(Adversarial Self-superVised Domain Adaptation Network for the TARget domain)アルゴリズムを提案する。
提案手法は,3つのUDAベンチマークにおいて,最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-04-28T20:31:56Z) - Self-training through Classifier Disagreement for Cross-Domain Opinion
Target Extraction [62.41511766918932]
オピニオンターゲット抽出(OTE)またはアスペクト抽出(AE)は意見マイニングの基本的な課題である。
最近の研究は、現実世界のシナリオでよく見られるクロスドメインのOTEに焦点を当てている。
そこで本稿では,ドメイン固有の教師と学生のネットワークから出力されるモデルが未学習のターゲットデータと一致しない対象サンプルを選択するためのSSLアプローチを提案する。
論文 参考訳(メタデータ) (2023-02-28T16:31:17Z) - Increasing Model Generalizability for Unsupervised Domain Adaptation [12.013345715187285]
組込み空間におけるクラス間マージンの増大は, UDAアルゴリズムの開発に有効であることを示す。
提案手法を用いることで、4つの標準ベンチマーク UDA 画像分類データセットにおけるモデル一般化性が向上することが実証された。
論文 参考訳(メタデータ) (2022-09-29T09:08:04Z) - Domain Adaptation with Adversarial Training on Penultimate Activations [82.9977759320565]
教師なし領域適応(Unsupervised Domain Adaptation, UDA)の重要な目的は、ラベルなし対象データに対するモデル予測の信頼性を高めることである。
我々は,この戦略が,入力画像や中間特徴に対する敵対的訓練よりも予測信頼性を高める目的と,より効率的で相関性が高いことを示す。
論文 参考訳(メタデータ) (2022-08-26T19:50:46Z) - Dynamic Domain Adaptation for Efficient Inference [12.713628738434881]
ドメイン適応(DA)は、ラベル付きソースドメインからラベルなしターゲットドメインへの知識転送を可能にする。
以前のdaアプローチのほとんどは、適応能力を改善するために複雑で強力なディープニューラルネットワークを活用する。
低リソースシナリオにおいて効率的なターゲット推論を同時に実現できる動的ドメイン適応(DDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-26T08:53:16Z) - Robustified Domain Adaptation [13.14535125302501]
非教師付きドメイン適応(Unsupervised domain adapt, UDA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの知識伝達に広く使用される。
UDAにおける避けられないドメイン分布の偏りは、ターゲットドメインの堅牢性をモデル化するための重要な障壁である。
頑健な UDA モデルをトレーニングするための新しいクラス一貫性のないunsupervised Domain Adaptation (CURDA) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-18T22:21:54Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。