論文の概要: Discriminative Noise Robust Sparse Orthogonal Label Regression-based
Domain Adaptation
- arxiv url: http://arxiv.org/abs/2101.04563v1
- Date: Sat, 9 Jan 2021 07:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 07:22:56.589147
- Title: Discriminative Noise Robust Sparse Orthogonal Label Regression-based
Domain Adaptation
- Title(参考訳): 識別ノイズロバストな直交ラベル回帰に基づくドメイン適応
- Authors: Lingkun Luo, Liming Chen, Shiqiang Hu
- Abstract要約: ドメイン適応(DA)は、ソースドメインから訓練された学習モデルがターゲットドメイン上でうまく一般化できるようにすることを目的としている。
本稿では,非教師付きDA手法,すなわち識別ノイズロバストスパースorthogonal Label Regressionに基づくドメイン適応を提案する。
- 参考スコア(独自算出の注目度): 6.61544170496402
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Domain adaptation (DA) aims to enable a learning model trained from a source
domain to generalize well on a target domain, despite the mismatch of data
distributions between the two domains. State-of-the-art DA methods have so far
focused on the search of a latent shared feature space where source and target
domain data can be aligned either statistically and/or geometrically. In this
paper, we propose a novel unsupervised DA method, namely Discriminative Noise
Robust Sparse Orthogonal Label Regression-based Domain Adaptation (DOLL-DA).
The proposed DOLL-DA derives from a novel integrated model which searches a
shared feature subspace where source and target domain data are, through
optimization of some repulse force terms, discriminatively aligned
statistically, while at same time regresses orthogonally data labels thereof
using a label embedding trick. Furthermore, in minimizing a novel Noise Robust
Sparse Orthogonal Label Regression(NRS_OLR) term, the proposed model explicitly
accounts for data outliers to avoid negative transfer and introduces the
property of sparsity when regressing data labels.
Due to the character restriction. Please read our detailed abstract in our
paper.
- Abstract(参考訳): ドメイン適応(DA)は、2つのドメイン間のデータ分散のミスマッチにもかかわらず、ソースドメインからトレーニングされた学習モデルがターゲットドメインで適切に一般化できるようにすることを目的としている。
最先端のDA手法は、ソースとターゲットのドメインデータを統計的または幾何学的に整列できる潜在共有特徴空間の探索に焦点を当てている。
本稿では,新しい教師なしda法,すなわち不明瞭なノイズロバストな正規直交ラベル回帰に基づくドメイン適応法(doll-da)を提案する。
提案するDOLL-DAは、ソースとターゲットのドメインデータがある共有特徴部分空間を、いくつかの反発力項の最適化により、統計的に識別的に整合すると同時に、ラベル埋め込みトリックを用いて、その直交データラベルを復元する新しい統合モデルから導かれる。
さらに,NRS_OLR(Noss Robust Sparse Orthogonal Label Regression)という用語を最小化する際には,負の転送を避けるためにデータアウトレーヤを明示的に考慮し,データラベルの回帰時に空間特性を導入する。
キャラクタ制限のためです。
詳細な要約は私たちの論文で読んでください。
関連論文リスト
- Online Continual Domain Adaptation for Semantic Image Segmentation Using
Internal Representations [28.549418215123936]
アノテーションのない領域におけるモデル一般化を改善するために,画像のセマンティックセマンティックセマンティックセマンティクスのためのオンラインUDAアルゴリズムを開発した。
確立されたセマンティックセマンティックセマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティック・セマンティックス(SOTA)と比較した。
論文 参考訳(メタデータ) (2024-01-02T04:48:49Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Robust Target Training for Multi-Source Domain Adaptation [110.77704026569499]
両レベル最適化に基づく新しいMSDAのためのロバスト目標訓練法(BORT$2$)を提案する。
提案手法は,大規模なDomainNetデータセットを含む3つのMSDAベンチマークにおいて,アートパフォーマンスの状態を達成している。
論文 参考訳(メタデータ) (2022-10-04T15:20:01Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Instance Relation Graph Guided Source-Free Domain Adaptive Object
Detection [79.89082006155135]
教師なしドメイン適応(Unsupervised Domain Adaptation, UDA)は、ドメインシフトの問題に取り組むための効果的なアプローチである。
UDAメソッドは、ターゲットドメインの一般化を改善するために、ソースとターゲット表現を整列させようとする。
Source-Free Adaptation Domain (SFDA)設定は、ソースデータへのアクセスを必要とせずに、ターゲットドメインに対してソーストレーニングされたモデルを適用することで、これらの懸念を軽減することを目的としている。
論文 参考訳(メタデータ) (2022-03-29T17:50:43Z) - MetaCorrection: Domain-aware Meta Loss Correction for Unsupervised
Domain Adaptation in Semantic Segmentation [14.8840510432657]
unsupervised domain adaptation (uda) はラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存の自己学習に基づくUDAアプローチでは、ターゲットデータに擬似ラベルを割り当て、それらを基底真理ラベルとして扱う。
ソースドメインに最適化されたモデルから生成された擬似ラベルは、必然的にドメインギャップによるノイズを含む。
論文 参考訳(メタデータ) (2021-03-09T06:57:03Z) - Open-Set Hypothesis Transfer with Semantic Consistency [99.83813484934177]
本稿では,対象データの変換における意味的一貫性に着目した手法を提案する。
本モデルはまず,自信ある予測を発見し,擬似ラベルを用いた分類を行う。
その結果、ラベルなしデータは、ソースクラスまたは未知のクラスに一致した識別クラスに分類される。
論文 参考訳(メタデータ) (2020-10-01T10:44:31Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。