論文の概要: Geometry-Aware Unsupervised Domain Adaptation
- arxiv url: http://arxiv.org/abs/2112.11041v1
- Date: Tue, 21 Dec 2021 08:45:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:24:19.846170
- Title: Geometry-Aware Unsupervised Domain Adaptation
- Title(参考訳): 幾何学的非教師付きドメイン適応
- Authors: You-Wei Luo, Chuan-Xian Ren and Zi-Ying Chen
- Abstract要約: Unsupervised Domain Adaptation (UDA)は、データセットシフトの存在下で、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のほとんどのメソッドは、ドメインのアライメントやクラス識別にうまく対応できないため、下流タスクの本質的なデータ構造を歪めてしまう可能性がある。
核ノルム最適化により,移動可能性と識別性を同時に学習するための新しい幾何認識モデルを提案する。
- 参考スコア(独自算出の注目度): 12.298214579392129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised Domain Adaptation (UDA) aims to transfer the knowledge from the
labeled source domain to the unlabeled target domain in the presence of dataset
shift. Most existing methods cannot address the domain alignment and class
discrimination well, which may distort the intrinsic data structure for
downstream tasks (e.g., classification). To this end, we propose a novel
geometry-aware model to learn the transferability and discriminability
simultaneously via nuclear norm optimization. We introduce the domain coherence
and class orthogonality for UDA from the perspective of subspace geometry. The
domain coherence will ensure the model has a larger capacity for learning
separable representations, and class orthogonality will minimize the
correlation between clusters to alleviate the misalignment. So, they are
consistent and can benefit from each other. Besides, we provide a theoretical
insight into the norm-based learning literature in UDA, which ensures the
interpretability of our model. We show that the norms of domains and clusters
are expected to be larger and smaller to enhance the transferability and
discriminability, respectively. Extensive experimental results on standard UDA
datasets demonstrate the effectiveness of our theory and model.
- Abstract(参考訳): Unsupervised Domain Adaptation (UDA)は、データセットシフトの存在下で、ラベル付きソースドメインからラベルなしターゲットドメインに知識を転送することを目的としている。
既存のメソッドの多くはドメインアライメントやクラス識別をうまく扱えないため、下流タスク(例えば分類)固有のデータ構造を歪めてしまう可能性がある。
そこで本研究では,核ノルム最適化による伝達性と識別性を同時に学習する新しい幾何認識モデルを提案する。
部分空間幾何学の観点から、UDAの領域コヒーレンスとクラス直交性を導入する。
ドメインコヒーレンスによって、モデルの分離可能な表現の学習能力が向上し、クラス直交性はクラスタ間の相関を最小化し、不一致を軽減する。
一貫性があり、お互いの利益を享受できるのです。
さらに、UDAにおける規範に基づく学習文献に関する理論的知見を提供し、モデルの解釈可能性を保証する。
ドメインとクラスタのノルムは、それぞれ転送可能性と識別性を高めるために、より大きく、より小さくなることが期待される。
標準UDAデータセットの大規模な実験結果から,我々の理論とモデルの有効性が示された。
関連論文リスト
- Gradually Vanishing Gap in Prototypical Network for Unsupervised Domain Adaptation [32.58201185195226]
プロトタイプネットワーク(GVG-PN)におけるGradually Vanishing Gapという効率的なUDAフレームワークを提案する。
我々のモデルは,グローバルとローカルの両方の観点からの伝達学習を実現する。
いくつかのUDAベンチマークの実験では、提案されたGVG-PNがSOTAモデルより明らかに優れていることが検証された。
論文 参考訳(メタデータ) (2024-05-28T03:03:32Z) - Unsupervised Domain Adaptation Using Compact Internal Representations [23.871860648919593]
教師なしドメイン適応に対処する技術では、ソースとターゲットドメインの両方からデータポイントを共有埋め込み空間にマッピングする。
我々は、ソース領域の内部分布をよりコンパクトにする追加の手法を開発する。
組込み空間における異なるクラスのデータ表現間のマージンを増大させることで、UDAのモデル性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-01-14T05:53:33Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - Relation Matters: Foreground-aware Graph-based Relational Reasoning for
Domain Adaptive Object Detection [81.07378219410182]
我々は、FGRR(Fearground-aware Graph-based Reasoning)というドメインDのための新しい汎用フレームワークを提案する。
FGRRはグラフ構造を検出パイプラインに組み込んで、ドメイン内およびドメイン間フォアグラウンドオブジェクト関係を明示的にモデル化する。
実験の結果、提案したFGRRは4つのDomainDベンチマークの最先端よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-06-06T05:12:48Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - On Universal Black-Box Domain Adaptation [53.7611757926922]
実践的な展開という観点から,ドメイン適応の最小限の制約条件について検討する。
ソースモデルのインターフェースのみがターゲットドメインで利用可能であり、2つのドメイン間のラベル空間関係が異なることや未知であることが許されている。
対象試料の局所近傍における予測の整合性によって正規化された自己訓練フレームワークに統一することを提案する。
論文 参考訳(メタデータ) (2021-04-10T02:21:09Z) - Towards Uncovering the Intrinsic Data Structures for Unsupervised Domain
Adaptation using Structurally Regularized Deep Clustering [119.88565565454378]
Unsupervised Domain Adapt (UDA) は、ターゲットドメイン上のラベルなしデータの予測を行う分類モデルを学ぶことである。
本稿では,対象データの正規化判別クラスタリングと生成クラスタリングを統合する構造的正規化深層クラスタリングのハイブリッドモデルを提案する。
提案するH-SRDCは, インダクティブ設定とトランスダクティブ設定の両方において, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2020-12-08T08:52:00Z) - Dual Mixup Regularized Learning for Adversarial Domain Adaptation [19.393393465837377]
教師なしドメイン適応のための二重混合正規化学習(DMRL)法を提案する。
DMRLは、サンプル間の一貫した予測を強化するために分類器をガイドし、潜在空間の内在構造を豊かにする。
4つのドメイン適応ベンチマークに関する一連の実証研究は、我々のアプローチが最先端を実現することを実証している。
論文 参考訳(メタデータ) (2020-07-07T00:24:14Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z) - Bi-Directional Generation for Unsupervised Domain Adaptation [61.73001005378002]
教師なしのドメイン適応は、確立されたソースドメイン情報に依存するラベルなしのターゲットドメインを促進する。
従来の手法では、潜在空間におけるドメインの不一致を強制的に低減することで、本質的なデータ構造が破壊される。
本稿では、2つの中間領域をブリッジソースとターゲットドメインに補間する一貫した分類器を用いた双方向生成ドメイン適応モデルを提案する。
論文 参考訳(メタデータ) (2020-02-12T09:45:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。