論文の概要: Boosting Open-Set Domain Adaptation with Threshold Self-Tuning and
Cross-Domain Mixup
- arxiv url: http://arxiv.org/abs/2303.05933v2
- Date: Mon, 13 Mar 2023 02:45:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 11:09:50.419585
- Title: Boosting Open-Set Domain Adaptation with Threshold Self-Tuning and
Cross-Domain Mixup
- Title(参考訳): Threshold Self-Tuning and Cross-Domain Mixupによるオープンセットドメイン適応の強化
- Authors: Xinghong Liu, Yi Zhou, Tao Zhou, Jie Qin, Shengcai Liao
- Abstract要約: オープンセットドメイン適応(OSDA)は、ソースとターゲットドメインが共有する共通クラスに属するターゲットサンプルを認識するだけでなく、未知のクラスサンプルを認識することを目的としている。
ほとんどのOSDAアプローチは、共通クラスと未知クラスを区別するために信頼性値のみに依存する。
我々はOSDAシナリオ用に設計されたクロスドメイン・ミックスアップ手法を導入し、より連続的な潜在空間におけるドメイン不変の特徴を学習する。
- 参考スコア(独自算出の注目度): 50.620824701934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-set domain adaptation (OSDA) aims to not only recognize target samples
belonging to common classes shared by source and target domains but also
perceive unknown class samples. Existing OSDA methods suffer from two
obstacles. Firstly, a tedious process of manually tuning a hyperparameter
$threshold$ is required for most OSDA approaches to separate common and unknown
classes. It is difficult to determine a proper threshold when the target domain
data is unlabeled. Secondly, most OSDA methods rely only on confidence values
to distinguish between common and unknown classes, using limited source and
target samples to train models, leading to unsatisfactory performance when the
target domain has mostly unknown classes. Our studies demonstrate that
exploiting multiple criteria within a more continuous latent space is
beneficial for the model's performance. In this paper, we design a novel
threshold self-tuning and cross-domain mixup (TSCM) method to overcome the two
drawbacks. TSCM can automatically tune a proper threshold utilizing unlabeled
target samples rather than manually setting an empirical hyperparameter. Our
method considers multiple criteria instead of only the confidence and uses the
threshold generated by itself to separate common and unknown classes in the
target domain. Moreover, we introduce a cross-domain mixup method designed for
OSDA scenarios to learn domain-invariant features in a more continuous latent
space. Comprehensive experiments illustrate that our method consistently
achieves superior performance on different benchmarks compared with various
state-of-the-art methods.
- Abstract(参考訳): オープンセットドメイン適応(OSDA)は、ソースとターゲットドメインが共有する共通クラスに属するターゲットサンプルを認識するだけでなく、未知のクラスサンプルを認識することを目的としている。
既存のOSDAメソッドは2つの障害に悩まされている。
まず、一般的なクラスと未知のクラスを分離するほとんどのosdaアプローチには、ハイパーパラメータ$threshold$を手動でチューニングする退屈なプロセスが必要である。
対象領域データがラベルされていない場合、適切なしきい値を決定するのは難しい。
第二に、ほとんどのOSDAメソッドは、一般的なクラスと未知のクラスを区別するためにのみ信頼性値に依存し、限られたソースとターゲットサンプルを使用してモデルをトレーニングする。
本研究は,より連続的な潜在空間における複数の基準の活用が,モデルの性能に有益であることを示す。
本稿では,2つの欠点を克服するために,新しいしきい値の自己チューニングとクロスドメイン・ミックスアップ(TSCM)手法を設計する。
TSCMは、経験的ハイパーパラメータを手動で設定するのではなく、ラベルのないターゲットサンプルを使用して、適切なしきい値を自動的に調整することができる。
提案手法は,信頼度のみではなく,複数の基準を考慮し,対象ドメイン内の共通クラスと未知クラスを分離するために,それ自体が生成するしきい値を使用する。
さらに,osdaシナリオ用に設計されたクロスドメインミックスアップ手法を導入し,より連続的な潜在空間でドメイン不変な特徴を学習する。
総合的な実験により,本手法は様々なベンチマークにおいて,様々な最先端手法と比較して,一貫して優れた性能を達成できることを示した。
関連論文リスト
- Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization [15.338029608652777]
単一オープンソースのオープンソースドメイン一般化(SS-ODG)は、トレーニング中の監督とテスト中の未ラベルの新規ターゲットドメインによるラベル付きソースドメインの課題に対処する。
本稿では,新しいドメインを同時に合成し,擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラス標本のスタイルを多様化することにより一般化を促進する。
論文 参考訳(メタデータ) (2023-11-05T08:53:07Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Against Adversarial Learning: Naturally Distinguish Known and Unknown in
Open Set Domain Adaptation [17.819949636876018]
オープンセットドメイン適応は、ターゲットドメインがソースドメインに存在しないカテゴリを含むというシナリオを指す。
本研究では,未知のターゲットデータと未知のデータとを自然に識別できる「逆学習」手法を提案する。
実験結果から,提案手法はいくつかの最先端手法と比較して性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-11-04T10:30:43Z) - Adversarial Network with Multiple Classifiers for Open Set Domain
Adaptation [9.251407403582501]
本稿では、対象ドメインがプライベート(未知クラス)ラベル空間と共有(未知クラス)ラベル空間の両方を持つようなオープンセットドメイン適応設定のタイプに焦点を当てる。
分布整合領域適応法はそのような設定では不十分である。
本稿では,複数の補助分類器を用いた新しい対向領域適応モデルを提案する。
論文 参考訳(メタデータ) (2020-07-01T11:23:07Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。