論文の概要: Self-Paced Learning for Open-Set Domain Adaptation
- arxiv url: http://arxiv.org/abs/2303.05933v3
- Date: Tue, 21 Mar 2023 11:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 22:58:47.174137
- Title: Self-Paced Learning for Open-Set Domain Adaptation
- Title(参考訳): オープンセットドメイン適応のための自己更新学習
- Authors: Xinghong Liu, Yi Zhou, Tao Zhou, Jie Qin, Shengcai Liao
- Abstract要約: 従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 50.620824701934
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain adaptation tackles the challenge of generalizing knowledge acquired
from a source domain to a target domain with different data distributions.
Traditional domain adaptation methods presume that the classes in the source
and target domains are identical, which is not always the case in real-world
scenarios. Open-set domain adaptation (OSDA) addresses this limitation by
allowing previously unseen classes in the target domain. Open-set domain
adaptation aims to not only recognize target samples belonging to common
classes shared by source and target domains but also perceive unknown class
samples. We propose a novel framework based on self-paced learning to
distinguish common and unknown class samples precisely, referred to as SPLOS
(self-paced learning for open-set). To utilize unlabeled target samples for
self-paced learning, we generate pseudo labels and design a cross-domain mixup
method tailored for OSDA scenarios. This strategy minimizes the noise from
pseudo labels and ensures our model progressively learns common class features
of the target domain, beginning with simpler examples and advancing to more
complex ones. Furthermore, unlike existing OSDA methods that require manual
hyperparameter $threshold$ tuning to separate common and unknown classes, our
approach self-tunes a suitable threshold, eliminating the need for empirical
tuning during testing. Comprehensive experiments illustrate that our method
consistently achieves superior performance on different benchmarks compared
with various state-of-the-art methods.
- Abstract(参考訳): ドメイン適応は、ソースドメインから取得した知識を異なるデータ分布を持つターゲットドメインに一般化するという課題に取り組む。
従来のドメイン適応手法では、ソースドメインとターゲットドメインのクラスは同一であると仮定するが、これは現実のシナリオでは必ずしもそうではない。
open-set domain adaptation (osda) は、この制限に対処し、対象ドメイン内の未定義のクラスを許可する。
オープンセットドメイン適応は、ソースとターゲットドメインが共有する共通クラスに属するターゲットサンプルを認識するだけでなく、未知のクラスサンプルを認識することを目的としている。
本稿では,SPLOS(self-paced learning for open-set)と呼ばれる,共通および未知のクラスサンプルを正確に識別する,自己評価学習に基づく新しいフレームワークを提案する。
未ラベルのターゲットサンプルを自己ペース学習に利用するために,擬似ラベルを生成し,osdaシナリオ用に調整したクロスドメインミックスアップ手法を設計する。
この戦略は擬似ラベルからのノイズを最小限に抑え、モデルが対象ドメインの共通クラス特徴を徐々に学習し、より単純な例から始まり、より複雑なものへと進むことを保証します。
さらに、手動のハイパーパラメータ$threshold$チューニングを必要とする既存のOSDAメソッドとは異なり、我々のアプローチは、テスト中に経験的なチューニングを不要にし、適切なしきい値を自己チューニングする。
総合的な実験により,本手法は様々なベンチマークにおいて,様々な最先端手法と比較して,一貫して優れた性能を達成できることを示した。
関連論文リスト
- Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - Learning Class and Domain Augmentations for Single-Source Open-Domain
Generalization [15.338029608652777]
単一オープンソースのオープンソースドメイン一般化(SS-ODG)は、トレーニング中の監督とテスト中の未ラベルの新規ターゲットドメインによるラベル付きソースドメインの課題に対処する。
本稿では,新しいドメインを同時に合成し,擬似オープンサンプルを生成するSODG-Netという新しいフレームワークを提案する。
提案手法は,新しい計量基準を用いて既知のクラス標本のスタイルを多様化することにより一般化を促進する。
論文 参考訳(メタデータ) (2023-11-05T08:53:07Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Instance Level Affinity-Based Transfer for Unsupervised Domain
Adaptation [74.71931918541748]
ILA-DAと呼ばれる適応中のソースからターゲットへの転送に対するインスタンス親和性に基づく基準を提案する。
まず、ソースとターゲットをまたいだ類似および異種サンプルを抽出し、マルチサンプルのコントラスト損失を利用してドメインアライメントプロセスを駆動する信頼性が高く効率的な手法を提案する。
ILA-DAの有効性は、様々なベンチマークデータセットに対する一般的なドメイン適応手法よりも精度が一貫した改善を観察することによって検証する。
論文 参考訳(メタデータ) (2021-04-03T01:33:14Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Against Adversarial Learning: Naturally Distinguish Known and Unknown in
Open Set Domain Adaptation [17.819949636876018]
オープンセットドメイン適応は、ターゲットドメインがソースドメインに存在しないカテゴリを含むというシナリオを指す。
本研究では,未知のターゲットデータと未知のデータとを自然に識別できる「逆学習」手法を提案する。
実験結果から,提案手法はいくつかの最先端手法と比較して性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-11-04T10:30:43Z) - Adversarial Network with Multiple Classifiers for Open Set Domain
Adaptation [9.251407403582501]
本稿では、対象ドメインがプライベート(未知クラス)ラベル空間と共有(未知クラス)ラベル空間の両方を持つようなオープンセットドメイン適応設定のタイプに焦点を当てる。
分布整合領域適応法はそのような設定では不十分である。
本稿では,複数の補助分類器を用いた新しい対向領域適応モデルを提案する。
論文 参考訳(メタデータ) (2020-07-01T11:23:07Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。