論文の概要: Open Set Domain Adaptation By Novel Class Discovery
- arxiv url: http://arxiv.org/abs/2203.03329v1
- Date: Mon, 7 Mar 2022 12:16:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 21:59:19.196732
- Title: Open Set Domain Adaptation By Novel Class Discovery
- Title(参考訳): 新規クラス発見によるオープンセットドメイン適応
- Authors: Jingyu Zhuang, Ziliang Chen, Pengxu Wei, Guanbin Li, Liang Lin
- Abstract要約: Open Set Domain Adaptation (OSDA)では、ソースドメインに存在しない暗黙のカテゴリから大量のターゲットサンプルが引き出される。
暗黙のクラスを徐々に発見することによってOSDAを実現しようとする自己教師付きクラス発見アダプタを提案する。
- 参考スコア(独自算出の注目度): 118.25447367755737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Open Set Domain Adaptation (OSDA), large amounts of target samples are
drawn from the implicit categories that never appear in the source domain. Due
to the lack of their specific belonging, existing methods indiscriminately
regard them as a single class unknown. We challenge this broadly-adopted
practice that may arouse unexpected detrimental effects because the decision
boundaries between the implicit categories have been fully ignored. Instead, we
propose Self-supervised Class-Discovering Adapter (SCDA) that attempts to
achieve OSDA by gradually discovering those implicit classes, then
incorporating them to restructure the classifier and update the domain-adaptive
features iteratively. SCDA performs two alternate steps to achieve implicit
class discovery and self-supervised OSDA, respectively. By jointly optimizing
for two tasks, SCDA achieves the state-of-the-art in OSDA and shows a
competitive performance to unearth the implicit target classes.
- Abstract(参考訳): Open Set Domain Adaptation (OSDA)では、ソースドメインに存在しない暗黙のカテゴリから大量のターゲットサンプルが引き出される。
特定の属がないため、既存のメソッドは無差別に単一のクラスとして認識している。
我々は、暗黙のカテゴリー間の決定境界が完全に無視されているため、予期せぬ有害な影響を引き起こすような、広く受け入れられたこの実践に挑戦する。
その代わりに、暗黙のクラスを徐々に発見し、それらを組み込んで分類器を再構築し、ドメイン適応機能を反復的に更新することでOSDAを実現するセルフ教師付きクラス発見アダプタ(SCDA)を提案する。
SCDAは暗黙のクラス発見と自己教師型OSDAの2つのステップを実行する。
2つのタスクを共同で最適化することにより、SCDAはOSDAの最先端を達成し、暗黙のターゲットクラスを探索する競合性能を示す。
関連論文リスト
- Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Subtype-Aware Dynamic Unsupervised Domain Adaptation [36.996764621968204]
非教師付きドメイン適応(UDA)は、ラベル付きソースドメインからラベルなしのターゲットドメインへの知識伝達に成功している。
そこで本稿では,両ドメインのサブタイプラベルを使わずに,対象ドメインの性能を向上させるために,細粒度サブタイプ認識アライメントを適応的に行う手法を提案する。
論文 参考訳(メタデータ) (2022-08-16T14:02:47Z) - Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation [21.497019000131917]
Unsupervised Domain Adaptation (UDA) は、ターゲットサンプルのラベルが利用できない転送学習の分野である。
本稿では,新しいUDAフレームワークとしてShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために分類器を暗黙的にガイドする。
論文 参考訳(メタデータ) (2022-01-28T07:11:05Z) - UMAD: Universal Model Adaptation under Domain and Category Shift [138.12678159620248]
Universal Model Adaptation (UMAD)フレームワークは、ソースデータにアクセスせずに両方のUDAシナリオを処理する。
未知のサンプルと未知のサンプルを識別するのに役立つ情報整合性スコアを開発した。
オープンセットおよびオープンパーティルセット UDA シナリオの実験では、UMAD が最先端のデータ依存手法に匹敵する性能を示した。
論文 参考訳(メタデータ) (2021-12-16T01:22:59Z) - Generalized Domain Adaptation [16.36451405054308]
一般化ドメイン適応 (Generalized Domain Adaptation, GDA) という UDA 問題の一般的な表現を与える。
GDAは、主要な変種を特別なケースとしてカバーしており、包括的なフレームワークでそれらを整理することができます。
本稿では,自己教師型クラス破壊学習システムである新しいセッティングに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-03T07:55:18Z) - Casting a BAIT for Offline and Online Source-free Domain Adaptation [51.161476418834766]
我々は、ソースフリードメイン適応(SFDA)問題に対処し、ターゲットドメインへの適応中にのみソースモデルが利用可能となる。
本稿では,多種多様な分類器に基づくドメイン適応法に着想を得て,第2の分類器を導入する。
ターゲットドメインに適合すると、ソースから追加の分類器が誤って分類された特徴を見つけることが期待される。
本手法は, オープンソースフリードメイン適応設定下において, SFDA法をはるかに上回っている。
論文 参考訳(メタデータ) (2020-10-23T14:18:42Z) - Class-Incremental Domain Adaptation [56.72064953133832]
私たちは、CIDA(Class-Incremental Domain Adaptation)と呼ばれる実践的ドメイン適応(DA)パラダイムを導入します。
既存のDAメソッドはドメインシフトに取り組むが、新しいターゲットドメインクラスを学ぶのには適さない。
提案手法は,CIDAパラダイムにおけるDAメソッドとCIメソッドの両方と比較して,優れた性能が得られる。
論文 参考訳(メタデータ) (2020-08-04T07:55:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。