論文の概要: Boosting Novel Category Discovery Over Domains with Soft Contrastive
Learning and All-in-One Classifier
- arxiv url: http://arxiv.org/abs/2211.11262v3
- Date: Sun, 23 Jul 2023 07:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 00:32:37.384656
- Title: Boosting Novel Category Discovery Over Domains with Soft Contrastive
Learning and All-in-One Classifier
- Title(参考訳): ソフトコントラスト学習とオールインワン分類器を用いた新しいカテゴリー発見の促進
- Authors: Zelin Zang, Lei Shang, Senqiao Yang, Fei Wang, Baigui Sun, Xuansong
Xie, Stan Z. Li
- Abstract要約: 非教師なしドメイン適応(UDA)は、ラベルリッチソースドメインからラベルスカースターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
標的領域に新たなカテゴリが存在することは、オープンセットドメイン適応(ODA)とユニバーサルドメイン適応(UNDA)の発展につながっている。
SAN(Soft-Contrastive All-in-one Network)と呼ばれるフレームワークが,ODAおよびUNDAタスクに対して提案されている。
- 参考スコア(独自算出の注目度): 36.821743383552864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) has proven to be highly effective in
transferring knowledge from a label-rich source domain to a label-scarce target
domain. However, the presence of additional novel categories in the target
domain has led to the development of open-set domain adaptation (ODA) and
universal domain adaptation (UNDA). Existing ODA and UNDA methods treat all
novel categories as a single, unified unknown class and attempt to detect it
during training. However, we found that domain variance can lead to more
significant view-noise in unsupervised data augmentation, which affects the
effectiveness of contrastive learning (CL) and causes the model to be
overconfident in novel category discovery. To address these issues, a framework
named Soft-contrastive All-in-one Network (SAN) is proposed for ODA and UNDA
tasks. SAN includes a novel data-augmentation-based soft contrastive learning
(SCL) loss to fine-tune the backbone for feature transfer and a more
human-intuitive classifier to improve new class discovery capability. The SCL
loss weakens the adverse effects of the data augmentation view-noise problem
which is amplified in domain transfer tasks. The All-in-One (AIO) classifier
overcomes the overconfidence problem of current mainstream closed-set and
open-set classifiers. Visualization and ablation experiments demonstrate the
effectiveness of the proposed innovations. Furthermore, extensive experiment
results on ODA and UNDA show that SAN outperforms existing state-of-the-art
methods.
- Abstract(参考訳): 非教師なしドメイン適応(UDA)は、ラベルリッチソースドメインからラベルスカースターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
しかし、対象領域に新たなカテゴリを追加することで、open-set domain adaptation (oda) と universal domain adaptation (unda) が開発された。
既存のOdaおよびUNDAメソッドは、すべての新しいカテゴリを単一の統一された未知のクラスとして扱い、トレーニング中にそれを検出しようとする。
しかし, 領域の分散は, 教師なしデータ拡張において, 比較学習(CL)の有効性に影響を及ぼし, 新たなカテゴリー発見においてモデルが過度に信頼される原因となりうる。
これらの課題に対処するため,ODAおよびUNDAタスクに対して,Soft-Contrastive All-in-one Network (SAN) というフレームワークを提案する。
SANには、特徴伝達のためのバックボーンを微調整する新しいデータ拡張ベースのソフトコントラスト学習(SCL)と、新しいクラス発見機能を改善するためのより人間の直感的な分類器が含まれている。
SCL損失は、ドメイン転送タスクで増幅されたデータ拡張ビューノイズ問題の悪影響を弱める。
All-in-One(AIO)分類器は、現在の主流閉集合および開集合分類器の過信問題を克服する。
可視化およびアブレーション実験は、提案されたイノベーションの有効性を示す。
さらに、織田とUNDAの広範な実験結果から、SANは既存の最先端手法よりも優れていることが示された。
関連論文リスト
- EIANet: A Novel Domain Adaptation Approach to Maximize Class Distinction with Neural Collapse Principles [15.19374752514876]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
SFDAにおける大きな課題は、ターゲットドメインの正確な分類情報を導き出すことである。
クラスプロトタイプを分離するための新しいETF-Informed Attention Network(EIANet)を導入する。
論文 参考訳(メタデータ) (2024-07-23T05:31:05Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - Unsupervised Adaptation of Polyp Segmentation Models via Coarse-to-Fine
Self-Supervision [16.027843524655516]
本稿では,アノテートされたソースデータへの依存を解消する,ソースフリードメイン適応(Source-Free Domain Adaptation, SFDA)の実践的問題について検討する。
現在のSFDA法は、ソーストレーニングされたモデルからドメイン知識を抽出することに重点を置いているが、対象ドメインの本質的な構造を無視している。
本稿では,領域レベルと画素レベルの識別表現を粗大な自己超越によって学習する,領域間適応ネットワーク(RPANet)と呼ばれる新しいSFDAフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-13T02:37:08Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Crucial Semantic Classifier-based Adversarial Learning for Unsupervised
Domain Adaptation [4.6899218408452885]
Unsupervised Domain Adaptation (UDA) は、十分にラベル付けされたソースドメインから関連するラベル付けされていないターゲットドメインへの転送可能性を探ることを目的としている。
本稿では,CSCAL(Crucial Semantic-based Adrial Learning)を提案する。
CSCALは、レギュレータとして様々なUDAメソッドに強制的にマージでき、その性能を劇的に向上させることができる。
論文 参考訳(メタデータ) (2023-02-03T13:06:14Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation [21.497019000131917]
Unsupervised Domain Adaptation (UDA) は、ターゲットサンプルのラベルが利用できない転送学習の分野である。
本稿では,新しいUDAフレームワークとしてShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために分類器を暗黙的にガイドする。
論文 参考訳(メタデータ) (2022-01-28T07:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。