論文の概要: Boosting Novel Category Discovery Over Domains with Soft Contrastive
Learning and All-in-One Classifier
- arxiv url: http://arxiv.org/abs/2211.11262v1
- Date: Mon, 21 Nov 2022 08:51:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 20:50:19.081538
- Title: Boosting Novel Category Discovery Over Domains with Soft Contrastive
Learning and All-in-One Classifier
- Title(参考訳): ソフトコントラスト学習とオールインワン分類器を用いた新しいカテゴリー発見の促進
- Authors: Zelin Zang, Lei Shang, Senqiao Yang, Baigui Sun, Stan Z. Li
- Abstract要約: 教師なしドメイン適応(UDA)は、ラベルリッチソースドメインからラベルスカースターゲットドメインへの知識の転送に成功している。
我々は,織田・UNDAタスクのためのソフトコントラストオールインワンネットワーク(SAN)を提案する。
- 参考スコア(独自算出の注目度): 29.152861951492213
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unsupervised domain adaptation (UDA) has been highly successful in
transferring knowledge acquired from a label-rich source domain to a
label-scarce target domain. Open-set domain adaptation (ODA) and universal
domain adaptation (UNDA) have been proposed as solutions to the problem
concerning the presence of additional novel categories in the target domain.
Existing ODA and UNDA approaches treat all novel categories as one unified
unknown class and attempt to detect this unknown class during the training
process. We find that domain variance leads to more significant view-noise in
unsupervised data augmentation, affecting the further applications of
contrastive learning~(CL), as well as the current closed-set classifier and
open-set classifier causing the model to be overconfident in novel class
discovery. To address the above two issues, we propose Soft-contrastive
All-in-one Network~(SAN) for ODA and UNDA tasks. SAN includes a novel
data-augmentation-based CL loss, which is used to improve the representational
capability, and a more human-intuitive classifier, which is used to improve the
new class discovery capability. The soft contrastive learning~(SCL) loss is
used to weaken the adverse effects of the data-augmentation label noise
problem, which is amplified in domain transfer. The All-in-One~(AIO) classifier
overcomes the overconfidence problem of the current mainstream closed-set
classifier and open-set classifier in a more human-intuitive way. The
visualization results and ablation experiments demonstrate the importance of
the two proposed innovations. Moreover, extensive experimental results on ODA
and UNDA show that SAN has advantages over the existing state-of-the-art
methods.
- Abstract(参考訳): 非教師なしドメイン適応(UDA)は、ラベルリッチソースドメインから取得した知識をラベルカースターゲットドメインに転送することに成功した。
open-set domain adaptation (oda) と universal domain adaptation (unda) は、対象領域に新たなカテゴリを追加する問題に対する解決策として提案されている。
既存のOdaとUNDAアプローチは、すべての新しいカテゴリを統一された未知のクラスとして扱い、トレーニングプロセス中にこの未知のクラスを検出しようとする。
ドメインの分散は教師なしデータ拡張においてより重要なビューノイズをもたらし、コントラスト学習(cl)のさらなる応用や、現在のクローズドセット分類器とオープンセット分類器に影響を与え、新しいクラス発見においてモデルが自信過剰になる。
上記の2つの課題に対処するため,織田・UNDAタスクのためのソフトコントラストオールインワンネットワーク~(SAN)を提案する。
SANには、表現能力を改善するために使用される新しいデータ拡張ベースのCL損失と、新しいクラス発見能力を改善するために使用されるより人間の直感的な分類器が含まれている。
ソフトコントラスト学習~(SCL)損失は、ドメイン転送において増幅されるデータ拡張ラベルノイズ問題の悪影響を弱めるために用いられる。
All-in-One~(AIO)分類器は、現在の主流閉集合分類器と開集合分類器の過信問題をより直感的に克服する。
可視化結果とアブレーション実験により,提案する2つのイノベーションの重要性が示された。
さらに,織田とUNDAの広範な実験結果から,SANは既存の最先端手法よりも有利であることが示された。
関連論文リスト
- EIANet: A Novel Domain Adaptation Approach to Maximize Class Distinction with Neural Collapse Principles [15.19374752514876]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
SFDAにおける大きな課題は、ターゲットドメインの正確な分類情報を導き出すことである。
クラスプロトタイプを分離するための新しいETF-Informed Attention Network(EIANet)を導入する。
論文 参考訳(メタデータ) (2024-07-23T05:31:05Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Uncertainty-guided Open-Set Source-Free Unsupervised Domain Adaptation with Target-private Class Segregation [22.474866164542302]
UDAアプローチはソースとターゲットドメインが同じラベル空間を共有していると一般的に仮定する。
本稿では、SF-OSDA(Source-Free Open-set Domain Adaptation)設定の課題について考察する。
本稿では,サンプルを複数の未知のクラスに分離することで,ターゲット・プライベートカテゴリの粒度を利用したSF-OSDAの新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-16T13:52:00Z) - MLNet: Mutual Learning Network with Neighborhood Invariance for
Universal Domain Adaptation [70.62860473259444]
ユニバーサルドメイン適応(UniDA)は実用的だが難しい問題である。
既存のUniDAメソッドは、ターゲットドメイン内のドメイン内バリエーションを見落としている問題に悩まされる可能性がある。
そこで我々は,UniDA の近傍不変性を考慮した新しい相互学習ネットワーク (MLNet) を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:34Z) - Unsupervised Adaptation of Polyp Segmentation Models via Coarse-to-Fine
Self-Supervision [16.027843524655516]
本稿では,アノテートされたソースデータへの依存を解消する,ソースフリードメイン適応(Source-Free Domain Adaptation, SFDA)の実践的問題について検討する。
現在のSFDA法は、ソーストレーニングされたモデルからドメイン知識を抽出することに重点を置いているが、対象ドメインの本質的な構造を無視している。
本稿では,領域レベルと画素レベルの識別表現を粗大な自己超越によって学習する,領域間適応ネットワーク(RPANet)と呼ばれる新しいSFDAフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-13T02:37:08Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - Crucial Semantic Classifier-based Adversarial Learning for Unsupervised
Domain Adaptation [4.6899218408452885]
Unsupervised Domain Adaptation (UDA) は、十分にラベル付けされたソースドメインから関連するラベル付けされていないターゲットドメインへの転送可能性を探ることを目的としている。
本稿では,CSCAL(Crucial Semantic-based Adrial Learning)を提案する。
CSCALは、レギュレータとして様々なUDAメソッドに強制的にマージでき、その性能を劇的に向上させることができる。
論文 参考訳(メタデータ) (2023-02-03T13:06:14Z) - Unsupervised Domain Adaptation via Style-Aware Self-intermediate Domain [52.783709712318405]
非教師なしドメイン適応(UDA)は、ラベル豊富なソースドメインから関連するがラベルのないターゲットドメインに知識を伝達する、かなりの注目を集めている。
本研究では,大規模なドメインギャップと伝達知識を橋渡しし,クラス非ネイティブ情報の損失を軽減するために,SAFF(style-aware feature fusion)法を提案する。
論文 参考訳(メタデータ) (2022-09-05T10:06:03Z) - Shuffle Augmentation of Features from Unlabeled Data for Unsupervised
Domain Adaptation [21.497019000131917]
Unsupervised Domain Adaptation (UDA) は、ターゲットサンプルのラベルが利用できない転送学習の分野である。
本稿では,新しいUDAフレームワークとしてShuffle Augmentation of Features (SAF)を提案する。
SAFはターゲットサンプルから学習し、クラス認識対象の特徴を適応的に蒸留し、クラス境界を見つけるために分類器を暗黙的にガイドする。
論文 参考訳(メタデータ) (2022-01-28T07:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。