論文の概要: Subsidiary Prototype Alignment for Universal Domain Adaptation
- arxiv url: http://arxiv.org/abs/2210.15909v1
- Date: Fri, 28 Oct 2022 05:32:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 15:40:22.270702
- Title: Subsidiary Prototype Alignment for Universal Domain Adaptation
- Title(参考訳): ユニバーサルドメイン適応のための下位プロトタイプアライメント
- Authors: Jogendra Nath Kundu, Suvaansh Bhambri, Akshay Kulkarni, Hiran Sarkar,
Varun Jampani, R. Venkatesh Babu
- Abstract要約: Universal Domain Adaptation (UniDA)の大きな問題は、"known"クラスと"unknown"クラスの誤調整である。
ゴールタスクUniDAと協調して動作するクローズドセットSPAを実現するために,新しい単語ヒストグラム関連プレテキストタスクを提案する。
既存のUniDA技術上でのアプローチの有効性を実証し,3つの標準UniDAおよびOpen-Set DAオブジェクト認識ベンチマークの最先端性能を示す。
- 参考スコア(独自算出の注目度): 58.431124236254
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Universal Domain Adaptation (UniDA) deals with the problem of knowledge
transfer between two datasets with domain-shift as well as category-shift. The
goal is to categorize unlabeled target samples, either into one of the "known"
categories or into a single "unknown" category. A major problem in UniDA is
negative transfer, i.e. misalignment of "known" and "unknown" classes. To this
end, we first uncover an intriguing tradeoff between negative-transfer-risk and
domain-invariance exhibited at different layers of a deep network. It turns out
we can strike a balance between these two metrics at a mid-level layer. Towards
designing an effective framework based on this insight, we draw motivation from
Bag-of-visual-Words (BoW). Word-prototypes in a BoW-like representation of a
mid-level layer would represent lower-level visual primitives that are likely
to be unaffected by the category-shift in the high-level features. We develop
modifications that encourage learning of word-prototypes followed by
word-histogram based classification. Following this, subsidiary prototype-space
alignment (SPA) can be seen as a closed-set alignment problem, thereby avoiding
negative transfer. We realize this with a novel word-histogram-related pretext
task to enable closed-set SPA, operating in conjunction with goal task UniDA.
We demonstrate the efficacy of our approach on top of existing UniDA
techniques, yielding state-of-the-art performance across three standard UniDA
and Open-Set DA object recognition benchmarks.
- Abstract(参考訳): Universal Domain Adaptation (UniDA)は、ドメインシフトを伴う2つのデータセット間の知識伝達の問題とカテゴリシフトを扱う。
目標は、ラベルなしのターゲットサンプルを、"known"カテゴリの1つまたは"unknown"カテゴリの1つに分類することである。
UniDAの大きな問題は、負の移動、すなわち「未知」クラスと「未知」クラスの誤配である。
この目的のために、我々はまず、ディープネットワークの異なる層に現れる負の転送リスクとドメイン不変性の間の興味深いトレードオフを明らかにする。
この2つのメトリクスを中間層でバランスをとることができるのです。
この知見に基づく効果的なフレームワークの設計に向けて,Bag-of-visual-Words (BoW) からモチベーションを引き出す。
中層層のBoWライクな表現におけるワードプロトタイプは、高層機能のカテゴリシフトの影響を受けない可能性のある低層視覚プリミティブを表す。
我々は,単語プロトタイプの学習を促進する改良と,単語ヒストグラムに基づく分類を開発する。
その後、補助プロトタイプ空間アライメント(SPA)を閉集合アライメント問題と見なすことができ、負の移動を避けることができる。
そこで我々は,新しい単語ヒストグラム関連プレテキストタスクにより,目標タスクUniDAと連動して,クローズドセットSPAを実現する。
既存のUniDA技術上でのアプローチの有効性を実証し,3つの標準UniDAおよびOpen-Set DAオブジェクト認識ベンチマークの最先端性能を示す。
関連論文リスト
- Reducing Source-Private Bias in Extreme Universal Domain Adaptation [11.875619863954238]
Universal Domain Adaptation (UniDA)は、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
我々は、ソースドメインが重複するクラスよりもはるかに重複しないクラスを持つ場合、最先端のメソッドが苦労していることを示す。
対象データの構造を保存するために,自己教師付き学習を提案する。
論文 参考訳(メタデータ) (2024-10-15T04:51:37Z) - EIANet: A Novel Domain Adaptation Approach to Maximize Class Distinction with Neural Collapse Principles [15.19374752514876]
ソースフリードメイン適応(SFDA)は、ラベル付きソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
SFDAにおける大きな課題は、ターゲットドメインの正確な分類情報を導き出すことである。
クラスプロトタイプを分離するための新しいETF-Informed Attention Network(EIANet)を導入する。
論文 参考訳(メタデータ) (2024-07-23T05:31:05Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Imbalanced Open Set Domain Adaptation via Moving-threshold Estimation
and Gradual Alignment [58.56087979262192]
Open Set Domain Adaptation (OSDA) は、よくラベルされたソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
OSDA法の性能はドメイン内クラス不均衡とドメイン間ラベルシフトで大幅に低下する。
ラベルシフトによって生じる負の効果を軽減するために,オープンセット移動閾値推定とグラデーショナルアライメント(OMEGA)を提案する。
論文 参考訳(メタデータ) (2023-03-08T05:55:02Z) - CDA: Contrastive-adversarial Domain Adaptation [11.354043674822451]
我々はtextbfContrastive-adversarial textbfDomain textbfAdaptation textbf(CDA) と呼ばれるドメイン適応のための2段階モデルを提案する。
逆成分はドメインレベルのアライメントを促進するが、2段階のコントラスト学習はクラス情報を利用してドメイン間の高いクラス内コンパクト性を実現する。
論文 参考訳(メタデータ) (2023-01-10T07:43:21Z) - UDA-COPE: Unsupervised Domain Adaptation for Category-level Object Pose
Estimation [84.16372642822495]
我々は、textbfUDA-COPEと呼ばれるカテゴリレベルのオブジェクトポーズ推定のための教師なしドメイン適応(UDA)を提案する。
近年のマルチモーダルなUDA手法に触発された提案手法は,教師が指導する自己教師型学習手法を利用して,ターゲットドメインラベルを使わずにポーズ推定ネットワークを訓練する。
論文 参考訳(メタデータ) (2021-11-24T16:00:48Z) - Multi-Level Features Contrastive Networks for Unsupervised Domain
Adaptation [6.934905764152813]
教師なしのドメイン適応は、ラベル付きソースドメインからモデルをトレーニングし、ラベルなしのターゲットドメインで予測することを目的としています。
既存のメソッドは2つのドメインをドメインレベルに直接アライメントするか、あるいは深い機能に基づいてクラスレベルのドメインアライメントを実行する傾向があります。
本稿では,クラスレベルのアライメント手法について述べる。
論文 参考訳(メタデータ) (2021-09-14T09:23:27Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - Domain Adaptive Semantic Segmentation Using Weak Labels [115.16029641181669]
本稿では,画像レベルの弱いラベルを持つセマンティックセグメンテーションにおけるドメイン適応のための新しいフレームワークを提案する。
ネットワークに特定のカテゴリへの参加を強制する弱いラベル分類モジュールを開発する。
実験では,UDAにおける既存の最先端技術に対する大幅な改善と,WDA設定における新たなベンチマークを示す。
論文 参考訳(メタデータ) (2020-07-30T01:33:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。