論文の概要: Domain Adaptive Few-Shot Open-Set Learning
- arxiv url: http://arxiv.org/abs/2309.12814v1
- Date: Fri, 22 Sep 2023 12:04:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 14:52:07.584266
- Title: Domain Adaptive Few-Shot Open-Set Learning
- Title(参考訳): ドメイン適応型マイナショットオープンセット学習
- Authors: Debabrata Pal, Deeptej More, Sai Bhargav, Dipesh Tamboli, Vaneet
Aggarwal, Biplab Banerjee
- Abstract要約: 本稿では,DA-FSOS(Domain Adaptive Few-Shot Open Set Recognition)を提案する。
我々のトレーニングアプローチは、DAFOS-NETがターゲットドメインの新しいシナリオにうまく適応できるようにします。
本稿では,Office-Home,mini-ImageNet/CUB,DomainNetデータセットに基づくDA-FSOSの3つのベンチマークを示す。
- 参考スコア(独自算出の注目度): 36.39622440120531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning has made impressive strides in addressing the crucial
challenges of recognizing unknown samples from novel classes in target query
sets and managing visual shifts between domains. However, existing techniques
fall short when it comes to identifying target outliers under domain shifts by
learning to reject pseudo-outliers from the source domain, resulting in an
incomplete solution to both problems. To address these challenges
comprehensively, we propose a novel approach called Domain Adaptive Few-Shot
Open Set Recognition (DA-FSOS) and introduce a meta-learning-based architecture
named DAFOSNET. During training, our model learns a shared and discriminative
embedding space while creating a pseudo open-space decision boundary, given a
fully-supervised source domain and a label-disjoint few-shot target domain. To
enhance data density, we use a pair of conditional adversarial networks with
tunable noise variances to augment both domains closed and pseudo-open spaces.
Furthermore, we propose a domain-specific batch-normalized class prototypes
alignment strategy to align both domains globally while ensuring
class-discriminativeness through novel metric objectives. Our training approach
ensures that DAFOS-NET can generalize well to new scenarios in the target
domain. We present three benchmarks for DA-FSOS based on the Office-Home,
mini-ImageNet/CUB, and DomainNet datasets and demonstrate the efficacy of
DAFOS-NET through extensive experimentation
- Abstract(参考訳): ターゲットクエリセット内の新しいクラスから未知のサンプルを認識し、ドメイン間の視覚的シフトを管理するという、重要な課題に対処する上で、ショットラーニングはほとんど大きな進歩を遂げた。
しかし、既存のテクニックは、ソースドメインからの擬似外乱を拒否することを学ぶことによって、ドメインシフトの下でターゲット外乱を識別することに関して不足している。
これらの課題に包括的に対処するために,DA-FSOS(Domain Adaptive Few-Shot Open Set Recognition)と呼ばれる新しいアプローチを提案し,DAFOSNETというメタラーニングに基づくアーキテクチャを導入する。
トレーニング中,本モデルは,完全教師付きソースドメインとラベル非結合な少数ショットターゲットドメインを与えられた擬似オープンスペース決定境界を作成しながら,共有かつ差別的な埋め込み空間を学習する。
データ密度を高めるために、可変ノイズ分散を持つ条件付き対の逆数ネットワークを用いて、閉領域と擬似オープン空間を拡大する。
さらに,新しい計量目標によるクラス識別性を確保しつつ,両ドメインをグローバルに整列させるドメイン固有バッチ正規化クラスプロトタイプアライメント戦略を提案する。
我々のトレーニングアプローチは、DAFOS-NETがターゲットドメインの新しいシナリオにうまく適応できるようにします。
Office-Home、mini-ImageNet/CUB、DomainNetデータセットに基づくDA-FSOSの3つのベンチマークを行い、広範囲な実験を通してDAFOS-NETの有効性を実証する。
関連論文リスト
- Self-Paced Learning for Open-Set Domain Adaptation [50.620824701934]
従来のドメイン適応手法は、ソースとターゲットドメインのクラスが同一であると仮定する。
オープンセットドメイン適応(OSDA)は、この制限に対処する。
そこで,本研究では,共通クラスと未知クラスを識別するための自己評価学習に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-10T14:11:09Z) - Few-Shot Object Detection in Unseen Domains [4.36080478413575]
Few-shot Object Detection (FSOD)は、データ制限のある新しいオブジェクトクラスを学ぶために近年発展している。
そこで本稿では,ドメイン固有の情報をすべて考慮し,新しいクラスを数枚追加する手法を提案する。
T-LESSデータセットを用いた実験により,提案手法はドメインギャップを著しく緩和することに成功した。
論文 参考訳(メタデータ) (2022-04-11T13:16:41Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Towards Unsupervised Domain Adaptation for Deep Face Recognition under
Privacy Constraints via Federated Learning [33.33475702665153]
FedFR (Unsupervised Federated Face Recognition approach) を提案する。
fedfrは、フェデレーション学習を通じてソースドメインから知識を反復的に集約することで、ターゲットドメインのパフォーマンスを向上させる。
ドメイン間の生データの代わりにモデルを転送することで、データプライバシーを保護します。
論文 参考訳(メタデータ) (2021-05-17T04:24:25Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Cluster, Split, Fuse, and Update: Meta-Learning for Open Compound Domain
Adaptive Semantic Segmentation [102.42638795864178]
セマンティックセグメンテーションのための原則的メタラーニングに基づくOCDAアプローチを提案する。
対象ドメインを複数のサブターゲットドメインに,教師なしの方法で抽出した画像スタイルでクラスタリングする。
その後、メタラーニングがデプロイされ、スタイルコードに条件付きでサブターゲットドメイン固有の予測を融合するように学習される。
モデルに依存しないメタラーニング(MAML)アルゴリズムにより,モデルをオンライン更新することを学び,一般化をさらに改善する。
論文 参考訳(メタデータ) (2020-12-15T13:21:54Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。