論文の概要: Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder
- arxiv url: http://arxiv.org/abs/2108.05028v1
- Date: Wed, 11 Aug 2021 04:45:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:38:03.137619
- Title: Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder
- Title(参考訳): 雑音強調オートエンコーダを用いたクロスドメインFew-shot学習における一般化能力の向上
- Authors: Hanwen Liang, Qiong Zhang, Peng Dai and Juwei Lu
- Abstract要約: 我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
- 参考スコア(独自算出の注目度): 23.860842627883187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State of the art (SOTA) few-shot learning (FSL) methods suffer significant
performance drop in the presence of domain differences between source and
target datasets. The strong discrimination ability on the source dataset does
not necessarily translate to high classification accuracy on the target
dataset. In this work, we address this cross-domain few-shot learning (CDFSL)
problem by boosting the generalization capability of the model. Specifically,
we teach the model to capture broader variations of the feature distributions
with a novel noise-enhanced supervised autoencoder (NSAE). NSAE trains the
model by jointly reconstructing inputs and predicting the labels of inputs as
well as their reconstructed pairs. Theoretical analysis based on intra-class
correlation (ICC) shows that the feature embeddings learned from NSAE have
stronger discrimination and generalization abilities in the target domain. We
also take advantage of NSAE structure and propose a two-step fine-tuning
procedure that achieves better adaption and improves classification performance
in the target domain. Extensive experiments and ablation studies are conducted
to demonstrate the effectiveness of the proposed method. Experimental results
show that our proposed method consistently outperforms SOTA methods under
various conditions.
- Abstract(参考訳): State of the Art (SOTA) few-shot Learning (FSL)メソッドは、ソースとターゲットのデータセット間のドメイン差が存在する場合、大幅なパフォーマンス低下を被る。
ソースデータセットの強い識別能力は、必ずしもターゲットデータセットの分類精度が高いとは限らない。
本稿では,モデルの一般化能力を高めることにより,このクロスドメイン・マイズショット学習(cdfsl)問題に対処する。
具体的には,ノイズ強調型教師付きオートエンコーダ(nsae)を用いて,特徴分布の広いバリエーションを捉えることをモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
クラス内相関(ICC)に基づく理論的解析により、NSAEから得られた特徴埋め込みは、ターゲット領域においてより強力な識別能力と一般化能力を有することが示された。
また,nsae構造を利用し,適応性の向上と対象領域の分類性能の向上を実現する2段階の微調整手法を提案する。
提案手法の有効性を実証するための実験およびアブレーション実験を行った。
実験結果から,提案手法は様々な条件下で常にSOTA法より優れていることがわかった。
関連論文リスト
- Towards Robust Out-of-Distribution Generalization: Data Augmentation and Neural Architecture Search Approaches [4.577842191730992]
我々は、ディープラーニングのための堅牢なOoD一般化への道を探る。
まず,認識に必須でない特徴間の素早い相関を解消するための,新しい効果的なアプローチを提案する。
次に,OoDシナリオにおけるニューラルアーキテクチャ探索の強化問題について検討する。
論文 参考訳(メタデータ) (2024-10-25T20:50:32Z) - Consistency Regularization for Generalizable Source-free Domain
Adaptation [62.654883736925456]
ソースフリードメイン適応(source-free domain adapt, SFDA)は、ソースデータセットにアクセスすることなく、十分にトレーニングされたソースモデルを未学習のターゲットドメインに適応することを目的としている。
既存のSFDAメソッドは、ターゲットのトレーニングセット上で適用されたモデルを評価し、目に見えないが同一の分散テストセットからデータを無視する。
より一般化可能なSFDA法を開発するための整合正則化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-03T07:45:53Z) - Open-Set Domain Adaptation with Visual-Language Foundation Models [51.49854335102149]
非教師なしドメイン適応(UDA)は、ソースドメインからラベルのないデータを持つターゲットドメインへの知識の転送に非常に効果的であることが証明されている。
オープンセットドメイン適応(ODA)は、トレーニングフェーズ中にこれらのクラスを識別する潜在的なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-07-30T11:38:46Z) - Regularization Through Simultaneous Learning: A Case Study on Plant
Classification [0.0]
本稿では,トランスファーラーニングとマルチタスクラーニングの原則に基づく正規化アプローチである同時学習を紹介する。
我々は、ターゲットデータセットであるUFOP-HVDの補助データセットを活用し、カスタマイズされた損失関数でガイドされた同時分類を容易にする。
興味深いことに,本手法は正規化のないモデルよりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-22T19:44:57Z) - CAusal and collaborative proxy-tasKs lEarning for Semi-Supervised Domain
Adaptation [20.589323508870592]
半教師付きドメイン適応(SSDA)は、ソースドメインデータとラベル付きターゲットサンプルを効果的に活用することにより、学習者を新しいドメインに適応させる。
提案手法は,SSDAデータセットの有効性と汎用性の観点から,SOTA法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-03-30T16:48:28Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z) - Source-Free Open Compound Domain Adaptation in Semantic Segmentation [99.82890571842603]
SF-OCDAでは、ターゲットモデルを学習するために、ソース事前訓練されたモデルとターゲットデータのみが利用可能である。
そこで我々は,Cross-Patch Style Swap (CPSS)を提案する。
提案手法は,C-Drivingデータセット上で最先端の結果を生成する。
論文 参考訳(メタデータ) (2021-06-07T08:38:41Z) - Towards Fair Cross-Domain Adaptation via Generative Learning [50.76694500782927]
ドメイン適応(DA)は、よくラベル付けされたソースドメイン上でトレーニングされたモデルを、異なる分散に横たわる未ラベルのターゲットドメインに適応することを目的としています。
本研究では,新規な生成的Few-shot Cross-Domain Adaptation (GFCA) アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-03-04T23:25:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。