論文の概要: ME-D2N: Multi-Expert Domain Decompositional Network for Cross-Domain
Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2210.05280v1
- Date: Tue, 11 Oct 2022 09:24:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 16:11:22.924275
- Title: ME-D2N: Multi-Expert Domain Decompositional Network for Cross-Domain
Few-Shot Learning
- Title(参考訳): ME-D2N:クロスドメインFew-Shot学習のためのマルチエキスパートドメイン分解ネットワーク
- Authors: Yuqian Fu, Yu Xie, Yanwei Fu, Jingjing Chen, Yu-Gang Jiang
- Abstract要約: クロスドメインのFew-Shot Learningは、異なるドメインにわたるFew-Shot Learning問題に対処することを目的としている。
本稿では,ME-D2N(Multi-Expert Domain Decompositional Network)を技術的に貢献する。
本稿では,学生モデルを2つの領域関連部分に分解する新しい領域分解モジュールを提案する。
- 参考スコア(独自算出の注目度): 95.78635058475439
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Cross-Domain Few-Shot Learning (CD-FSL) which aims at addressing
the Few-Shot Learning (FSL) problem across different domains has attracted
rising attention. The core challenge of CD-FSL lies in the domain gap between
the source and novel target datasets. Though many attempts have been made for
CD-FSL without any target data during model training, the huge domain gap makes
it still hard for existing CD-FSL methods to achieve very satisfactory results.
Alternatively, learning CD-FSL models with few labeled target domain data which
is more realistic and promising is advocated in previous
work~\cite{fu2021meta}. Thus, in this paper, we stick to this setting and
technically contribute a novel Multi-Expert Domain Decompositional Network
(ME-D2N). Concretely, to solve the data imbalance problem between the source
data with sufficient examples and the auxiliary target data with limited
examples, we build our model under the umbrella of multi-expert learning. Two
teacher models which can be considered to be experts in their corresponding
domain are first trained on the source and the auxiliary target sets,
respectively. Then, the knowledge distillation technique is introduced to
transfer the knowledge from two teachers to a unified student model. Taking a
step further, to help our student model learn knowledge from different domain
teachers simultaneously, we further present a novel domain decomposition module
that learns to decompose the student model into two domain-related sub parts.
This is achieved by a novel domain-specific gate that learns to assign each
filter to only one specific domain in a learnable way. Extensive experiments
demonstrate the effectiveness of our method. Codes and models are available at
https://github.com/lovelyqian/ME-D2N_for_CDFSL.
- Abstract(参考訳): 近年,多分野にわたるFSL(Few-Shot Learning)問題に対処することを目的としたCD-FSL(Cross-Domain Few-Shot Learning)が注目されている。
CD-FSLの中核的な課題は、ソースと新しいターゲットデータセットの間のドメインギャップにある。
モデルトレーニング中にターゲットデータなしでCD-FSLに多くの試みがなされてきたが、既存のCD-FSL法では非常に良好な結果を得るのが依然として困難である。
あるいは、より現実的で有望なラベル付きドメインデータが少ないCD-FSLモデルを学習することが、以前の研究で唱えられている。
そこで本稿では,この設定に固執し,新しいMulti-Expert Domain Decompositional Network(ME-D2N)を技術的に貢献する。
具体的には、十分な例でソースデータと限られた例で補助対象データとの間のデータ不均衡問題を解決するため、マルチエキスパート学習の傘の下にモデルを構築した。
それぞれのドメインの専門家とみなすことができる2つの教師モデルは、まずソースセットと補助ターゲットセットで訓練される。
そこで,その知識を2人の教師から統一学習モデルに移すための知識蒸留技術を導入する。
さらに,学生モデルが異なるドメイン教師からの知識を同時に学習するのを助けるために,学生モデルを2つのドメイン関連部分に分割することを学ぶ新しいドメイン分解モジュールを提案する。
これは、学習可能な方法で各フィルタを1つの特定のドメインに割り当てることを学習する、新しいドメイン固有のゲートによって達成される。
広範な実験により本手法の有効性が実証された。
コードとモデルはhttps://github.com/lovelyqian/me-d2n_for_cdfslで入手できる。
関連論文リスト
- Multimodal Cross-Domain Few-Shot Learning for Egocentric Action Recognition [9.458578303096424]
マルチモーダル入力とラベルなしターゲットデータを用いた,エゴセントリックな行動認識のための新しいドメイン間数ショット学習課題に対処する。
本稿では,エゴセントリックな行動認識に関わる2つの重要な課題を同時に解決する。
まず,教師モデルを用いた学生RGBモデルへのマルチモーダル蒸留の導入を提案する。
第2に,マスクによる入力トークン数を削減する手法であるアンサンブルマスク推論を導入する。
論文 参考訳(メタデータ) (2024-05-30T10:30:07Z) - Multi-Modal Cross-Domain Alignment Network for Video Moment Retrieval [55.122020263319634]
ビデオモーメント検索(VMR)は、与えられた言語クエリに従って、未編集のビデオからターゲットモーメントをローカライズすることを目的としている。
本稿では、新しいタスクであるクロスドメインVMRに焦点を当て、完全なアノテーション付きデータセットをひとつのドメインで利用できるが、関心のあるドメインは、注釈なしのデータセットのみを含む。
本稿では、アノテーションの知識をソースドメインからターゲットドメインに転送するマルチモーダル・クロスドメインアライメント・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-23T12:58:20Z) - Cross-Domain Cross-Set Few-Shot Learning via Learning Compact and
Aligned Representations [74.90423071048458]
ほんの少しのサポートサンプルだけで、新しいクエリを認識できるようにすることを目的としている。
我々は、FSLにおけるドメインシフトの問題を検討し、サポートセットとクエリセットの間のドメインギャップに対処することを目的とする。
原型的コンパクト・クロスドメイン整列表現を学習するための新しいアプローチ,すなわちstabPAを提案する。
論文 参考訳(メタデータ) (2022-07-16T03:40:38Z) - Few-Shot Object Detection in Unseen Domains [4.36080478413575]
Few-shot Object Detection (FSOD)は、データ制限のある新しいオブジェクトクラスを学ぶために近年発展している。
そこで本稿では,ドメイン固有の情報をすべて考慮し,新しいクラスを数枚追加する手法を提案する。
T-LESSデータセットを用いた実験により,提案手法はドメインギャップを著しく緩和することに成功した。
論文 参考訳(メタデータ) (2022-04-11T13:16:41Z) - Meta-FDMixup: Cross-Domain Few-Shot Learning Guided by Labeled Target
Data [95.47859525676246]
最近の研究では、ソースドメインで訓練された既存の数発の学習手法が、ドメインギャップが観測されると、新しいターゲットドメインに一般化できないことが判明している。
本稿では,クロスドメインFew-Shot Learningにおけるラベル付き目標データが,学習プロセスを支援するために利用されていないことに気付いた。
論文 参考訳(メタデータ) (2021-07-26T06:15:45Z) - Revisiting Mid-Level Patterns for Cross-Domain Few-Shot Recognition [31.81367604846625]
汎用ドメインベースクラスから特殊ドメインノベルクラスに知識を移すために,クロスドメイン少ショット学習を提案する。
本稿では,新しいクラスがベースクラスから離れた領域にあるCDFSLの挑戦的なサブセットについて検討する。
本研究では,各サンプルの識別情報を学習するために,中程度の特徴を育成するための残差予測タスクを提案する。
論文 参考訳(メタデータ) (2020-08-07T12:45:39Z) - Domain-Adaptive Few-Shot Learning [124.51420562201407]
本稿では,ドメイン適応型少数ショット学習のための新しいドメイン・アドバイザリアル・ネットワーク(DAPN)モデルを提案する。
私たちのソリューションは、ドメイン適応型機能埋め込み学習の前に、ソース/ターゲットをクラスごとに明確に分離することです。
論文 参考訳(メタデータ) (2020-03-19T08:31:14Z) - Domain Adaptive Ensemble Learning [141.98192460069765]
両問題に対処するため,ドメイン適応アンサンブル学習(DAEL)という統合フレームワークを提案する。
3つのマルチソースUDAデータセットと2つのDGデータセットの実験により、DAELは両方の問題、しばしば大きなマージンによって、技術の状態を改善することが示された。
論文 参考訳(メタデータ) (2020-03-16T16:54:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。