論文の概要: Domain-Adaptive Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2003.08626v1
- Date: Thu, 19 Mar 2020 08:31:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:23:54.080633
- Title: Domain-Adaptive Few-Shot Learning
- Title(参考訳): ドメイン適応型Few-Shot学習
- Authors: An Zhao, Mingyu Ding, Zhiwu Lu, Tao Xiang, Yulei Niu, Jiechao Guan,
Ji-Rong Wen, Ping Luo
- Abstract要約: 本稿では,ドメイン適応型少数ショット学習のための新しいドメイン・アドバイザリアル・ネットワーク(DAPN)モデルを提案する。
私たちのソリューションは、ドメイン適応型機能埋め込み学習の前に、ソース/ターゲットをクラスごとに明確に分離することです。
- 参考スコア(独自算出の注目度): 124.51420562201407
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing few-shot learning (FSL) methods make the implicit assumption that
the few target class samples are from the same domain as the source class
samples. However, in practice this assumption is often invalid -- the target
classes could come from a different domain. This poses an additional challenge
of domain adaptation (DA) with few training samples. In this paper, the problem
of domain-adaptive few-shot learning (DA-FSL) is tackled, which requires
solving FSL and DA in a unified framework. To this end, we propose a novel
domain-adversarial prototypical network (DAPN) model. It is designed to address
a specific challenge in DA-FSL: the DA objective means that the source and
target data distributions need to be aligned, typically through a shared
domain-adaptive feature embedding space; but the FSL objective dictates that
the target domain per class distribution must be different from that of any
source domain class, meaning aligning the distributions across domains may harm
the FSL performance. How to achieve global domain distribution alignment whilst
maintaining source/target per-class discriminativeness thus becomes the key.
Our solution is to explicitly enhance the source/target per-class separation
before domain-adaptive feature embedding learning in the DAPN, in order to
alleviate the negative effect of domain alignment on FSL. Extensive experiments
show that our DAPN outperforms the state-of-the-art FSL and DA models, as well
as their na\"ive combinations. The code is available at
https://github.com/dingmyu/DAPN.
- Abstract(参考訳): 既存の数ショット学習(FSL)メソッドは、少数のターゲットクラスサンプルがソースクラスサンプルと同じドメインからのものであるという暗黙の仮定をしている。
しかし、実際にはこの仮定はしばしば無効であり、ターゲットクラスは異なるドメインから来る可能性がある。
これは、ほとんどトレーニングサンプルを持たないドメイン適応(DA)のさらなる課題となる。
本稿では、FSLとDAを統一的なフレームワークで解くことを必要とするドメイン適応型少ショット学習(DA-FSL)の問題に取り組む。
そこで本研究では,新しいドメイン・アドバタリアン・プロトティピカル・ネットワーク(dapn)モデルを提案する。
daの目的は、典型的には共有のドメイン適応機能埋め込み空間を通して、ソースとターゲットのデータ分布をアライン化する必要があることを意味するが、fslの目的は、クラス毎のターゲットドメインが任意のソースドメインクラスと異なること、つまりドメイン間の分散を整合させることがfslのパフォーマンスに悪影響を及ぼす可能性があることを規定する。
ソース/ターゲット毎の差別性を維持しながら、グローバルなドメイン分散アライメントを実現する方法が鍵となる。
提案手法は,fslに対するドメインアライメントの悪影響を緩和するために,dapnにドメイン適応機能埋め込み学習の前に,クラス毎のソース/ターゲット分離を明示的に強化することを目的とする。
DAPN は最先端の FSL と DA モデルと na\ な組み合わせよりも優れていた。
コードはhttps://github.com/dingmyu/dapnで入手できる。
関連論文リスト
- Cross-Domain Cross-Set Few-Shot Learning via Learning Compact and
Aligned Representations [74.90423071048458]
ほんの少しのサポートサンプルだけで、新しいクエリを認識できるようにすることを目的としている。
我々は、FSLにおけるドメインシフトの問題を検討し、サポートセットとクエリセットの間のドメインギャップに対処することを目的とする。
原型的コンパクト・クロスドメイン整列表現を学習するための新しいアプローチ,すなわちstabPAを提案する。
論文 参考訳(メタデータ) (2022-07-16T03:40:38Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Transferrable Contrastive Learning for Visual Domain Adaptation [108.98041306507372]
Transferrable Contrastive Learning (TCL) はドメイン適応に適した自己教師型学習パラダイムである。
TCLは、クリーンで斬新な対照的な損失を通じて、ソースとターゲット間のドメイン内ドメイン間の相違を罰する。
無料のランチは、対照的な学習が組み込まれているため、TCLは、ターゲットデータのための擬似ラベルの時間的にアンサンブルされたバージョンを自然に達成する、移動平均キーエンコーダに依存している。
論文 参考訳(メタデータ) (2021-12-14T16:23:01Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z) - Revisiting Mid-Level Patterns for Cross-Domain Few-Shot Recognition [31.81367604846625]
汎用ドメインベースクラスから特殊ドメインノベルクラスに知識を移すために,クロスドメイン少ショット学習を提案する。
本稿では,新しいクラスがベースクラスから離れた領域にあるCDFSLの挑戦的なサブセットについて検討する。
本研究では,各サンプルの識別情報を学習するために,中程度の特徴を育成するための残差予測タスクを提案する。
論文 参考訳(メタデータ) (2020-08-07T12:45:39Z) - Few-Shot Learning as Domain Adaptation: Algorithm and Analysis [120.75020271706978]
わずかながらの学習は、目に見えないクラスを認識するために、目に見えないクラスから学んだ事前知識を使用する。
このクラス差による分布シフトは、ドメインシフトの特別なケースとみなすことができる。
メタラーニングフレームワークにおいて、そのようなドメインシフト問題に明示的に対処するために、注意を向けたプロトタイプドメイン適応ネットワーク(DAPNA)を提案する。
論文 参考訳(メタデータ) (2020-02-06T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。