論文の概要: Cross-domain few-shot learning with unlabelled data
- arxiv url: http://arxiv.org/abs/2101.07899v1
- Date: Tue, 19 Jan 2021 23:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 12:30:59.327128
- Title: Cross-domain few-shot learning with unlabelled data
- Title(参考訳): ラベルなしデータを用いたクロスドメイン・マイノショット学習
- Authors: Fupin Yao
- Abstract要約: データ不足問題を解決するためのショット学習はほとんどありません。
対象ドメインのラベルなしデータを新たに設定することを提案する。
ラベル付き学習セットとラベルなし学習セットの知識を十分に活用するための自己教師付き学習手法を考案した。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few shot learning aims to solve the data scarcity problem. If there is a
domain shift between the test set and the training set, their performance will
decrease a lot. This setting is called Cross-domain few-shot learning. However,
this is very challenging because the target domain is unseen during training.
Thus we propose a new setting some unlabelled data from the target domain is
provided, which can bridge the gap between the source domain and the target
domain. A benchmark for this setting is constructed using DomainNet
\cite{peng2018oment}. We come up with a self-supervised learning method to
fully utilize the knowledge in the labeled training set and the unlabelled set.
Extensive experiments show that our methods outperforms several baseline
methods by a large margin. We also carefully design an episodic training
pipeline which yields a significant performance boost.
- Abstract(参考訳): データ不足問題を解決するためのショット学習はほとんどありません。
テストセットとトレーニングセットの間にドメインシフトがある場合、そのパフォーマンスは大幅に低下します。
この設定はクロスドメイン・ショットラーニングと呼ばれる。
しかし、トレーニング中にターゲットドメインが見えないため、これは非常に難しい。
そこで本研究では,対象ドメインと対象ドメインとのギャップを埋めることのできる,対象ドメインからの不正なデータを新たに設定する手法を提案する。
この設定のベンチマークは DomainNet \cite{peng2018oment} を使って作成されます。
ラベル付き学習セットとラベルなし学習セットの知識を十分に活用するための自己教師付き学習手法を考案した。
広範な実験により,本手法は複数のベースライン法を大差で上回った。
また、重要なパフォーマンス向上をもたらすエピソードトレーニングパイプラインを慎重に設計します。
- 全文 参考訳へのリンク
関連論文リスト
- Understanding Cross-Domain Few-Shot Learning: An Experimental Study [17.81177649496765]
ドメイン間数ショットの学習は、ソースとターゲットドメインの大きな違いを扱うために注目されている。
最近の研究は、事前訓練期間中に対象領域からの小規模な未ラベルデータを活用することを検討している。
このデータは、ソースドメインの教師付き事前トレーニングに加えて、ターゲットドメインでの自己教師付き事前トレーニングを可能にする。
論文 参考訳(メタデータ) (2022-02-01T12:35:25Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Prototypical Cross-domain Self-supervised Learning for Few-shot
Unsupervised Domain Adaptation [91.58443042554903]
FUDA(Unsupervised Domain Adaptation)のためのPCS(Prototypical Cross-Domain Self-Supervised Learning)フレームワークを提案する。
PCSは、クロスドメインのローレベルな機能アライメントを行うだけでなく、ドメイン間の共有埋め込み空間におけるセマンティック構造をエンコードおよびアライメントする。
最新の手法と比較して、pcsは、fuda上の異なるドメインペアの平均分類精度を10.5%、office、office-home、visda-2017、domainnetで3.5%、9.0%、13.2%改善している。
論文 参考訳(メタデータ) (2021-03-31T02:07:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。