論文の概要: Cross-domain few-shot learning with unlabelled data
- arxiv url: http://arxiv.org/abs/2101.07899v1
- Date: Tue, 19 Jan 2021 23:41:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 12:30:59.327128
- Title: Cross-domain few-shot learning with unlabelled data
- Title(参考訳): ラベルなしデータを用いたクロスドメイン・マイノショット学習
- Authors: Fupin Yao
- Abstract要約: データ不足問題を解決するためのショット学習はほとんどありません。
対象ドメインのラベルなしデータを新たに設定することを提案する。
ラベル付き学習セットとラベルなし学習セットの知識を十分に活用するための自己教師付き学習手法を考案した。
- 参考スコア(独自算出の注目度): 1.2183405753834562
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Few shot learning aims to solve the data scarcity problem. If there is a
domain shift between the test set and the training set, their performance will
decrease a lot. This setting is called Cross-domain few-shot learning. However,
this is very challenging because the target domain is unseen during training.
Thus we propose a new setting some unlabelled data from the target domain is
provided, which can bridge the gap between the source domain and the target
domain. A benchmark for this setting is constructed using DomainNet
\cite{peng2018oment}. We come up with a self-supervised learning method to
fully utilize the knowledge in the labeled training set and the unlabelled set.
Extensive experiments show that our methods outperforms several baseline
methods by a large margin. We also carefully design an episodic training
pipeline which yields a significant performance boost.
- Abstract(参考訳): データ不足問題を解決するためのショット学習はほとんどありません。
テストセットとトレーニングセットの間にドメインシフトがある場合、そのパフォーマンスは大幅に低下します。
この設定はクロスドメイン・ショットラーニングと呼ばれる。
しかし、トレーニング中にターゲットドメインが見えないため、これは非常に難しい。
そこで本研究では,対象ドメインと対象ドメインとのギャップを埋めることのできる,対象ドメインからの不正なデータを新たに設定する手法を提案する。
この設定のベンチマークは DomainNet \cite{peng2018oment} を使って作成されます。
ラベル付き学習セットとラベルなし学習セットの知識を十分に活用するための自己教師付き学習手法を考案した。
広範な実験により,本手法は複数のベースライン法を大差で上回った。
また、重要なパフォーマンス向上をもたらすエピソードトレーニングパイプラインを慎重に設計します。
関連論文リスト
- CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Adversarial Feature Augmentation for Cross-domain Few-shot
Classification [2.68796389443975]
本稿では, ドメインギャップを補うために, 対角的特徴拡張法(AFA)を提案する。
提案手法はプラグイン・アンド・プレイモジュールであり,既存の数発学習手法に容易に組み込むことができる。
論文 参考訳(メタデータ) (2022-08-23T15:10:22Z) - Domain Adaptive Semantic Segmentation without Source Data [50.18389578589789]
モデルがソースドメイン上で事前学習されていることを前提として、ソースデータのないドメイン適応セマンティックセマンティックセマンティックセマンティクスについて検討する。
本稿では,この課題に対して,肯定的学習と否定的学習という2つの要素を用いた効果的な枠組みを提案する。
私たちのフレームワークは、パフォーマンスをさらに向上するために、他のメソッドに簡単に実装および組み込むことができます。
論文 参考訳(メタデータ) (2021-10-13T04:12:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Self-training for Few-shot Transfer Across Extreme Task Differences [46.07212902030414]
ほとんどの数発の学習技術は、大きなラベル付き"ベースデータセット"で事前訓練されている。
このような大きなラベル付きデータセットが事前トレーニングに利用できない問題領域では、異なる"ソース"問題領域での事前トレーニングに頼らなければならない。
従来の少数ショットと移行学習のテクニックは、ソースとターゲットタスクの極端な違いの存在下で失敗する。
論文 参考訳(メタデータ) (2020-10-15T13:23:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。