論文の概要: Self-training for Few-shot Transfer Across Extreme Task Differences
- arxiv url: http://arxiv.org/abs/2010.07734v2
- Date: Wed, 17 Mar 2021 16:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 02:40:25.670832
- Title: Self-training for Few-shot Transfer Across Extreme Task Differences
- Title(参考訳): 極端タスク差分におけるFew-shot Transferのための自己学習
- Authors: Cheng Perng Phoo, Bharath Hariharan
- Abstract要約: ほとんどの数発の学習技術は、大きなラベル付き"ベースデータセット"で事前訓練されている。
このような大きなラベル付きデータセットが事前トレーニングに利用できない問題領域では、異なる"ソース"問題領域での事前トレーニングに頼らなければならない。
従来の少数ショットと移行学習のテクニックは、ソースとターゲットタスクの極端な違いの存在下で失敗する。
- 参考スコア(独自算出の注目度): 46.07212902030414
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most few-shot learning techniques are pre-trained on a large, labeled "base
dataset". In problem domains where such large labeled datasets are not
available for pre-training (e.g., X-ray, satellite images), one must resort to
pre-training in a different "source" problem domain (e.g., ImageNet), which can
be very different from the desired target task. Traditional few-shot and
transfer learning techniques fail in the presence of such extreme differences
between the source and target tasks. In this paper, we present a simple and
effective solution to tackle this extreme domain gap: self-training a source
domain representation on unlabeled data from the target domain. We show that
this improves one-shot performance on the target domain by 2.9 points on
average on the challenging BSCD-FSL benchmark consisting of datasets from
multiple domains. Our code is available at https://github.com/cpphoo/STARTUP.
- Abstract(参考訳): ほとんどの少数ショット学習テクニックは、大きなラベル付き"base dataset"で事前学習される。
このような大きなラベル付きデータセットが事前トレーニングに利用できない問題領域(X線、衛星画像など)では、所望の目標タスクとは大きく異なる「ソース」問題領域(イメージNetなど)で事前トレーニングを行なわなければならない。
従来の少数ショットと移行学習のテクニックは、ソースとターゲットタスクの極端な違いの存在下で失敗する。
本稿では,対象領域からラベルのないデータに対して,ソース領域表現を自己学習するという,この極端な領域間ギャップに取り組むための,単純かつ効果的な解決策を提案する。
これにより、複数のドメインからのデータセットからなる挑戦的BSCD-FSLベンチマークにおいて、ターゲットドメインでのワンショット性能を平均2.9ポイント向上することを示す。
私たちのコードはhttps://github.com/cpphoo/startupで利用可能です。
関連論文リスト
- CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Understanding Cross-Domain Few-Shot Learning: An Experimental Study [17.81177649496765]
ドメイン間数ショットの学習は、ソースとターゲットドメインの大きな違いを扱うために注目されている。
最近の研究は、事前訓練期間中に対象領域からの小規模な未ラベルデータを活用することを検討している。
このデータは、ソースドメインの教師付き事前トレーニングに加えて、ターゲットドメインでの自己教師付き事前トレーニングを可能にする。
論文 参考訳(メタデータ) (2022-02-01T12:35:25Z) - Prior Omission of Dissimilar Source Domain(s) for Cost-Effective
Few-Shot Learning [24.647313693814798]
ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル・ナチュラル(NLU)の分野における新たな研究課題
ソースドメインからの十分なアノテートされたデータによって、重要な課題は、モデルを少数のラベルしか持たない別のターゲットドメインにトレーニングし、適応する方法である。
論文 参考訳(メタデータ) (2021-09-11T09:30:59Z) - Multilevel Knowledge Transfer for Cross-Domain Object Detection [26.105283273950942]
ドメインシフトは、特定のドメイン(ソース)でトレーニングされたモデルが、異なるドメイン(ターゲット)のサンプルに露出しても、うまく動作しない、よく知られた問題である。
本研究では,オブジェクト検出タスクにおける領域シフト問題に対処する。
私たちのアプローチは、ソースとターゲットドメイン間のドメインシフトを徐々に削除することに依存しています。
論文 参考訳(メタデータ) (2021-08-02T15:24:40Z) - Dynamic Distillation Network for Cross-Domain Few-Shot Recognition with
Unlabeled Data [21.348965677980104]
未ラベルのターゲットデータを用いたドメイン間数ショット認識の問題に対処する。
STARTUPは自己学習を用いてこの問題に対処する最初の方法である。
本稿では, 新規/ベースデータセットからのラベルなし画像を容易にするための, 簡易な動的蒸留に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-14T23:44:34Z) - Robust wav2vec 2.0: Analyzing Domain Shift in Self-Supervised
Pre-Training [67.71228426496013]
事前トレーニング中にターゲットドメインデータを使用することで,さまざまなセットアップで大幅なパフォーマンス向上が期待できる。
複数のドメインで事前トレーニングを行うことで、トレーニング中に見られないドメインのパフォーマンスの一般化が向上します。
論文 参考訳(メタデータ) (2021-04-02T12:53:15Z) - Surprisingly Simple Semi-Supervised Domain Adaptation with Pretraining
and Consistency [93.89773386634717]
ビジュアルドメイン適応は、異なるソースドメインで利用可能なラベルを使用して、ターゲットのビジュアルドメインからイメージを分類する学習を含む。
いくつかの目標ラベルが存在する場合、(回転予測による)自己スーパービジョンや整合正則化といった単純な手法が、適切な目標分類器を学習するための対角アライメントなしで有効であることを示す。
我々の事前学習と一貫性(PAC)アプローチは、この半教師付きドメイン適応タスクにおいて、複数のデータセットにまたがる複数の対向的なドメインアライメント手法を超越して、技術精度を達成することができる。
論文 参考訳(メタデータ) (2021-01-29T18:40:17Z) - Cross-domain few-shot learning with unlabelled data [1.2183405753834562]
データ不足問題を解決するためのショット学習はほとんどありません。
対象ドメインのラベルなしデータを新たに設定することを提案する。
ラベル付き学習セットとラベルなし学習セットの知識を十分に活用するための自己教師付き学習手法を考案した。
論文 参考訳(メタデータ) (2021-01-19T23:41:57Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Deep Domain-Adversarial Image Generation for Domain Generalisation [115.21519842245752]
マシンラーニングモデルは通常、ソースデータセットでトレーニングされたり、異なるディストリビューションのターゲットデータセットで評価されたりする際に、ドメインシフトの問題に悩まされる。
この問題を解決するために、ドメイン一般化(DG)手法は、訓練されたモデルが未知のドメインに一般化できるように、複数のソースドメインからのデータを活用することを目的としている。
我々はemphDeep Domain-Adversarial Image Generation (DDAIG)に基づく新しいDG手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T23:17:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。