論文の概要: Shot in the Dark: Few-Shot Learning with No Base-Class Labels
- arxiv url: http://arxiv.org/abs/2010.02430v2
- Date: Fri, 23 Apr 2021 01:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:23:50.213673
- Title: Shot in the Dark: Few-Shot Learning with No Base-Class Labels
- Title(参考訳): shot in the dark: ベースクラスのラベルなしの少数学習
- Authors: Zitian Chen, Subhransu Maji, Erik Learned-Miller
- Abstract要約: 市販の自己教師型学習は,MiniImageNet上での5ショット精度において,トランスダクティブな数ショット法を3.9%向上させることを示した。
このことは、数発の学習において、自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
- 参考スコア(独自算出の注目度): 32.96824710484196
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning aims to build classifiers for new classes from a small
number of labeled examples and is commonly facilitated by access to examples
from a distinct set of 'base classes'. The difference in data distribution
between the test set (novel classes) and the base classes used to learn an
inductive bias often results in poor generalization on the novel classes. To
alleviate problems caused by the distribution shift, previous research has
explored the use of unlabeled examples from the novel classes, in addition to
labeled examples of the base classes, which is known as the transductive
setting. In this work, we show that, surprisingly, off-the-shelf
self-supervised learning outperforms transductive few-shot methods by 3.9% for
5-shot accuracy on miniImageNet without using any base class labels. This
motivates us to examine more carefully the role of features learned through
self-supervision in few-shot learning. Comprehensive experiments are conducted
to compare the transferability, robustness, efficiency, and the complementarity
of supervised and self-supervised features.
- Abstract(参考訳): Few-shot Learningは、ラベル付きの少数の例から新しいクラスの分類器を構築することを目的としており、一般的には、異なる'ベースクラス'のセットから例にアクセスすることによってアクセスされている。
帰納的バイアスを学ぶために使用されるテストセット(ノベルクラス)とベースクラスの間のデータ分布の違いは、しばしば新しいクラスの一般化が貧弱になる。
分散シフトによる問題を軽減するため,従来の研究では,新しいクラスからラベル付けされていない例と,トランスダクティブセッティングとして知られるベースクラスのラベル付け例について検討している。
本研究では,サブクラスラベルを使わずに,MiniImageNetの5ショット精度でトランスダクティブな数ショット法を3.9%向上させる,という驚くべき自己教師型学習結果を示す。
このことは、数発の学習において自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
教師付き・自己監督型特徴の伝達性, 堅牢性, 効率, 相補性を比較するため, 総合的な実験を行った。
関連論文リスト
- Few-shot Classification via Ensemble Learning with Multi-Order
Statistics [9.145742362513932]
基本クラスにおけるアンサンブル学習を活用することで,新たなクラスにおける真の誤りを低減できることを示す。
本稿では,多階統計を用いたアンサンブル学習法(ELMOS)を提案する。
提案手法は,複数ショットの分類ベンチマークデータセット上で,最先端の性能を実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-30T11:41:01Z) - Realistic Evaluation of Transductive Few-Shot Learning [41.06192162435249]
トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
論文 参考訳(メタデータ) (2022-04-24T03:35:06Z) - On the Importance of Distractors for Few-Shot Classification [13.486661391097387]
少数(典型的には1対5)のラベル付き例から学習することで、新規タスクのカテゴリを分類することを目的とする。
少数ショット分類への効果的なアプローチは、大規模なサンプルベースドメインで訓練された事前モデルを含み、その後、新しい少数ショットタスクを微調整して一般化可能な表現を生成する。
本稿では,非競合学習に基づく新たな微調整手法を提案する。
論文 参考訳(メタデータ) (2021-09-20T23:35:56Z) - Generalized and Incremental Few-Shot Learning by Explicit Learning and
Calibration without Forgetting [86.56447683502951]
これらの課題を明確かつ効果的に解決できる3段階のフレームワークを提案する。
提案手法を,画像とビデオの断片分類のための4つの挑戦的ベンチマークデータセット上で評価した。
論文 参考訳(メタデータ) (2021-08-18T14:21:43Z) - Few-Shot Learning with Part Discovery and Augmentation from Unlabeled
Images [79.34600869202373]
帰納的バイアスは、ラベルなし画像の平坦な集合から学習でき、目に見えるクラスと目に見えないクラスの間で伝達可能な表現としてインスタンス化されることを示す。
具体的には、トランスファー可能な表現を学習するための、新しいパートベース自己教師型表現学習手法を提案する。
我々の手法は印象的な結果をもたらし、それまでの最高の教師なし手法を7.74%、9.24%上回った。
論文 参考訳(メタデータ) (2021-05-25T12:22:11Z) - Are Fewer Labels Possible for Few-shot Learning? [81.89996465197392]
ごく限られたデータとラベルのため、わずかなショット学習は難しい。
近年のBiT (Big Transfer) 研究は、異なる領域における大規模ラベル付きデータセットの事前トレーニングによって、少数ショット学習が大きな恩恵を受けることを示した。
本稿では,ファインチューニングにおけるクラスタリングと固有サンプルの共進化を活かし,ショット学習の削減を図る。
論文 参考訳(メタデータ) (2020-12-10T18:59:29Z) - Variational Feature Disentangling for Fine-Grained Few-Shot
Classification [30.350307891161865]
ファインファインショット認識はしばしば、新しいカテゴリのデータの不足を訓練する問題に悩まされる。
本稿では,未確認クラスのクラス内ばらつきを増大させ,少ショット分類性能を向上させることに焦点を当てる。
論文 参考訳(メタデータ) (2020-10-07T08:13:42Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。