論文の概要: 'Less Than One'-Shot Learning: Learning N Classes From M
  • arxiv url: http://arxiv.org/abs/2009.08449v1
  • Date: Thu, 17 Sep 2020 17:55:29 GMT
  • ステータス: 処理完了
  • システム内更新日: 2022-10-17 08:44:29.902487
  • Title: 'Less Than One'-Shot Learning: Learning N Classes From M<N Samples
  • Title(参考訳): 一人以上の」ショットラーニング:M<NサンプルからNクラスを学ぶ
  • Authors: Ilia Sucholutsky, Matthias Schonlau
  • Abstract要約: 数ショットの学習環境では、モデルは、そのクラスから少数のサンプルだけを与えられた新しいクラスを学習しなければならない。 モデルが$N$の新しいクラスを学習しなければならないのは,MN$の例のみである。
  • 参考スコア(独自算出の注目度): 13.70633147306388
  • License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
  • Abstract: Deep neural networks require large training sets but suffer from high computational cost and long training times. Training on much smaller training sets while maintaining nearly the same accuracy would be very beneficial. In the few-shot learning setting, a model must learn a new class given only a small number of samples from that class. One-shot learning is an extreme form of few-shot learning where the model must learn a new class from a single example. We propose the `less than one'-shot learning task where models must learn $N$ new classes given only $M<N$ examples and we show that this is achievable with the help of soft labels. We use a soft-label generalization of the k-Nearest Neighbors classifier to explore the intricate decision landscapes that can be created in the `less than one'-shot learning setting. We analyze these decision landscapes to derive theoretical lower bounds for separating $N$ classes using $M<N$ soft-label samples and investigate the robustness of the resulting systems.
  • Abstract(参考訳): ディープニューラルネットワークは大きなトレーニングセットを必要とするが、高い計算コストと長いトレーニング時間に苦しむ。 ほぼ同じ精度を維持しながら、より小さなトレーニングセットでのトレーニングは、非常に有益である。 数少ない学習設定では、モデルは、そのクラスから少数のサンプルしか与えていない新しいクラスを学ばなければならない。 ワンショット学習(one-shot learning)は、モデルが1つの例から新しいクラスを学ばなければならない、最小限の学習の極端な形態である。 我々は、モデルが$m<n$の例しか与えていない新しいクラスを学ばなければならない`less than one'-shot学習タスクを提案し、ソフトラベルの助けを借りて実現可能であることを示す。 我々は,k-nearest近傍の分類器のソフトラベル一般化を用いて,'less than one'-shot learning設定で生成可能な複雑な意思決定環境を探索する。 我々はこれらの意思決定環境を分析し、$M<N$ソフトラベルサンプルを用いて$N$クラスを分離するための理論的下限を導出し、その結果のシステムの堅牢性を調べる。

関連論文リスト

関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。

指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。