論文の概要: LibFewShot: A Comprehensive Library for Few-shot Learning
- arxiv url: http://arxiv.org/abs/2109.04898v1
- Date: Fri, 10 Sep 2021 14:12:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:27:02.755712
- Title: LibFewShot: A Comprehensive Library for Few-shot Learning
- Title(参考訳): LibFewShot: ファウショット学習のための総合ライブラリ
- Authors: Wenbin Li, Chuanqi Dong, Pinzhuo Tian, Tiexin Qin, Xuesong Yang, Ziyi
Wang, Jing Huo, Yinghuan Shi, Lei Wang, Yang Gao and Jiebo Luo
- Abstract要約: 近年,画像分類に注目が集まり,近年顕著な進歩が見られた。
近年の研究では、データ強化、事前学習、知識蒸留、自己超越といった多くの一般的な手法や技法が、数発の学習法の性能を大幅に向上させる可能性があることが暗黙的に示されている。
そこで本研究では,PyTorchに固有の単一言語を組み込んだ一貫したフレームワークにおいて,17の最先端の複数ショット学習手法を再実装することにより,小ショット学習のための総合ライブラリ(LibFewShot)を提案する。
- 参考スコア(独自算出の注目度): 78.58842209282724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning, especially few-shot image classification, has received
increasing attention and witnessed significant advances in recent years. Some
recent studies implicitly show that many generic techniques or ``tricks'', such
as data augmentation, pre-training, knowledge distillation, and
self-supervision, may greatly boost the performance of a few-shot learning
method. Moreover, different works may employ different software platforms,
different training schedules, different backbone architectures and even
different input image sizes, making fair comparisons difficult and
practitioners struggle with reproducibility. To address these situations, we
propose a comprehensive library for few-shot learning (LibFewShot) by
re-implementing seventeen state-of-the-art few-shot learning methods in a
unified framework with the same single codebase in PyTorch. Furthermore, based
on LibFewShot, we provide comprehensive evaluations on multiple benchmark
datasets with multiple backbone architectures to evaluate common pitfalls and
effects of different training tricks. In addition, given the recent doubts on
the necessity of meta- or episodic-training mechanism, our evaluation results
show that such kind of mechanism is still necessary especially when combined
with pre-training. We hope our work can not only lower the barriers for
beginners to work on few-shot learning but also remove the effects of the
nontrivial tricks to facilitate intrinsic research on few-shot learning. The
source code is available from https://github.com/RL-VIG/LibFewShot.
- Abstract(参考訳): マイノショット学習,特にマイノショット画像分類は,近年,注目され,著しい進歩を遂げている。
最近の研究では、データ拡張、事前学習、知識蒸留、自己スーパービジョンなど、多くのジェネリックテクニックや`tricks''が、少数の学習方法のパフォーマンスを大きく向上させる可能性があることが暗黙的に示されている。
さらに、異なる作業では、異なるソフトウェアプラットフォーム、異なるトレーニングスケジュール、異なるバックボーンアーキテクチャ、さらには異なる入力画像サイズが採用され、公平な比較が難しくなり、実践者は再現性に苦しむ。
このような状況に対処するために,PyTorchで同じ単一コードベースの統一フレームワークで17の最先端の複数ショット学習手法を再実装し,一括学習ライブラリ(LibFewShot)を提案する。
さらに、LibFewShotに基づいて、複数のベンチマークデータセットに複数のバックボーンアーキテクチャを用いて包括的な評価を行い、共通の落とし穴と異なるトレーニングトリックの効果を評価する。
また, メタ・エピソード・トレーニング機構の必要性に対する近年の疑問から, プレトレーニングと組み合わせることで, このようなメカニズムが依然として必要であることを示す。
私たちの仕事が、初心者が少数ショット学習に取り組むための障壁を低くできるだけでなく、少数ショット学習における本質的な研究を促進するための非自明なトリックの効果を取り除けることを願っています。
ソースコードはhttps://github.com/rl-vig/libfewshotから入手できる。
関連論文リスト
- Collaboration of Pre-trained Models Makes Better Few-shot Learner [49.89134194181042]
少ないショット分類では、限られた訓練画像からのみ、一般化された表現を学習するために、ディープニューラルネットワークが必要である。
最近、CLIPベースの手法は、対照的な言語イメージ事前トレーニングの恩恵を受け、有望な数ショットのパフォーマンスを示している。
我々は,様々な事前学習パラダイムから様々な事前知識を取り入れた事前学習モデルのコラボレーションであるCoMoを提案する。
論文 参考訳(メタデータ) (2022-09-25T16:23:12Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - Learning to Focus: Cascaded Feature Matching Network for Few-shot Image
Recognition [38.49419948988415]
ディープネットワークは、多数の画像でトレーニングすることで、カテゴリのオブジェクトを正確に認識することを学ぶことができる。
低ショット画像認識タスク(low-shot image recognition task)として知られるメタラーニングの課題は、1つのカテゴリの認識モデルを学ぶためにアノテーション付き画像しか利用できない場合に発生する。
この問題を解決するため,Cascaded Feature Matching Network (CFMN) と呼ばれる手法を提案する。
EmphminiImageNet と Omniglot の2つの標準データセットを用いた数ショット学習実験により,本手法の有効性が確認された。
論文 参考訳(メタデータ) (2021-01-13T11:37:28Z) - Few-Shot Image Classification via Contrastive Self-Supervised Learning [5.878021051195956]
本稿では,欠陥を修復するための教師なし数発学習の新たなパラダイムを提案する。
我々は2つのフェーズでいくつかの課題を解決した: 対照的な自己教師付き学習を通して、伝達可能な特徴抽出器をメタトレーニングする。
本手法は,標準的な数ショットの視覚的分類データセット上で,多数の確立された数ショットタスクにおいて,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-08-23T02:24:31Z) - Complementing Representation Deficiency in Few-shot Image
Classification: A Meta-Learning Approach [27.350615059290348]
本稿では,MCRNetを用いたメタラーニング手法を提案する。
特に、潜時空間を埋め込んで、潜時符号を余分な表現情報で再構成し、表現不足を補完する。
我々のエンドツーエンドフレームワークは、3つの標準的な数ショット学習データセット上の画像分類における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-07-21T13:25:54Z) - Self-Augmentation: Generalizing Deep Networks to Unseen Classes for
Few-Shot Learning [21.3564383157159]
ほとんどショット学習は、未確認のクラスをいくつかのトレーニング例で分類することを目的としている。
自己混合と自己蒸留を統合した自己拡張を提案する。
本稿では,未確認クラスの学習例をさらに活用するために,局所学習者表現を提案する。
論文 参考訳(メタデータ) (2020-04-01T06:39:08Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。