論文の概要: Defining Benchmarks for Continual Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2004.11967v1
- Date: Wed, 15 Apr 2020 16:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 02:48:29.463988
- Title: Defining Benchmarks for Continual Few-Shot Learning
- Title(参考訳): 連続的少数ショット学習のためのベンチマーク定義
- Authors: Antreas Antoniou, Massimiliano Patacchiola, Mateusz Ochal and Amos
Storkey
- Abstract要約: 連続的な数ショット学習は、効率的な調査と実験のための優れた設定である。
評価基準を統一し、複数の視点から問題を探索できるフレキシブルなベンチマークを提案する。
提案するベンチマークのベースラインには,いくつかの一般的な数ショット学習アルゴリズムが使用されている。
- 参考スコア(独自算出の注目度): 6.69087470775851
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Both few-shot and continual learning have seen substantial progress in the
last years due to the introduction of proper benchmarks. That being said, the
field has still to frame a suite of benchmarks for the highly desirable setting
of continual few-shot learning, where the learner is presented a number of
few-shot tasks, one after the other, and then asked to perform well on a
validation set stemming from all previously seen tasks. Continual few-shot
learning has a small computational footprint and is thus an excellent setting
for efficient investigation and experimentation. In this paper we first define
a theoretical framework for continual few-shot learning, taking into account
recent literature, then we propose a range of flexible benchmarks that unify
the evaluation criteria and allows exploring the problem from multiple
perspectives. As part of the benchmark, we introduce a compact variant of
ImageNet, called SlimageNet64, which retains all original 1000 classes but only
contains 200 instances of each one (a total of 200K data-points) downscaled to
64 x 64 pixels. We provide baselines for the proposed benchmarks using a number
of popular few-shot learning algorithms, as a result, exposing previously
unknown strengths and weaknesses of those algorithms in continual and
data-limited settings.
- Abstract(参考訳): 数ショットと連続学習の両方が、適切なベンチマークの導入により、ここ数年でかなりの進歩を遂げている。
そうは言っても、この分野は依然として、学習者が次々にいくつかの数発のタスクを提示し、前述したすべてのタスクから引き起こされた検証セットでうまく実行するように要求される、継続的な数発学習の、非常に望ましい設定のための一連のベンチマークを組み立てている。
連続的な少数ショット学習は計算量が少なく、効率的な調査と実験のための優れた設定である。
本稿では,近年の文献を考慮し,連続的少数ショット学習のための理論的枠組みを最初に定義し,評価基準を統一し,複数の視点から問題を探索するフレキシブルベンチマークを提案する。
ベンチマークの一環として、SlimageNet64と呼ばれるImageNetのコンパクト版を導入し、元の1000クラスのすべてを保持するが、各クラスの200インスタンス(合計200Kデータポイント)を64×64ピクセルにダウンスケールするのみである。
提案するベンチマークのベースラインとして,いくつかの一般的な数ショット学習アルゴリズムを用いて,従来知られていなかった長所と短所を連続的およびデータ制限設定で明らかにする。
関連論文リスト
- A Maximum Log-Likelihood Method for Imbalanced Few-Shot Learning Tasks [3.2895195535353308]
数ショットアーキテクチャのための新しい最大ログ類似度指標を提案する。
提案手法は,従来の類似度指標よりも優れた性能を実現することを示す。
また,提案アルゴリズムは,評価データが不均衡である場合に,最先端のトランスダクティブな数ショット性能を実現することを示す。
論文 参考訳(メタデータ) (2022-11-26T21:31:00Z) - IGLUE: A Benchmark for Transfer Learning across Modalities, Tasks, and
Languages [87.5457337866383]
画像認識言語理解評価ベンチマークについて紹介する。
IGLUEは、視覚的質問応答、クロスモーダル検索、グラウンドド推論、20言語にわたるグラウンドドエンターテイメントタスクをまとめて提供する。
翻訳-テストの転送はゼロショットの転送よりも優れており、少数ショットの学習は多くのタスクに役立てることが難しい。
論文 参考訳(メタデータ) (2022-01-27T18:53:22Z) - vCLIMB: A Novel Video Class Incremental Learning Benchmark [53.90485760679411]
本稿では,ビデオ連続学習ベンチマークvCLIMBを紹介する。
vCLIMBは、ビデオ連続学習における深層モデルの破滅的な忘れを解析するための標準化されたテストベッドである。
本稿では,メモリベース連続学習法に適用可能な時間的整合性正規化を提案する。
論文 参考訳(メタデータ) (2022-01-23T22:14:17Z) - A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark [33.86872697028233]
本研究は,3つのコントリビューションを生かした映像分類の詳細な研究である。
まず,既存のメートル法を一貫した比較研究を行い,表現学習の限界を明らかにする。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
第3に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-10-24T06:01:46Z) - Transductive Few-Shot Learning: Clustering is All You Need? [31.21306826132773]
そこで本研究では,プロトタイプをベースとした超越的数ショット学習の汎用的定式化について検討する。
提案手法は, 精度と最適化の観点から, 大きな問題にスケールアップしながら, 競争性能を向上する。
驚いたことに、私たちの一般的なモデルは、最先端の学習と比較して、すでに競争力のあるパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2021-06-16T16:14:01Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z) - Learning What to Learn for Video Object Segmentation [157.4154825304324]
本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
論文 参考訳(メタデータ) (2020-03-25T17:58:43Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。