論文の概要: A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark
- arxiv url: http://arxiv.org/abs/2110.12358v1
- Date: Sun, 24 Oct 2021 06:01:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 15:51:42.427413
- Title: A Closer Look at Few-Shot Video Classification: A New Baseline and
Benchmark
- Title(参考訳): マイナショットビデオの分類を詳しく見る - 新しいベースラインとベンチマーク
- Authors: Zhenxi Zhu, Limin Wang, Sheng Guo, Gangshan Wu
- Abstract要約: 本研究は,3つのコントリビューションを生かした映像分類の詳細な研究である。
まず,既存のメートル法を一貫した比較研究を行い,表現学習の限界を明らかにする。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
第3に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
- 参考スコア(独自算出の注目度): 33.86872697028233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The existing few-shot video classification methods often employ a
meta-learning paradigm by designing customized temporal alignment module for
similarity calculation. While significant progress has been made, these methods
fail to focus on learning effective representations, and heavily rely on the
ImageNet pre-training, which might be unreasonable for the few-shot recognition
setting due to semantics overlap. In this paper, we aim to present an in-depth
study on few-shot video classification by making three contributions. First, we
perform a consistent comparative study on the existing metric-based methods to
figure out their limitations in representation learning. Accordingly, we
propose a simple classifier-based baseline without any temporal alignment that
surprisingly outperforms the state-of-the-art meta-learning based methods.
Second, we discover that there is a high correlation between the novel action
class and the ImageNet object class, which is problematic in the few-shot
recognition setting. Our results show that the performance of training from
scratch drops significantly, which implies that the existing benchmarks cannot
provide enough base data. Finally, we present a new benchmark with more base
data to facilitate future few-shot video classification without pre-training.
The code will be made available at https://github.com/MCG-NJU/FSL-Video.
- Abstract(参考訳): 既存のマイノリティビデオ分類法は、類似度計算のためにカスタマイズされた時間アライメントモジュールを設計することでメタラーニングパラダイムを採用することが多い。
かなりの進歩があったが、これらの手法は効果的な表現の学習に重点を置いておらず、ImageNetの事前トレーニングに大きく依存している。
本稿では,3つのコントリビュートを行うことで,ビデオのマイナショット分類に関する詳細な研究を行う。
まず,既存のメトリックベース手法について一貫した比較研究を行い,表現学習の限界を明らかにする。
そこで本研究では,最先端のメタ学習手法を驚くほど上回る時間的アライメントのない単純な分類器ベースラインを提案する。
第2に,新しいアクションクラスとImageNetオブジェクトクラスとの間には高い相関関係があることが判明した。
その結果,スクラッチからのトレーニング性能は大幅に低下し,既存のベンチマークでは十分なベースデータを提供できないことが示された。
最後に,事前学習をせずに将来的な数ショットビデオ分類を容易にするため,より多くのベースデータを持つ新しいベンチマークを提案する。
コードはhttps://github.com/MCG-NJU/FSL-Videoで公開される。
関連論文リスト
- Learning Prompt with Distribution-Based Feature Replay for Few-Shot Class-Incremental Learning [56.29097276129473]
分散型特徴再現(LP-DiF)を用いた学習プロンプト(Learning Prompt)という,シンプルで効果的なフレームワークを提案する。
新しいセッションでは,学習可能なプロンプトが古い知識を忘れないようにするため,擬似機能的リプレイ手法を提案する。
新しいセッションに進むと、古いクラスのディストリビューションと現在のセッションのトレーニングイメージを組み合わせて擬似フィーチャーをサンプリングして、プロンプトを最適化する。
論文 参考訳(メタデータ) (2024-01-03T07:59:17Z) - A Simple Approach to Adversarial Robustness in Few-shot Image
Classification [20.889464448762176]
単純な移動学習に基づくアプローチは、逆向きに頑健な数ショット分類器を訓練するのに有効であることを示す。
また,少数ショットカテゴリのセントロイドをベースクラスに校正する手法を提案する。
論文 参考訳(メタデータ) (2022-04-11T22:46:41Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Revisiting Deep Local Descriptor for Improved Few-Shot Classification [56.74552164206737]
textbfDense textbfClassification と textbfAttentive textbfPooling を利用して埋め込みの質を向上させる方法を示す。
広範に使われているグローバル平均プール (GAP) の代わりに, 注意深いプールを施し, 特徴マップをプールすることを提案する。
論文 参考訳(メタデータ) (2021-03-30T00:48:28Z) - Generalized Few-Shot Video Classification with Video Retrieval and
Feature Generation [132.82884193921535]
従来の手法は,映像特徴学習の重要性を過小評価し,二段階的アプローチを提案する。
この単純なベースラインアプローチは、既存のベンチマークで20ポイント以上の精度で、以前の数ショットビデオ分類方法よりも優れていることを示す。
さらなる改善をもたらす2つの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-07-09T13:05:32Z) - Rethinking Few-Shot Image Classification: a Good Embedding Is All You
Need? [72.00712736992618]
メタトレーニングセット上で教師付きあるいは自己教師型表現を学習する単純なベースラインが、最先端の数ショット学習方法より優れていることを示す。
追加の増量は自己蒸留によって達成できる。
我々は,この発見が,画像分類ベンチマークとメタ学習アルゴリズムの役割を再考する動機となっていると考えている。
論文 参考訳(メタデータ) (2020-03-25T17:58:42Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。