論文の概要: Few-shot Action Recognition with Implicit Temporal Alignment and Pair
Similarity Optimization
- arxiv url: http://arxiv.org/abs/2010.06215v1
- Date: Tue, 13 Oct 2020 07:56:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 23:56:48.260473
- Title: Few-shot Action Recognition with Implicit Temporal Alignment and Pair
Similarity Optimization
- Title(参考訳): 意図しない時間的アライメントとペア類似度最適化を用いたアクション認識
- Authors: Congqi Cao, Yajuan Li, Qinyi Lv, Peng Wang, Yanning Zhang
- Abstract要約: ほとんどラベル付きサンプルのない新しいクラスからインスタンスを認識することを目的としていない。
ビデオベースの数発のアクション認識は、まだ十分に調査されておらず、まだ挑戦的だ。
本稿では,(1)少数ショットの動作認識アルゴリズムの性能を評価するための具体的設定,(2)ビデオレベルの類似性比較のための暗黙的なシーケンスアライメントアルゴリズム,(3)限定データを用いたペア類似性最適化のための複数ショット学習における高度な損失について述べる。
- 参考スコア(独自算出の注目度): 37.010005936995334
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot learning aims to recognize instances from novel classes with few
labeled samples, which has great value in research and application. Although
there has been a lot of work in this area recently, most of the existing work
is based on image classification tasks. Video-based few-shot action recognition
has not been explored well and remains challenging: 1) the differences of
implementation details among different papers make a fair comparison difficult;
2) the wide variations and misalignment of temporal sequences make the
video-level similarity comparison difficult; 3) the scarcity of labeled data
makes the optimization difficult. To solve these problems, this paper presents
1) a specific setting to evaluate the performance of few-shot action
recognition algorithms; 2) an implicit sequence-alignment algorithm for better
video-level similarity comparison; 3) an advanced loss for few-shot learning to
optimize pair similarity with limited data. Specifically, we propose a novel
few-shot action recognition framework that uses long short-term memory
following 3D convolutional layers for sequence modeling and alignment. Circle
loss is introduced to maximize the within-class similarity and minimize the
between-class similarity flexibly towards a more definite convergence target.
Instead of using random or ambiguous experimental settings, we set a concrete
criterion analogous to the standard image-based few-shot learning setting for
few-shot action recognition evaluation. Extensive experiments on two datasets
demonstrate the effectiveness of our proposed method.
- Abstract(参考訳): few-shot learningは、ラベル付きサンプルが少ない新しいクラスからのインスタンスを認識することを目的としています。
この領域では近年多くの作業が行われているが、既存の作業のほとんどは画像分類タスクに基づいている。
ビデオに基づく数発のアクション認識は、まだ十分に研究されていない。
1) 異なる論文間の実施の詳細の相違は、公正な比較を困難にする。
2) 時間系列のばらつきや誤用により, 映像レベルの類似性の比較が困難となる。
3) ラベル付きデータの不足により最適化が困難となる。
これらの問題を解決するために、本稿では
1) 数発の行動認識アルゴリズムの性能を評価するための特定の設定
2)ビデオレベルの類似性比較のための暗黙的なシーケンスアライメントアルゴリズム
3) 限られたデータでペアの類似性を最適化するために,少数の学習で高度な損失が発生する。
具体的には, 3次元畳み込み層に追従した長期短期記憶をシーケンスモデリングとアライメントに利用する, 新たな行動認識フレームワークを提案する。
円損失はクラス内類似度を最大化し、より明確な収束目標に向けて柔軟にクラス間類似度を最小化するために導入される。
ランダムあるいはあいまいな実験的な設定を用いる代わりに、標準的なイメージベースのマイトショット学習設定に類似した具体的基準を設定して、マイトショット動作認識の評価を行う。
2つのデータセットに対する実験により,提案手法の有効性が示された。
関連論文リスト
- Rethinking matching-based few-shot action recognition [20.193879158795724]
新しいアクションクラスを認識することは、時間的情報から恩恵を受ける。
この手法に着想を得たChamfer++を提案する。
論文 参考訳(メタデータ) (2023-03-28T15:52:31Z) - Category-Level Pose Retrieval with Contrastive Features Learnt with
Occlusion Augmentation [31.73423009695285]
本稿では,ダイナミックマージンと連続的なポーズラベル空間を持つ対照的な損失を用いたカテゴリーレベルのポーズ推定手法を提案する。
提案手法は,PASCAL3DおよびOccludedPASCAL3Dの最先端性能と,KITTI3Dの高品質化を実現する。
論文 参考訳(メタデータ) (2022-08-12T10:04:08Z) - Fine-grained Temporal Contrastive Learning for Weakly-supervised
Temporal Action Localization [87.47977407022492]
本稿では,シーケンス・ツー・シーケンスの区別を文脈的に比較することで学習が,弱い教師付き行動の局所化に不可欠な帰納的バイアスをもたらすことを論じる。
微分可能な動的プログラミングの定式化の下では、FSD(Fen-fine Sequence Distance)とLCS(Longest Common Subsequence)の2つの相補的コントラストが設計されている。
提案手法は,2つのベンチマークにおいて最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-03-31T05:13:50Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Semi-Supervised Action Recognition with Temporal Contrastive Learning [50.08957096801457]
2つの異なる速度でラベル付きビデオを用いて2経路の時間的コントラストモデルを学習する。
我々は最先端の半教師付き画像認識手法の映像拡張性能を著しく向上させた。
論文 参考訳(メタデータ) (2021-02-04T17:28:35Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Active Sampling for Pairwise Comparisons via Approximate Message Passing
and Information Gain Maximization [5.771869590520189]
本稿では、近似メッセージパッシングと期待情報ゲインに基づくアクティブサンプリングアルゴリズムASAPを提案する。
既存の手法と比較して,ASAPは推定スコアの精度が最も高いことを示す。
論文 参考訳(メタデータ) (2020-04-12T20:48:10Z) - Learning to Compare Relation: Semantic Alignment for Few-Shot Learning [48.463122399494175]
本稿では,コンテンツアライメントに頑健な関係を比較するための新しいセマンティックアライメントモデルを提案する。
数ショットの学習データセットについて広範な実験を行う。
論文 参考訳(メタデータ) (2020-02-29T08:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。