論文の概要: NUTA: Non-uniform Temporal Aggregation for Action Recognition
- arxiv url: http://arxiv.org/abs/2012.08041v1
- Date: Tue, 15 Dec 2020 02:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 12:38:38.160568
- Title: NUTA: Non-uniform Temporal Aggregation for Action Recognition
- Title(参考訳): NUTA:行動認識のための非一様時間集合
- Authors: Xinyu Li, Chunhui Liu, Bing Shuai, Yi Zhu, Hao Chen, Joseph Tighe
- Abstract要約: 非一様時間集合(NUTA)と呼ばれる手法を提案し,情報的時間セグメントのみから特徴を集約する。
我々のモデルは、広く使われている4つの大規模行動認識データセットで最先端のパフォーマンスを達成した。
- 参考スコア(独自算出の注目度): 29.75987323741384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the world of action recognition research, one primary focus has been on
how to construct and train networks to model the spatial-temporal volume of an
input video. These methods typically uniformly sample a segment of an input
clip (along the temporal dimension). However, not all parts of a video are
equally important to determine the action in the clip. In this work, we focus
instead on learning where to extract features, so as to focus on the most
informative parts of the video. We propose a method called the non-uniform
temporal aggregation (NUTA), which aggregates features only from informative
temporal segments. We also introduce a synchronization method that allows our
NUTA features to be temporally aligned with traditional uniformly sampled video
features, so that both local and clip-level features can be combined. Our model
has achieved state-of-the-art performance on four widely used large-scale
action-recognition datasets (Kinetics400, Kinetics700, Something-something V2
and Charades). In addition, we have created a visualization to illustrate how
the proposed NUTA method selects only the most relevant parts of a video clip.
- Abstract(参考訳): 行動認識研究の世界では、入力ビデオの空間的-時間的ボリュームをモデル化するためのネットワークの構築と訓練に重点が置かれている。
これらの方法は通常、入力クリップのセグメントを(時間次元とともに)一様にサンプリングする。
しかし、ビデオのすべての部分がビデオ内のアクションを決定するのに等しく重要であるわけではない。
本研究は,映像の最も情報性の高い部分に集中するために,特徴抽出の場所を学習することに焦点を当てる。
本稿では,情報的時間セグメントのみから特徴を集約する非一様時間アグリゲーション(NUTA)手法を提案する。
また, 局所的特徴とクリップレベルの特徴を組み合わせるために, 従来の一様にサンプリングされたビデオ機能との時間的整合を可能にする同期手法も導入した。
提案モデルは,4つの大規模動作認識データセット(kinetics400,kinetics700,何かv2とcharades)において最先端のパフォーマンスを達成している。
さらに,提案手法がビデオクリップの最も関連性の高い部分のみをどのように選択するかを視覚化した。
関連論文リスト
- Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - CAST: Cross-Attention in Space and Time for Video Action Recognition [8.785207228156098]
空間時間におけるクロスアテンション(CAST)と呼ばれる新しい2ストリームアーキテクチャを提案する。
CASTは、バランスの取れた入力のみを使用して、ビデオの時間的バランスの取れた理解を実現する。
提案手法により,空間的・時間的専門家モデルによる情報交換と相乗的予測が可能となる。
論文 参考訳(メタデータ) (2023-11-30T18:58:51Z) - Self-Supervised Video Representation Learning via Latent Time Navigation [12.721647696921865]
自己教師付きビデオ表現学習は、1つのビデオの異なる時間セグメント間の類似性を最大化することを目的としている。
微粒な動きを捉えるために、LTN(Latent Time Navigation)を提案する。
実験により,LTNによる映像表現の学習は,動作分類の性能を一貫して向上させることが示された。
論文 参考訳(メタデータ) (2023-05-10T20:06:17Z) - Spatio-Temporal Crop Aggregation for Video Representation Learning [33.296154476701055]
本モデルは,事前学習したバックボーンで抽出したビデオクリップレベルの特徴セットから学習することで,長距離ビデオ機能を構築する。
ビデオ表現は, 線形, 非線形, および$k$-NNを用いて, 共通の行動分類データセットを探索することにより, 最先端の性能が得られることを示す。
論文 参考訳(メタデータ) (2022-11-30T14:43:35Z) - Unsupervised Pre-training for Temporal Action Localization Tasks [76.01985780118422]
本稿では、Pseudo Action Localization (PAL) と呼ばれる自己教師付きプレテキストタスクを、時間的アクションローカライゼーションタスク(UP-TAL)のための教師なし事前訓練機能エンコーダに提案する。
具体的には、まず1つのビデオから複数のクリップを含む時間領域をランダムに選択し、他の2つのビデオの異なる時間的位置に貼り付ける。
前提課題は、2つの合成ビデオからペーストした擬似行動領域の特徴を調整し、両者の合意を最大化することである。
論文 参考訳(メタデータ) (2022-03-25T12:13:43Z) - Action Keypoint Network for Efficient Video Recognition [63.48422805355741]
本稿では、時間的・空間的な選択をアクションキーポイントネットワーク(AK-Net)に統合することを提案する。
AK-Netは、アクションキーポイントのセットとして任意の形状の領域に散在する情報的ポイントを選択し、ビデオ認識をポイントクラウド分類に変換する。
実験結果から,AK-Netは複数のビデオ認識ベンチマークにおいて,ベースライン手法の効率と性能を一貫して向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-17T09:35:34Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Efficient Modelling Across Time of Human Actions and Interactions [92.39082696657874]
3つの畳み込みニューラルネットワーク(CNND)における現在の固定サイズの時間的カーネルは、入力の時間的変動に対処するために改善できると主張している。
我々は、アーキテクチャの異なるレイヤにまたがる機能の違いを強化することで、アクションのクラス間でどのようにうまく対処できるかを研究する。
提案手法は、いくつかのベンチマークアクション認識データセットで評価され、競合する結果を示す。
論文 参考訳(メタデータ) (2021-10-05T15:39:11Z) - Beyond Short Clips: End-to-End Video-Level Learning with Collaborative
Memories [56.91664227337115]
本稿では,ビデオの複数のサンプルクリップにまたがる情報を,トレーニングイテレーション毎にエンコードするコラボレーティブメモリ機構を提案する。
これにより、単一のクリップ以上の長距離依存関係の学習が可能になる。
提案するフレームワークはエンドツーエンドでトレーニング可能で,計算オーバーヘッドが無視できないビデオ分類精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-02T18:59:09Z) - Self-supervised Temporal Discriminative Learning for Video
Representation Learning [39.43942923911425]
注釈付き大規模ビデオアクションデータセットをトレーニングに使わずに、時間差分の特徴を抽出することは困難である。
本稿では,ビデオに基づく時間識別学習フレームワークを自己指導型で提案する。
論文 参考訳(メタデータ) (2020-08-05T13:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。