論文の概要: TinyVIRAT: Low-resolution Video Action Recognition
- arxiv url: http://arxiv.org/abs/2007.07355v1
- Date: Tue, 14 Jul 2020 21:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:27:48.243817
- Title: TinyVIRAT: Low-resolution Video Action Recognition
- Title(参考訳): TinyVIRAT:低解像度ビデオアクション認識
- Authors: Ugur Demir, Yogesh S Rawat, Mubarak Shah
- Abstract要約: 現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 70.37277191524755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing research in action recognition is mostly focused on high-quality
videos where the action is distinctly visible. In real-world surveillance
environments, the actions in videos are captured at a wide range of
resolutions. Most activities occur at a distance with a small resolution and
recognizing such activities is a challenging problem. In this work, we focus on
recognizing tiny actions in videos. We introduce a benchmark dataset,
TinyVIRAT, which contains natural low-resolution activities. The actions in
TinyVIRAT videos have multiple labels and they are extracted from surveillance
videos which makes them realistic and more challenging. We propose a novel
method for recognizing tiny actions in videos which utilizes a progressive
generative approach to improve the quality of low-resolution actions. The
proposed method also consists of a weakly trained attention mechanism which
helps in focusing on the activity regions in the video. We perform extensive
experiments to benchmark the proposed TinyVIRAT dataset and observe that the
proposed method significantly improves the action recognition performance over
baselines. We also evaluate the proposed approach on synthetically resized
action recognition datasets and achieve state-of-the-art results when compared
with existing methods. The dataset and code is publicly available at
https://github.com/UgurDemir/Tiny-VIRAT.
- Abstract(参考訳): 既存のアクション認識の研究は主に、アクションがはっきりと見える高品質のビデオに焦点を当てている。
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
ほとんどの活動は小さな解像度で発生し、そのような活動を認識することは難しい問題である。
本研究では,ビデオ中の小さなアクションを認識することに焦点を当てる。
我々は,天然の低解像度アクティビティを含むベンチマークデータセットであるtinyviratを紹介する。
TinyVIRATビデオのアクションには複数のラベルがあり、監視ビデオから抽出され、現実的でより困難なものになる。
本稿では,低解像度アクションの品質向上のために,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さなアクションの認識手法を提案する。
提案手法は,映像中の活動領域に焦点を合わせるのに役立つ弱訓練された注意機構も備えている。
提案するtinyviratデータセットのベンチマーク実験を行い,提案手法がベースライン上での動作認識性能を大幅に向上させることを確認した。
また,提案手法は,既存の手法と比較して,合成的再構成された行動認識データセットに対するアプローチを評価した。
データセットとコードはhttps://github.com/UgurDemir/Tiny-VIRATで公開されている。
関連論文リスト
- A Comprehensive Review of Few-shot Action Recognition [64.47305887411275]
アクション認識は、複雑で可変なビデオデータを手動でラベル付けすることのコストと非現実性に対処することを目的としている。
ビデオ中の人間のアクションを正確に分類するには、クラスごとにいくつかのラベル付き例だけを使用する必要がある。
論文 参考訳(メタデータ) (2024-07-20T03:53:32Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - ActAR: Actor-Driven Pose Embeddings for Video Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、ビデオ理解のコアタスクの1つである。
我々は,赤外スペクトルにおける効率的な人間の行動を認識することを同時に学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T05:12:24Z) - TinyAction Challenge: Recognizing Real-world Low-resolution Activities
in Videos [45.025522742972505]
本稿では,CVPR 2021のActivityNetワークショップで実施されたTinyActionチャレンジを要約する。
この課題は、ビデオに存在する現実の低解像度のアクティビティを認識することに焦点を当てている。
論文 参考訳(メタデータ) (2021-07-24T00:41:19Z) - A Comprehensive Study of Deep Video Action Recognition [35.7068977497202]
ビデオ動作認識は,映像理解における代表的なタスクの一つである。
ビデオ行動認識のためのディープラーニングに関する200以上の既存論文を包括的に調査する。
論文 参考訳(メタデータ) (2020-12-11T18:54:08Z) - Gabriella: An Online System for Real-Time Activity Detection in
Untrimmed Security Videos [72.50607929306058]
本研究では,未トリミングされたセキュリティビデオ上でのアクティビティ検出をリアルタイムに行うオンラインシステムを提案する。
提案手法は, チューブレット抽出, 活性分類, オンラインチューブレットマージの3段階からなる。
提案手法の有効性を,100fps(100fps)と最新技術による性能評価で実証した。
論文 参考訳(メタデータ) (2020-04-23T22:20:10Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。