論文の概要: TinyAction Challenge: Recognizing Real-world Low-resolution Activities
in Videos
- arxiv url: http://arxiv.org/abs/2107.11494v1
- Date: Sat, 24 Jul 2021 00:41:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 16:09:20.996261
- Title: TinyAction Challenge: Recognizing Real-world Low-resolution Activities
in Videos
- Title(参考訳): TinyAction Challenge:ビデオにおける現実の低解像度活動を認識する
- Authors: Praveen Tirupattur, Aayush J Rana, Tushar Sangam, Shruti Vyas, Yogesh
S Rawat, Mubarak Shah
- Abstract要約: 本稿では,CVPR 2021のActivityNetワークショップで実施されたTinyActionチャレンジを要約する。
この課題は、ビデオに存在する現実の低解像度のアクティビティを認識することに焦点を当てている。
- 参考スコア(独自算出の注目度): 45.025522742972505
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper summarizes the TinyAction challenge which was organized in
ActivityNet workshop at CVPR 2021. This challenge focuses on recognizing
real-world low-resolution activities present in videos. Action recognition task
is currently focused around classifying the actions from high-quality videos
where the actors and the action is clearly visible. While various approaches
have been shown effective for recognition task in recent works, they often do
not deal with videos of lower resolution where the action is happening in a
tiny region. However, many real world security videos often have the actual
action captured in a small resolution, making action recognition in a tiny
region a challenging task. In this work, we propose a benchmark dataset,
TinyVIRAT-v2, which is comprised of naturally occuring low-resolution actions.
This is an extension of the TinyVIRAT dataset and consists of actions with
multiple labels. The videos are extracted from security videos which makes them
realistic and more challenging. We use current state-of-the-art action
recognition methods on the dataset as a benchmark, and propose the TinyAction
Challenge.
- Abstract(参考訳): 本稿では,CVPR 2021のActivityNetワークショップで実施されたTinyActionチャレンジを要約する。
この課題は、ビデオに存在する現実の低解像度活動を認識することに焦点を当てている。
アクション認識タスクは、アクターとアクションがはっきりと見える高品質のビデオからアクションを分類することに焦点を当てている。
近年の研究では認識タスクに様々なアプローチが有効であることが示されているが、小さな領域でアクションが起きている低い解像度の動画は扱わないことが多い。
しかし、現実世界の多くのセキュリティビデオは、実際のアクションを小さな解像度でキャプチャし、小さな領域でのアクション認識を困難なタスクにすることが多い。
本研究では,低解像度動作を自然に発生するベンチマークデータセットであるtinyvirat-v2を提案する。
これはTinyVIRATデータセットの拡張であり、複数のラベルによるアクションで構成されている。
ビデオはセキュリティビデオから抽出され、よりリアルで難しいものになっている。
我々は、データセットの現在の最先端動作認識手法をベンチマークとして使用し、TinyAction Challengeを提案する。
関連論文リスト
- Learning to Refactor Action and Co-occurrence Features for Temporal
Action Localization [74.74339878286935]
アクション機能と共起機能は、しばしばビデオの実際のアクションコンテンツを支配します。
ビデオスニペット内でこれらの2種類の特徴を分離することで,新しい補助タスクを開発する。
まず、アクション内容を明示的に分解し、その共起機能を正規化します。
論文 参考訳(メタデータ) (2022-06-23T06:30:08Z) - ActAR: Actor-Driven Pose Embeddings for Video Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、ビデオ理解のコアタスクの1つである。
我々は,赤外スペクトルにおける効率的な人間の行動を認識することを同時に学習する新しい手法を提案する。
論文 参考訳(メタデータ) (2022-04-19T05:12:24Z) - Temporal Action Segmentation with High-level Complex Activity Labels [29.17792724210746]
我々は、高レベルなアクティビティラベルのみを入力とするアクションセグメントを学習する。
本稿では,ビデオ中の構成要素を自動検出する新しいアクション発見フレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-15T09:50:42Z) - FineAction: A Fined Video Dataset for Temporal Action Localization [60.90129329728657]
FineActionは、既存のビデオデータセットとWebビデオから収集された、新しい大規模なファインドビデオデータセットである。
このデータセットには、106のアクションカテゴリにまたがる約17Kの未トリミングビデオに高密度にアノテートされた139Kのアクションインスタンスが含まれている。
実験結果から,FineActionは短い期間のファインドおよびマルチラベルインスタンス上でのアクションローカライゼーションに新たな課題をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2021-05-24T06:06:32Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z) - Gabriella: An Online System for Real-Time Activity Detection in
Untrimmed Security Videos [72.50607929306058]
本研究では,未トリミングされたセキュリティビデオ上でのアクティビティ検出をリアルタイムに行うオンラインシステムを提案する。
提案手法は, チューブレット抽出, 活性分類, オンラインチューブレットマージの3段階からなる。
提案手法の有効性を,100fps(100fps)と最新技術による性能評価で実証した。
論文 参考訳(メタデータ) (2020-04-23T22:20:10Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。