論文の概要: PAMI-AD: An Activity Detector Exploiting Part-attention and Motion
Information in Surveillance Videos
- arxiv url: http://arxiv.org/abs/2203.03796v1
- Date: Tue, 8 Mar 2022 01:36:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-10 02:39:12.946616
- Title: PAMI-AD: An Activity Detector Exploiting Part-attention and Motion
Information in Surveillance Videos
- Title(参考訳): PAMI-AD:サーベイランスビデオにおけるパートアテンションとモーション情報を爆発させるアクティビティ検出器
- Authors: Yunhao Du, Zhihang Tong, Junfeng Wan, Binyu Zhang, and Yanyun Zhao
- Abstract要約: PAMI-ADは、無人監視ビデオのアクティビティ検出システムである。
マルチオブジェクト追跡、バックグラウンドモデリング、アクティビティ分類器、後処理の4つのモジュールで構成されている。
私たちのチームは、TRECVID 2021 ActEVチャレンジで1位を獲得しました。
- 参考スコア(独自算出の注目度): 6.4515884598231
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Activity detection in surveillance videos is a challenging task caused by
small objects, complex activity categories, its untrimmed nature, etc. In this
work, we propose an effective activity detection system for person-only and
vehicle-only activities in untrimmed surveillance videos, named PAMI-AD. It
consists of four modules, i.e., multi-object tracking, background modeling,
activity classifier and post-processing. In particular, we propose a novel
part-attention mechanism for person-only activities and a simple but strong
motion information encoding method for vehicle-only activities. Our proposed
system achieves the best results on the VIRAT dataset. Furthermore, our team
won the 1st place in the TRECVID 2021 ActEV challenge.
- Abstract(参考訳): 監視ビデオのアクティビティ検出は、小さなオブジェクト、複雑なアクティビティカテゴリ、未解決の性質などによって引き起こされる困難なタスクである。
本研究では,PAMI-ADという未編集監視ビデオにおいて,個人のみおよび車両のみの活動を効果的に検出するシステムを提案する。
マルチオブジェクト追跡、バックグラウンドモデリング、アクティビティ分類器、後処理の4つのモジュールで構成されている。
特に,人間のみのアクティビティのための新しいpart-attentionメカニズムと,車両のみのアクティビティのためのシンプルかつ強固なモーション情報エンコーディング手法を提案する。
提案システムは,VIRATデータセット上で最高の結果を得る。
さらに、私たちのチームはTRECVID 2021 ActEVチャレンジで1位を獲得しました。
関連論文リスト
- Multi class activity classification in videos using Motion History Image generation [0.0]
運動履歴画像は、時間的・活動的な情報を多次元的詳細に捉えるための、よく確立された枠組みであることを示す。
我々は、MHIを用いてサンプルデータを作成し、分類器を訓練し、単一のマルチアクションビデオにおいて、6つの異なるアクティビティにわたるアクション分類の有効性を実証する。
論文 参考訳(メタデータ) (2024-10-13T16:22:02Z) - Group Activity Recognition using Unreliable Tracked Pose [8.592249538742527]
ビデオにおけるグループ活動認識は、ビデオ内のすべての個人の行動を認識するモデルが必要であるため、複雑なタスクである。
我々は、Rendered Pose based Group Activity Recognition System (RePGARS)と呼ばれる革新的な深層学習に基づくグループアクティビティ認識手法を導入する。
論文 参考訳(メタデータ) (2024-01-06T17:36:13Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Self-supervised Video Object Segmentation by Motion Grouping [79.13206959575228]
動きの手がかりを利用して物体をセグメンテーションできるコンピュータビジョンシステムを開発した。
本稿では,光フローフレームを一次オブジェクトと背景に分割するトランスフォーマーの簡単なバリエーションを紹介する。
提案したアーキテクチャを公開ベンチマーク(DAVIS2016, SegTrackv2, FBMS59)で評価する。
論文 参考訳(メタデータ) (2021-04-15T17:59:32Z) - Toyota Smarthome Untrimmed: Real-World Untrimmed Videos for Activity
Detection [6.682959425576476]
私たちは、Toyota Smarthome Untrimmedという、いくつかの現実的な課題を特徴とする、新たな毎日のデータセットを導入しました。
このデータセットには、基本的な、複合的なアクティビティや、オブジェクトとのインタラクションを含むアクティビティを含む、密集したアノテーションが含まれている。
本研究では,現在の最先端手法が,TSデータセット上での良好な性能を達成できないことを示す。
本稿では,我々のデータセットが提供する新たな課題に取り組むために,アクティビティ検出のための新しいベースライン手法を提案する。
論文 参考訳(メタデータ) (2020-10-28T13:47:16Z) - TinyVIRAT: Low-resolution Video Action Recognition [70.37277191524755]
現実世界の監視環境では、ビデオ内のアクションは幅広い解像度でキャプチャされる。
天然の低解像度アクティビティを含むベンチマークデータセットTinyVIRATを導入する。
本稿では,プログレッシブ・ジェネレーティブ・アプローチを用いたビデオにおける小さな動作を認識する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T21:09:18Z) - Gabriella: An Online System for Real-Time Activity Detection in
Untrimmed Security Videos [72.50607929306058]
本研究では,未トリミングされたセキュリティビデオ上でのアクティビティ検出をリアルタイムに行うオンラインシステムを提案する。
提案手法は, チューブレット抽出, 活性分類, オンラインチューブレットマージの3段階からなる。
提案手法の有効性を,100fps(100fps)と最新技術による性能評価で実証した。
論文 参考訳(メタデータ) (2020-04-23T22:20:10Z) - Revisiting Few-shot Activity Detection with Class Similarity Control [107.79338380065286]
本稿では,提案回帰に基づく数ショットの時間的活動検出のためのフレームワークを提案する。
我々のモデルはエンドツーエンドのトレーニングが可能で、数ショットのアクティビティと未トリミングなテストビデオのフレームレートの違いを考慮しており、さらに数ショットのサンプルの恩恵を受けることができる。
論文 参考訳(メタデータ) (2020-03-31T22:02:38Z) - ZSTAD: Zero-Shot Temporal Activity Detection [107.63759089583382]
本研究では,ゼロショット時間的活動検出(ZSTAD)と呼ばれる新たなタスク設定を提案する。
このソリューションのアーキテクチャとして,R-C3Dに基づくエンドツーエンドのディープネットワークを設計する。
THUMOS14とCharadesデータセットの両方の実験は、目に見えない活動を検出するという点で有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-03-12T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。