論文の概要: MITFAS: Mutual Information based Temporal Feature Alignment and Sampling
for Aerial Video Action Recognition
- arxiv url: http://arxiv.org/abs/2303.02575v2
- Date: Wed, 15 Nov 2023 23:42:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 23:00:36.589862
- Title: MITFAS: Mutual Information based Temporal Feature Alignment and Sampling
for Aerial Video Action Recognition
- Title(参考訳): MITFAS:空中ビデオ行動認識のための相互情報に基づく時間的特徴アライメントとサンプリング
- Authors: Ruiqi Xian, Xijun Wang, Dinesh Manocha
- Abstract要約: UAVビデオにおける行動認識のための新しいアプローチを提案する。
我々は、時間領域における人間の行動や動きに対応する領域を計算・調整するために、相互情報の概念を用いる。
実際には、最先端の手法よりもTop-1の精度が18.9%向上している。
- 参考スコア(独自算出の注目度): 59.905048445296906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel approach for action recognition in UAV videos. Our
formulation is designed to handle occlusion and viewpoint changes caused by the
movement of a UAV. We use the concept of mutual information to compute and
align the regions corresponding to human action or motion in the temporal
domain. This enables our recognition model to learn from the key features
associated with the motion. We also propose a novel frame sampling method that
uses joint mutual information to acquire the most informative frame sequence in
UAV videos. We have integrated our approach with X3D and evaluated the
performance on multiple datasets. In practice, we achieve 18.9% improvement in
Top-1 accuracy over current state-of-the-art methods on UAV-Human(Li et al.,
2021), 7.3% improvement on Drone-Action(Perera et al., 2019), and 7.16%
improvement on NEC Drones(Choi et al., 2020).
- Abstract(参考訳): UAVビデオにおける行動認識のための新しいアプローチを提案する。
我々の定式化は、UAVの移動による閉塞や視点の変化を扱うように設計されている。
我々は、相互情報の概念を用いて、時間領域における人間の行動や動きに対応する領域を計算・調整する。
これにより,動作に関する重要な特徴から認識モデルを学ぶことができる。
また,協調的な相互情報を用いて,uavビデオにおける最も有用なフレームシーケンスを取得する新しいフレームサンプリング手法を提案する。
提案手法をX3Dと統合し,複数のデータセットの性能評価を行った。
実際には、UAV-Human(Li et al., 2021)の最先端手法よりも18.9%の精度向上、Drone-Action(Perera et al., 2019)の7.3%の改善、NEC Drones(Choi et al., 2020)の7.16%の改善を実現している。
関連論文リスト
- SOAR: Self-supervision Optimized UAV Action Recognition with Efficient Object-Aware Pretraining [65.9024395309316]
無人航空機(UAV)が捉えた航空映像の自己監督型事前学習アルゴリズムについて紹介する。
我々は,UAVビデオの事前学習効率と下流行動認識性能を向上させるために,事前学習プロセスを通じて人体知識を取り入れた。
論文 参考訳(メタデータ) (2024-09-26T21:15:22Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - Differentiable Frequency-based Disentanglement for Aerial Video Action
Recognition [56.91538445510214]
ビデオにおける人間の行動認識のための学習アルゴリズムを提案する。
我々のアプローチは、主に斜めに配置されたダイナミックカメラから取得されるUAVビデオのために設計されている。
我々はUAV HumanデータセットとNEC Droneデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-09-15T22:16:52Z) - Fourier Disentangled Space-Time Attention for Aerial Video Recognition [54.80846279175762]
本稿では,UAVビデオ行動認識のためのFAR(Fourier Activity Recognition)アルゴリズムを提案する。
我々の定式化は、人間のエージェントを背景から自然に分離するために、新しいフーリエオブジェクト・ディコンタングルメント法を用いています。
我々はUAV Human RGB、UAV Human Night、Drone Action、NEC Droneを含む複数のUAVデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-03-21T01:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。