論文の概要: Proposal Relation Network for Temporal Action Detection
- arxiv url: http://arxiv.org/abs/2106.11812v1
- Date: Sun, 20 Jun 2021 02:51:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-23 14:55:23.413241
- Title: Proposal Relation Network for Temporal Action Detection
- Title(参考訳): 時間的行動検出のための提案関係ネットワーク
- Authors: Xiang Wang, Zhiwu Qing, Ziyuan Huang, Yutong Feng, Shiwei Zhang,
Jianwen Jiang, Mingqian Tang, Changxin Gao, Nong Sang
- Abstract要約: このタスクの目的は、長い未編集ビデオの興味ある行動を特定し、特定することである。
本ソリューションはBMN上に構築され,1) Slowfast, CSN, ViViTによる動作分類と特徴符号化, 2)提案生成の3段階を含む。
私たちは、異なる設定で結果をアンサンブルし、テストセットで44.7%を達成する。これは、平均mAPの観点で、ActivityNet 2020のチャンピオンの結果を1.9%改善します。
- 参考スコア(独自算出の注目度): 41.23726979184197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This technical report presents our solution for temporal action detection
task in AcitivityNet Challenge 2021. The purpose of this task is to locate and
identify actions of interest in long untrimmed videos. The crucial challenge of
the task comes from that the temporal duration of action varies dramatically,
and the target actions are typically embedded in a background of irrelevant
activities. Our solution builds on BMN, and mainly contains three steps: 1)
action classification and feature encoding by Slowfast, CSN and ViViT; 2)
proposal generation. We improve BMN by embedding the proposed Proposal Relation
Network (PRN), by which we can generate proposals of high quality; 3) action
detection. We calculate the detection results by assigning the proposals with
corresponding classification results. Finally, we ensemble the results under
different settings and achieve 44.7% on the test set, which improves the
champion result in ActivityNet 2020 by 1.9% in terms of average mAP.
- Abstract(参考訳): 本報告では, acitivitynet challenge 2021における時間的行動検出タスクの解法を提案する。
このタスクの目的は、長い未編集ビデオの興味ある行動を特定し、特定することである。
タスクの重要な課題は、アクションの時間的持続時間が劇的に変化し、ターゲットアクションが通常、無関係なアクティビティのバックグラウンドに埋め込まれることである。
本ソリューションはBMN上に構築され,1) Slowfast, CSN, ViViTによる動作分類と特徴符号化, 2)提案生成の3段階を含む。
本研究では,提案するprn(prn)を組み込んだbmnの改良を行い,高品質な提案を実現する。
提案提案を対応する分類結果に割り当てて検出結果を算出する。
最後に、異なる設定下で結果をアンサンブルし、テストセットで44.7%を達成することで、平均的なマップの観点から、activitynet 2020のチャンピオン結果が1.9%向上する。
関連論文リスト
- Context-aware Proposal Network for Temporal Action Detection [47.72048484299649]
本報告では,CVPR-2022 AcitivityNet Challengeにおける時間的行動検出タスクの初当選ソリューションについて述べる。
このタスクは、アクションインスタンスの時間的境界を、長い未トリミングビデオの特定のクラスにローカライズすることを目的としている。
生成した提案にはリッチな文脈情報が含まれており、検出信頼度予測の恩恵を受ける可能性があると論じる。
論文 参考訳(メタデータ) (2022-06-18T01:43:43Z) - Estimation of Reliable Proposal Quality for Temporal Action Detection [71.5989469643732]
提案手法では,時間的視点と地域的視点を同時に把握し,信頼性の高い提案品質を取得することによって2つの課題を整合させる手法を提案する。
バウンダリ評価モジュール (BEM) は, 境界品質を推定するために, 局所的な外観と動きの進化に焦点を当てた設計である。
地域の観点からは,提案する特徴表現に対して,新しい効率的なサンプリング手法を用いた領域評価モジュール(REM)を導入する。
論文 参考訳(メタデータ) (2022-04-25T14:33:49Z) - Towards High-Quality Temporal Action Detection with Sparse Proposals [14.923321325749196]
時間的アクション検出は、人間のアクションインスタンスを含む時間的セグメントをローカライズし、アクションカテゴリを予測することを目的としている。
階層的特徴と相互作用するためにスパース提案を導入する。
実験により,高いtIoU閾値下での本手法の有効性が示された。
論文 参考訳(メタデータ) (2021-09-18T06:15:19Z) - Temporal Context Aggregation Network for Temporal Action Proposal
Refinement [93.03730692520999]
時間的行動提案生成はビデオ理解分野において難しいが重要な課題である。
現在の方法はまだ不正確な時間境界と検索に使用される劣った自信に苦しんでいます。
TCANet は、「ローカルおよびグローバル」な時間的コンテキストアグリゲーションを通じて、高品質のアクション提案を生成するために提案します。
論文 参考訳(メタデータ) (2021-03-24T12:34:49Z) - Complementary Boundary Generator with Scale-Invariant Relation Modeling
for Temporal Action Localization: Submission to ActivityNet Challenge 2020 [66.4527310659592]
本報告では,ActivityNet Challenge 2020 Task 1への提出時に使用したソリューションの概要を紹介する。
時間的行動ローカライゼーションタスクを2段階(すなわち提案生成と分類)に分離し,提案の多様性を高める。
提案手法は,課題テストセット上での平均mAPを用いて,時間的動作の局所化タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-20T04:35:40Z) - CBR-Net: Cascade Boundary Refinement Network for Action Detection:
Submission to ActivityNet Challenge 2020 (Task 1) [42.77192990307131]
我々は,ActivityNet Challenge 2020において,時間的行動ローカライゼーション(検出)(タスク1)の課題に対する解決策を提示する。
本研究の目的は、興味あるアクションが発生する間隔を時間的に局所化し、長い未編集ビデオにおけるアクションカテゴリを予測することである。
この段階では、微調整ネットワークによって得られたビデオレベルの分類結果を組み合わせて、各提案のカテゴリを予測する。
論文 参考訳(メタデータ) (2020-06-13T01:05:51Z) - Temporal Fusion Network for Temporal Action Localization:Submission to
ActivityNet Challenge 2020 (Task E) [45.3218136336925]
本稿では,Activitynet Challenge 2020で開催されているHACSコンペティションで使用した時間的行動ローカライズ手法について分析する。
課題は、未トリミングビデオ中のアクションの開始時刻と終了時刻を特定し、アクションカテゴリを予測することである。
提案手法は,複数のモデルの結果を融合することにより,検証セットで40.55%,mAPで40.53%を獲得し,この課題においてランク1を達成する。
論文 参考訳(メタデータ) (2020-06-13T00:33:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。