論文の概要: Accurate Temporal Action Proposal Generation with Relation-Aware Pyramid
Network
- arxiv url: http://arxiv.org/abs/2003.04145v1
- Date: Mon, 9 Mar 2020 13:47:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:11:10.403779
- Title: Accurate Temporal Action Proposal Generation with Relation-Aware Pyramid
Network
- Title(参考訳): 関連認識ピラミッドネットワークを用いた高精度時空間行動提案生成
- Authors: Jialin Gao, Zhixiang Shi, Jiani Li, Guanshuo Wang, Yufeng Yuan,
Shiming Ge, and Xi Zhou
- Abstract要約: 高精度な時間的行動提案を生成するための関係対応ピラミッドネットワーク(RapNet)を提案する。
RapNetでは、コンテキスト蒸留のための局所的な特徴間の双方向の長距離関係を利用するために、新しいリレーションアウェアモジュールが導入された。
- 参考スコア(独自算出の注目度): 29.7640925776191
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate temporal action proposals play an important role in detecting
actions from untrimmed videos. The existing approaches have difficulties in
capturing global contextual information and simultaneously localizing actions
with different durations. To this end, we propose a Relation-aware pyramid
Network (RapNet) to generate highly accurate temporal action proposals. In
RapNet, a novel relation-aware module is introduced to exploit bi-directional
long-range relations between local features for context distilling. This
embedded module enhances the RapNet in terms of its multi-granularity temporal
proposal generation ability, given predefined anchor boxes. We further
introduce a two-stage adjustment scheme to refine the proposal boundaries and
measure their confidence in containing an action with snippet-level actionness.
Extensive experiments on the challenging ActivityNet and THUMOS14 benchmarks
demonstrate our RapNet generates superior accurate proposals over the existing
state-of-the-art methods.
- Abstract(参考訳): 正確な時間的アクション提案は、未トリミングビデオからのアクションを検出する上で重要な役割を果たす。
既存のアプローチでは、グローバルなコンテキスト情報をキャプチャし、異なる期間のアクションを同時にローカライズすることが困難である。
そこで我々は,高精度な時間的行動提案を生成するためのRapNet(Relation-Aware pyramid Network)を提案する。
RapNetでは、コンテキスト蒸留のための局所的な特徴間の双方向の長距離関係を利用するために、新しいリレーションアウェアモジュールが導入された。
この組み込みモジュールは、予め定義されたアンカーボックスが与えられたとき、RapNetのマルチグラニュラリティ時間的提案生成能力を向上する。
さらに,提案境界を洗練し,スニペットレベルの動作性を持つアクションを含むことに対する信頼度を測定するため,二段階調整方式を導入する。
挑戦的なActivityNetとTHUMOS14ベンチマークに関する大規模な実験は、RapNetが既存の最先端メソッドよりも優れた正確な提案を生成することを示した。
関連論文リスト
- Faster Learning of Temporal Action Proposal via Sparse Multilevel
Boundary Generator [9.038216757761955]
ビデオにおける時間的行動のローカライゼーションは、コンピュータビジョンの分野で大きな課題を呈している。
本稿では,境界分類と動作完全性回帰を用いた境界感性手法を改良したSMBG(Sparse Multilevel boundary Generator)を提案する。
提案手法は,ActivityNet-1.3 と THUMOS14 の2つのベンチマークで評価され,より高速な推論速度 (2.47xBSN++, 2.12xDBG) で最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-06T14:26:56Z) - Temporal Action Proposal Generation with Background Constraint [25.783837570359267]
時間的アクションプロポーザル生成(TAPG)は、時間的境界のある未トリミングビデオ中のアクションインスタンスを見つけることを目的とした課題である。
提案の信頼性を評価するため、既存の研究は、提案と根本真実の間の時間的相互統合(tIoU)によって監督される提案の行動スコアを予測するのが一般的である。
本稿では,低品質な提案をさらに抑制するための一般的な背景制約概念を革新的に提案する。
論文 参考訳(メタデータ) (2021-12-15T09:20:49Z) - Augmented Transformer with Adaptive Graph for Temporal Action Proposal
Generation [79.98992138865042]
TAPGの長期的および局所的時間的コンテキストを利用するための適応グラフネットワーク(ATAG)を備えた拡張トランスを提案する。
具体的には、スニペット動作損失と前部ブロックを装着し、拡張トランスと呼ばれるバニラトランスを強化する。
位置情報と隣接特徴の差異をマイニングすることで局所時間文脈を構築するための適応型グラフ畳み込みネットワーク(gcn)を提案する。
論文 参考訳(メタデータ) (2021-03-30T02:01:03Z) - Temporal Context Aggregation Network for Temporal Action Proposal
Refinement [93.03730692520999]
時間的行動提案生成はビデオ理解分野において難しいが重要な課題である。
現在の方法はまだ不正確な時間境界と検索に使用される劣った自信に苦しんでいます。
TCANet は、「ローカルおよびグローバル」な時間的コンテキストアグリゲーションを通じて、高品質のアクション提案を生成するために提案します。
論文 参考訳(メタデータ) (2021-03-24T12:34:49Z) - Two-Stream Consensus Network for Weakly-Supervised Temporal Action
Localization [94.37084866660238]
本稿では,これらの課題を同時に解決するためのTwo-Stream Consensus Network(TSCN)を提案する。
提案したTSCNは,フレームレベルの疑似地上真実を反復的に更新する反復的精錬訓練手法を特徴とする。
本稿では,2進選択のように振る舞うように注意を喚起し,アクションインスタンス境界の正確な局所化を促進するために,新たな注意正規化損失を提案する。
論文 参考訳(メタデータ) (2020-10-22T10:53:32Z) - BSN++: Complementary Boundary Regressor with Scale-Balanced Relation
Modeling for Temporal Action Proposal Generation [85.13713217986738]
我々は,時間的提案生成のための補完的境界回帰器と関係モデリングを利用する新しいフレームワークであるBSN++を提案する。
当然のことながら、提案されたBSN++は、時間的アクションローカライゼーションタスクに関するCVPR19 - ActivityNetのリーダーボードで1位にランクインした。
論文 参考訳(メタデータ) (2020-09-15T07:08:59Z) - Revisiting Anchor Mechanisms for Temporal Action Localization [126.96340233561418]
本稿では,時間的視点による動作のローカライゼーションを支援するアンカーフリーな動作ローカライゼーションモジュールを提案する。
提案するアンカーフリーモジュールと従来のアンカーベースモジュールを組み合わせることで,A2Netと呼ばれる新しいアクションローカライゼーションフレームワークを提案する。
アンカーフリーモジュールとアンカーベースモジュールの協調はTHUMOS14の最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-08-22T13:39:29Z) - Complementary Boundary Generator with Scale-Invariant Relation Modeling
for Temporal Action Localization: Submission to ActivityNet Challenge 2020 [66.4527310659592]
本報告では,ActivityNet Challenge 2020 Task 1への提出時に使用したソリューションの概要を紹介する。
時間的行動ローカライゼーションタスクを2段階(すなわち提案生成と分類)に分離し,提案の多様性を高める。
提案手法は,課題テストセット上での平均mAPを用いて,時間的動作の局所化タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-20T04:35:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。