論文の概要: Boundary Content Graph Neural Network for Temporal Action Proposal
Generation
- arxiv url: http://arxiv.org/abs/2008.01432v1
- Date: Tue, 4 Aug 2020 09:35:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 00:31:54.698322
- Title: Boundary Content Graph Neural Network for Temporal Action Proposal
Generation
- Title(参考訳): 時間行動提案生成のための境界コンテンツグラフニューラルネットワーク
- Authors: Yueran Bai, Yingying Wang, Yunhai Tong, Yang Yang, Qiyue Liu, Junhui
Liu
- Abstract要約: テンポラルアクションの提案生成は、ビデオアクション理解において重要な役割を果たす。
本稿では,時間的提案の境界と行動内容の洞察力のある関係をモデル化する新しい境界コンテンツグラフニューラルネットワーク(BC-GNN)を提案する。
BC-GNNは、時間的行動提案と時間的行動検出タスクの両方において、最先端の手法よりも優れている。
- 参考スコア(独自算出の注目度): 16.42008388422392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Temporal action proposal generation plays an important role in video action
understanding, which requires localizing high-quality action content precisely.
However, generating temporal proposals with both precise boundaries and
high-quality action content is extremely challenging. To address this issue, we
propose a novel Boundary Content Graph Neural Network (BC-GNN) to model the
insightful relations between the boundary and action content of temporal
proposals by the graph neural networks. In BC-GNN, the boundaries and content
of temporal proposals are taken as the nodes and edges of the graph neural
network, respectively, where they are spontaneously linked. Then a novel graph
computation operation is proposed to update features of edges and nodes. After
that, one updated edge and two nodes it connects are used to predict boundary
probabilities and content confidence score, which will be combined to generate
a final high-quality proposal. Experiments are conducted on two mainstream
datasets: ActivityNet-1.3 and THUMOS14. Without the bells and whistles, BC-GNN
outperforms previous state-of-the-art methods in both temporal action proposal
and temporal action detection tasks.
- Abstract(参考訳): 時間的アクション提案生成は、高品質なアクションコンテンツを正確にローカライズする必要があるビデオアクション理解において重要な役割を果たす。
しかし、正確な境界と高品質なアクションコンテンツの両方で時間的提案を生成することは極めて困難である。
この問題に対処するために、グラフニューラルネットワークによる時間的提案の境界と行動内容の洞察力のある関係をモデル化する新しい境界コンテンツグラフニューラルネットワーク(BC-GNN)を提案する。
BC-GNNでは、時間的提案の境界と内容はそれぞれグラフニューラルネットワークのノードとエッジとして、自然にリンクされている。
次に,エッジとノードの特徴を更新する新しいグラフ計算演算を提案する。
その後、更新されたエッジと接続する2つのノードを使用して境界確率とコンテンツ信頼度を予測し、最終的な高品質の提案を生成する。
実験はActivityNet-1.3とTHUMOS14の2つの主要なデータセットで行われている。
ベルとホイッスルがなければ、BC-GNNは、時間的アクション提案と時間的アクション検出タスクの両方において、過去の最先端メソッドよりも優れている。
関連論文リスト
- Semantic Scene Graph Generation Based on an Edge Dual Scene Graph and
Message Passing Neural Network [3.9280441311534653]
シーングラフ生成(SGG)は、画像内のオブジェクト間の関係をキャプチャし、構造化グラフベースの表現を生成する。
既存のSGG法は、詳細な関係を正確に予測する能力に制限がある。
本稿では,エッジデュアルシーングラフ生成(EdgeSGG)と呼ばれるマルチオブジェクト関係のモデリング手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T12:36:52Z) - Temporal Aggregation and Propagation Graph Neural Networks for Dynamic
Representation [67.26422477327179]
時間グラフは連続時間を通してノード間の動的相互作用を示す。
本研究では,周辺地域全体と時間的グラフ畳み込みの新たな手法を提案する。
提案するTAP-GNNは,予測性能とオンライン推論遅延の両面で,既存の時間グラフ手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-04-15T08:17:18Z) - Multi-Task Edge Prediction in Temporally-Dynamic Video Graphs [16.121140184388786]
MTD-GNNは,複数種類の関係に対して時間動的エッジを予測するグラフネットワークである。
時間-動的グラフネットワークにおける複数の関係をモデル化することは相互に有益であることを示す。
論文 参考訳(メタデータ) (2022-12-06T10:41:00Z) - Robust Knowledge Adaptation for Dynamic Graph Neural Networks [61.8505228728726]
動的グラフニューラルネットワークのための強化学習による堅牢な知識適応フレームワークであるAda-DyGNNを提案する。
我々のアプローチは、強化学習による堅牢な知識適応を探求する最初の試みである。
3つのベンチマークデータセットの実験は、Ada-DyGNNが最先端のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2022-07-22T02:06:53Z) - Augmented Transformer with Adaptive Graph for Temporal Action Proposal
Generation [79.98992138865042]
TAPGの長期的および局所的時間的コンテキストを利用するための適応グラフネットワーク(ATAG)を備えた拡張トランスを提案する。
具体的には、スニペット動作損失と前部ブロックを装着し、拡張トランスと呼ばれるバニラトランスを強化する。
位置情報と隣接特徴の差異をマイニングすることで局所時間文脈を構築するための適応型グラフ畳み込みネットワーク(gcn)を提案する。
論文 参考訳(メタデータ) (2021-03-30T02:01:03Z) - Temporal Context Aggregation Network for Temporal Action Proposal
Refinement [93.03730692520999]
時間的行動提案生成はビデオ理解分野において難しいが重要な課題である。
現在の方法はまだ不正確な時間境界と検索に使用される劣った自信に苦しんでいます。
TCANet は、「ローカルおよびグローバル」な時間的コンテキストアグリゲーションを通じて、高品質のアクション提案を生成するために提案します。
論文 参考訳(メタデータ) (2021-03-24T12:34:49Z) - Spatiotemporal Graph Neural Network based Mask Reconstruction for Video
Object Segmentation [70.97625552643493]
本稿では,クラス非依存オブジェクトを半教師あり設定でセグメント化するタスクについて述べる。
提案手法のすべてを利用して局所的なコンテキストを捕捉する新しいグラフニューラルネットワーク(TG-Net)を提案する。
論文 参考訳(メタデータ) (2020-12-10T07:57:44Z) - BSN++: Complementary Boundary Regressor with Scale-Balanced Relation
Modeling for Temporal Action Proposal Generation [85.13713217986738]
我々は,時間的提案生成のための補完的境界回帰器と関係モデリングを利用する新しいフレームワークであるBSN++を提案する。
当然のことながら、提案されたBSN++は、時間的アクションローカライゼーションタスクに関するCVPR19 - ActivityNetのリーダーボードで1位にランクインした。
論文 参考訳(メタデータ) (2020-09-15T07:08:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。