論文の概要: Understanding Dynamic Scenes using Graph Convolution Networks
- arxiv url: http://arxiv.org/abs/2005.04437v5
- Date: Fri, 14 Aug 2020 15:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-05 07:00:09.324686
- Title: Understanding Dynamic Scenes using Graph Convolution Networks
- Title(参考訳): グラフ畳み込みネットワークを用いた動的シーン理解
- Authors: Sravan Mylavarapu, Mahtab Sandhu, Priyesh Vijayan, K Madhava Krishna,
Balaraman Ravindran, Anoop Namboodiri
- Abstract要約: 本稿では,移動カメラが捉えた時間順のフレーム列から道路車両の挙動をモデル化する新しい枠組みを提案する。
微調整に頼らずに複数のデータセットへの学習のシームレスな移行を示す。
このような振る舞い予測手法は,様々なナビゲーションタスクにおいて即時関連性を見出す。
- 参考スコア(独自算出の注目度): 22.022759283770377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel Multi-Relational Graph Convolutional Network (MRGCN) based
framework to model on-road vehicle behaviors from a sequence of temporally
ordered frames as grabbed by a moving monocular camera. The input to MRGCN is a
multi-relational graph where the graph's nodes represent the active and passive
agents/objects in the scene, and the bidirectional edges that connect every
pair of nodes are encodings of their Spatio-temporal relations. We show that
this proposed explicit encoding and usage of an intermediate spatio-temporal
interaction graph to be well suited for our tasks over learning end-end
directly on a set of temporally ordered spatial relations. We also propose an
attention mechanism for MRGCNs that conditioned on the scene dynamically scores
the importance of information from different interaction types. The proposed
framework achieves significant performance gain over prior methods on
vehicle-behavior classification tasks on four datasets. We also show a seamless
transfer of learning to multiple datasets without resorting to fine-tuning.
Such behavior prediction methods find immediate relevance in a variety of
navigation tasks such as behavior planning, state estimation, and applications
relating to the detection of traffic violations over videos.
- Abstract(参考訳): 本稿では,移動モノクラーカメラが捉えた時間順のフレーム列から車両の挙動をモデル化するための,MRGCN(Multi-Relational Graph Convolutional Network)に基づく新しいフレームワークを提案する。
MRGCNへの入力は、グラフのノードがシーン内のアクティブおよびパッシブエージェント/オブジェクトを表すマルチリレーショナルグラフであり、各ノードを接続する双方向エッジはその時空間関係をエンコードする。
本提案手法は,時間的に順序付けられた空間関係の集合上でエンドエンドを直接学習するタスクに適した,中間時空間相互作用グラフの明示的な符号化と利用を提案する。
また,シーンに条件付きMRGCNのアテンション機構を提案し,異なるインタラクションタイプからの情報の重要性を動的に評価する。
提案手法は,4つのデータセット上での車両行動分類タスクにおいて,従来の手法よりも大きな性能向上を実現する。
また、微調整に頼ることなく、複数のデータセットへの学習のシームレスな移行を示す。
このような行動予測手法は、行動計画、状態推定、ビデオ上のトラフィック違反の検出に関するアプリケーションなど、様々なナビゲーションタスクに直ちに関連がある。
関連論文リスト
- Multi-Scene Generalized Trajectory Global Graph Solver with Composite
Nodes for Multiple Object Tracking [61.69892497726235]
複合ノードメッセージパッシングネットワーク(CoNo-Link)は、超長いフレーム情報を関連付けるためのフレームワークである。
オブジェクトをノードとして扱う従来の方法に加えて、このネットワークは情報インタラクションのためのノードとしてオブジェクトトラジェクトリを革新的に扱う。
我々のモデルは、合成ノードを追加することで、より長い時間スケールでより良い予測を学習することができる。
論文 参考訳(メタデータ) (2023-12-14T14:00:30Z) - Local-Global Information Interaction Debiasing for Dynamic Scene Graph
Generation [51.92419880088668]
マルチタスク学習に基づく新しいDynSGGモデルDynSGG-MTLを提案する。
長期的人間の行動は、大域的な制約に適合する複数のシーングラフを生成するためにモデルを監督し、尾の述語を学べないモデルを避ける。
論文 参考訳(メタデータ) (2023-08-10T01:24:25Z) - A Dynamic Temporal Self-attention Graph Convolutional Network for
Traffic Prediction [7.23135508361981]
本稿では,隣接する行列をトレーニング可能なアテンションスコア行列とする時間自己アテンショングラフ畳み込みネットワーク(DT-SGN)モデルを提案する。
実世界の交通データセット上での最先端モデル駆動モデルとデータ駆動モデルよりも,本手法の方が優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2023-02-21T03:51:52Z) - Multi-Task Edge Prediction in Temporally-Dynamic Video Graphs [16.121140184388786]
MTD-GNNは,複数種類の関係に対して時間動的エッジを予測するグラフネットワークである。
時間-動的グラフネットワークにおける複数の関係をモデル化することは相互に有益であることを示す。
論文 参考訳(メタデータ) (2022-12-06T10:41:00Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - D2-TPred: Discontinuous Dependency for Trajectory Prediction under
Traffic Lights [68.76631399516823]
本稿では,空間的動的相互作用グラフ(SDG)と行動依存グラフ(BDG)を用いて,交通信号に対する軌道予測手法D2-TPredを提案する。
実験の結果,VTP-TLではADEとFDEでそれぞれ20.45%,20.78%以上を達成できた。
論文 参考訳(メタデータ) (2022-07-21T10:19:07Z) - Spatial-Temporal Adaptive Graph Convolution with Attention Network for
Traffic Forecasting [4.1700160312787125]
交通予測のための新しいネットワークである空間時間適応グラフ畳み込み(STAAN)を提案する。
まず,GCN処理中に事前に定義された行列を使わずに適応的依存行列を採用し,ノード間の依存性を推定する。
第2に,グローバルな依存のために設計されたグラフアテンションネットワークに基づくPWアテンションと,空間ブロックとしてのGCNを統合した。
論文 参考訳(メタデータ) (2022-06-07T09:08:35Z) - Spatial-Temporal Interactive Dynamic Graph Convolution Network for
Traffic Forecasting [1.52292571922932]
本稿では,トラフィック予測のためのニューラルネットワークを用いた時空間動的グラフ畳み込みネットワーク(STIDGCN)を提案する。
そこで,STIDGCNでは,まず間隔でシーケンスを分割し,同時にトラフィックデータの時空間依存性を捉えるインタラクティブな動的グラフ畳み込み構造を提案する。
4つの実世界のトラフィックフローデータセットの実験は、STIDGCNが最先端のベースラインより優れていることを示した。
論文 参考訳(メタデータ) (2022-05-18T01:59:30Z) - Spatio-Temporal Joint Graph Convolutional Networks for Traffic
Forecasting [75.10017445699532]
近年、時間グラフモデリング問題として交通予測の定式化に焦点が移っている。
本稿では,道路網における交通予測の精度向上のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-11-25T08:45:14Z) - Adaptive Graph Convolutional Recurrent Network for Traffic Forecasting [47.19400232038575]
ノード固有のパターンの学習は、事前に定義されたグラフが避けられる間、トラフィック予測に不可欠である、と我々は主張する。
本稿では,新たな機能を備えたグラフ・コンパス・ネットワーク(GCN)の拡張のための2つの適応モジュールを提案する。
実世界の2つの交通データセットに対する実験により、AGCRNは空間接続に関する事前定義されたグラフを使わずに、かなりのマージンで最先端の性能を示した。
論文 参考訳(メタデータ) (2020-07-06T15:51:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。