論文の概要: Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2002.00786v3
- Date: Tue, 12 May 2020 17:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:05:32.966776
- Title: Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks
- Title(参考訳): マルチリレーショナルグラフ畳み込みネットワークによる車両挙動の正確な分類に向けて
- Authors: Sravan Mylavarapu, Mahtab Sandhu, Priyesh Vijayan, K Madhava Krishna,
Balaraman Ravindran, Anoop Namboodiri
- Abstract要約: モノクロ画像やビデオから車両の挙動を理解するパイプラインを提案する。
このような符号化の時間シーケンスをリカレントネットワークに供給し、車両の挙動をラベル付けする。
提案するフレームワークは,多様なデータセットに対して,さまざまな車両動作を高い忠実度に分類することができる。
- 参考スコア(独自算出の注目度): 22.022759283770377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding on-road vehicle behaviour from a temporal sequence of sensor
data is gaining in popularity. In this paper, we propose a pipeline for
understanding vehicle behaviour from a monocular image sequence or video. A
monocular sequence along with scene semantics, optical flow and object labels
are used to get spatial information about the object (vehicle) of interest and
other objects (semantically contiguous set of locations) in the scene. This
spatial information is encoded by a Multi-Relational Graph Convolutional
Network (MR-GCN), and a temporal sequence of such encodings is fed to a
recurrent network to label vehicle behaviours. The proposed framework can
classify a variety of vehicle behaviours to high fidelity on datasets that are
diverse and include European, Chinese and Indian on-road scenes. The framework
also provides for seamless transfer of models across datasets without entailing
re-annotation, retraining and even fine-tuning. We show comparative performance
gain over baseline Spatio-temporal classifiers and detail a variety of
ablations to showcase the efficacy of the framework.
- Abstract(参考訳): センサデータの時間的シーケンスから道路車両の挙動を理解することが人気を集めている。
本稿では,モノクラー画像シーケンスやビデオから車両の挙動を理解するパイプラインを提案する。
シーンのセマンティクス、光学フロー、オブジェクトラベルとともに、シーン内のオブジェクト(車両)と他のオブジェクト(集合的に連続した位置)に関する空間情報を取得するために、モノクラーシーケンスが使用される。
この空間情報はマルチリレーショナルグラフ畳み込みネットワーク(mr-gcn)によって符号化され、そのようなエンコーディングの時系列シーケンスはリカレントネットワークに供給され、車両の挙動をラベル付けする。
提案されたフレームワークは、ヨーロッパ、中国、インドの道路上のシーンを含む、多様なデータセット上のさまざまな車両動作を高い忠実度に分類することができる。
このフレームワークはまた、再アノテーション、再トレーニング、さらには微調整を伴わずに、データセットをまたいだモデルのシームレスな転送も提供する。
我々は,ベースライン時空間分類器と比較して比較性能向上率を示し,フレームワークの有効性を示すために様々なアブレーションを詳述した。
関連論文リスト
- Traffic Reconstruction and Analysis of Natural Driving Behaviors at
Unsignalized Intersections [1.7273380623090846]
この研究は、TNのメンフィスにある様々な無署名の交差点で、その日の異なる時間に交通を記録していた。
ビデオデータを手動でラベル付けして特定の変数をキャプチャした後,SUMOシミュレーション環境におけるトラフィックシナリオを再構築した。
これらのシミュレーションから得られた出力データは、車両移動の時間空間図、走行時間頻度分布、ボトルネック点を特定するための速度配置プロットなど、包括的な分析を提供する。
論文 参考訳(メタデータ) (2023-12-22T09:38:06Z) - Graph Convolutional Networks for Complex Traffic Scenario Classification [0.7919810878571297]
シナリオベースのテストアプローチは、自動運転システムの安全性の統計的に重要な証拠を得るのに必要な時間を短縮することができる。
シナリオ分類のほとんどの方法は、多様な環境を持つ複雑なシナリオでは機能しない。
本研究では,車両と環境との相互作用をモデル化できる複雑な交通シナリオ分類手法を提案する。
論文 参考訳(メタデータ) (2023-10-26T20:51:24Z) - Temporal Embeddings: Scalable Self-Supervised Temporal Representation
Learning from Spatiotemporal Data for Multimodal Computer Vision [1.4127889233510498]
移動活動時系列に基づいて景観を階層化する新しい手法を提案する。
ピクセルワイズ埋め込みは、タスクベースのマルチモーダルモデリングに使用できるイメージライクなチャネルに変換される。
論文 参考訳(メタデータ) (2023-10-16T02:53:29Z) - Self Supervised Clustering of Traffic Scenes using Graph Representations [2.658812114255374]
本稿では,手動ラベリングを使わずに自己管理されたトラフィックシーンをクラスタリングするデータ駆動方式を提案する。
セマンティックシーングラフモデルを用いて、トラフィックシーンの一般的なグラフ埋め込みを作成し、シームズネットワークを用いて低次元の埋め込み空間にマッピングする。
新たなアプローチのトレーニングプロセスにおいて、カルテシア空間の既存の交通シーンを拡張し、正の類似性サンプルを生成する。
論文 参考訳(メタデータ) (2022-11-24T22:52:55Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Understanding Dynamic Scenes using Graph Convolution Networks [22.022759283770377]
本稿では,移動カメラが捉えた時間順のフレーム列から道路車両の挙動をモデル化する新しい枠組みを提案する。
微調整に頼らずに複数のデータセットへの学習のシームレスな移行を示す。
このような振る舞い予測手法は,様々なナビゲーションタスクにおいて即時関連性を見出す。
論文 参考訳(メタデータ) (2020-05-09T13:05:06Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。