論文の概要: Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2002.00786v3
- Date: Tue, 12 May 2020 17:49:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 09:05:32.966776
- Title: Towards Accurate Vehicle Behaviour Classification With Multi-Relational
Graph Convolutional Networks
- Title(参考訳): マルチリレーショナルグラフ畳み込みネットワークによる車両挙動の正確な分類に向けて
- Authors: Sravan Mylavarapu, Mahtab Sandhu, Priyesh Vijayan, K Madhava Krishna,
Balaraman Ravindran, Anoop Namboodiri
- Abstract要約: モノクロ画像やビデオから車両の挙動を理解するパイプラインを提案する。
このような符号化の時間シーケンスをリカレントネットワークに供給し、車両の挙動をラベル付けする。
提案するフレームワークは,多様なデータセットに対して,さまざまな車両動作を高い忠実度に分類することができる。
- 参考スコア(独自算出の注目度): 22.022759283770377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding on-road vehicle behaviour from a temporal sequence of sensor
data is gaining in popularity. In this paper, we propose a pipeline for
understanding vehicle behaviour from a monocular image sequence or video. A
monocular sequence along with scene semantics, optical flow and object labels
are used to get spatial information about the object (vehicle) of interest and
other objects (semantically contiguous set of locations) in the scene. This
spatial information is encoded by a Multi-Relational Graph Convolutional
Network (MR-GCN), and a temporal sequence of such encodings is fed to a
recurrent network to label vehicle behaviours. The proposed framework can
classify a variety of vehicle behaviours to high fidelity on datasets that are
diverse and include European, Chinese and Indian on-road scenes. The framework
also provides for seamless transfer of models across datasets without entailing
re-annotation, retraining and even fine-tuning. We show comparative performance
gain over baseline Spatio-temporal classifiers and detail a variety of
ablations to showcase the efficacy of the framework.
- Abstract(参考訳): センサデータの時間的シーケンスから道路車両の挙動を理解することが人気を集めている。
本稿では,モノクラー画像シーケンスやビデオから車両の挙動を理解するパイプラインを提案する。
シーンのセマンティクス、光学フロー、オブジェクトラベルとともに、シーン内のオブジェクト(車両)と他のオブジェクト(集合的に連続した位置)に関する空間情報を取得するために、モノクラーシーケンスが使用される。
この空間情報はマルチリレーショナルグラフ畳み込みネットワーク(mr-gcn)によって符号化され、そのようなエンコーディングの時系列シーケンスはリカレントネットワークに供給され、車両の挙動をラベル付けする。
提案されたフレームワークは、ヨーロッパ、中国、インドの道路上のシーンを含む、多様なデータセット上のさまざまな車両動作を高い忠実度に分類することができる。
このフレームワークはまた、再アノテーション、再トレーニング、さらには微調整を伴わずに、データセットをまたいだモデルのシームレスな転送も提供する。
我々は,ベースライン時空間分類器と比較して比較性能向上率を示し,フレームワークの有効性を示すために様々なアブレーションを詳述した。
関連論文リスト
- GITSR: Graph Interaction Transformer-based Scene Representation for Multi Vehicle Collaborative Decision-making [9.910230703889956]
本研究では,交通状態の空間的相互作用の効率的な表現とモデル化に焦点を当てた。
本研究では,グラフインタラクショントランスフォーマに基づくシーン表現のための効果的なフレームワークであるGITSRを提案する。
論文 参考訳(メタデータ) (2024-11-03T15:27:26Z) - Encoding Agent Trajectories as Representations with Sequence Transformers [0.4999814847776097]
本稿では,ニューラルネットワークアーキテクチャを用いた高次元トラジェクトリを表現するモデルを提案する。
言語モデルと同様に、我々のTransformer Sequence for Agent temporal Representation (STARE)モデルは、軌跡データにおける表現と構造を学習することができる。
合成および実軌道データを用いた実験結果から,提案モデルが有意なエンコーディングを学習できることが示唆された。
論文 参考訳(メタデータ) (2024-10-11T19:18:47Z) - Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Temporal Embeddings: Scalable Self-Supervised Temporal Representation
Learning from Spatiotemporal Data for Multimodal Computer Vision [1.4127889233510498]
移動活動時系列に基づいて景観を階層化する新しい手法を提案する。
ピクセルワイズ埋め込みは、タスクベースのマルチモーダルモデリングに使用できるイメージライクなチャネルに変換される。
論文 参考訳(メタデータ) (2023-10-16T02:53:29Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Self Supervised Clustering of Traffic Scenes using Graph Representations [2.658812114255374]
本稿では,手動ラベリングを使わずに自己管理されたトラフィックシーンをクラスタリングするデータ駆動方式を提案する。
セマンティックシーングラフモデルを用いて、トラフィックシーンの一般的なグラフ埋め込みを作成し、シームズネットワークを用いて低次元の埋め込み空間にマッピングする。
新たなアプローチのトレーニングプロセスにおいて、カルテシア空間の既存の交通シーンを拡張し、正の類似性サンプルを生成する。
論文 参考訳(メタデータ) (2022-11-24T22:52:55Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Spatial-Temporal Correlation and Topology Learning for Person
Re-Identification in Videos [78.45050529204701]
クロススケール空間時空間相関をモデル化し, 識別的, 堅牢な表現を追求する新しい枠組みを提案する。
CTLはCNNバックボーンとキーポイント推定器を使用して人体から意味的局所的特徴を抽出する。
グローバルな文脈情報と人体の物理的接続の両方を考慮して、多スケールグラフを構築するためのコンテキスト強化トポロジーを探求する。
論文 参考訳(メタデータ) (2021-04-15T14:32:12Z) - Understanding Dynamic Scenes using Graph Convolution Networks [22.022759283770377]
本稿では,移動カメラが捉えた時間順のフレーム列から道路車両の挙動をモデル化する新しい枠組みを提案する。
微調整に頼らずに複数のデータセットへの学習のシームレスな移行を示す。
このような振る舞い予測手法は,様々なナビゲーションタスクにおいて即時関連性を見出す。
論文 参考訳(メタデータ) (2020-05-09T13:05:06Z) - VectorNet: Encoding HD Maps and Agent Dynamics from Vectorized
Representation [74.56282712099274]
本稿では,ベクトルで表される個々の道路成分の空間的局所性を利用する階層型グラフニューラルネットワークであるVectorNetを紹介する。
ベクトル化高定義(HD)マップとエージェントトラジェクトリの操作により、ロッキーなレンダリングや計算集約的なConvNetエンコーディングのステップを避けることができる。
我々は、社内行動予測ベンチマークと最近リリースされたArgoverse予測データセットでVectorNetを評価した。
論文 参考訳(メタデータ) (2020-05-08T19:07:03Z) - Parsing-based View-aware Embedding Network for Vehicle Re-Identification [138.11983486734576]
本稿では,車載ReIDのビューアウェア機能アライメントと拡張を実現するために,解析に基づくPVEN(View-Aware Embedding Network)を提案する。
3つのデータセットで行った実験により、我々のモデルは最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-04-10T13:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。