論文の概要: Automatic vehicle trajectory data reconstruction at scale
- arxiv url: http://arxiv.org/abs/2212.07907v2
- Date: Sun, 5 Nov 2023 16:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 01:15:53.488878
- Title: Automatic vehicle trajectory data reconstruction at scale
- Title(参考訳): 大規模車両軌道データの自動再構成
- Authors: Yanbing Wang, Derek Gloudemans, Junyi Ji, Zi Nean Teoh, Lisa Liu,
Gergely Zach\'ar, William Barbour, Daniel Work
- Abstract要約: 本稿では,視覚に基づく車両軌道データにおける共通誤差を補正する自動軌道データ照合法を提案する。
本手法により, 実験対象の入力データの精度が向上し, 広い範囲で精度が向上することを示す。
- 参考スコア(独自算出の注目度): 2.010294990327175
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we propose an automatic trajectory data reconciliation to
correct common errors in vision-based vehicle trajectory data. Given "raw"
vehicle detection and tracking information from automatic video processing
algorithms, we propose a pipeline including (a) an online data association
algorithm to match fragments that describe the same object (vehicle), which is
formulated as a min-cost network circulation problem of a graph, and (b) a
one-step trajectory rectification procedure formulated as a quadratic program
to enhance raw detection data. The pipeline leverages vehicle dynamics and
physical constraints to associate tracked objects when they become fragmented,
remove measurement noises and outliers and impute missing data due to
fragmentations. We assess the capability of the proposed two-step pipeline to
reconstruct three benchmarking datasets: (1) a microsimulation dataset that is
artificially downgraded to replicate upstream errors, (2) a 15-min NGSIM data
that is manually perturbed, and (3) tracking data consists of 3 scenes from
collections of video data recorded from 16-17 cameras on a section of the I-24
MOTION system, and compare with the corresponding manually-labeled ground truth
vehicle bounding boxes. All of the experiments show that the reconciled
trajectories improve the accuracy on all the tested input data for a wide range
of measures. Lastly, we show the design of a software architecture that is
currently deployed on the full-scale I-24 MOTION system consisting of 276
cameras that covers 4.2 miles of I-24. We demonstrate the scalability of the
proposed reconciliation pipeline to process high-volume data on a daily basis.
- Abstract(参考訳): 本稿では,視覚に基づく車両軌道データに共通する誤差を補正する自動軌道データ照合手法を提案する。
自動ビデオ処理アルゴリズムの「生」車両検出と追跡情報を考慮し,パイプラインを含むパイプラインを提案する。
(a)グラフのミンコストネットワーク循環問題として定式化された同一対象(車両)を記述した断片をマッチングするオンラインデータアソシエーションアルゴリズム
b)二次プログラムとして定式化された1段階の軌道修正手順により、生検データを強化する。
このパイプラインは、車両の動力学と物理的制約を利用して、追跡対象が断片化されると関連付け、測定ノイズや異常値の除去、フラグメンテーションによるデータ欠落を誘発する。
本研究では,(1)上流の誤差を再現するために人工的にダウングレードしたマイクロシミュレーションデータセット,(2)手動で摂動する15分のngsimデータ,(3)i-24モーションシステムの一部の16~17台のカメラから記録された映像データから得られた3シーンからなる追跡データ,およびそれに対応する手作業でラベル付けされた地上真理車両バウンディングボックスと比較した。
実験の結果, 整合軌道は, 広い範囲で試験された全ての入力データの精度を向上させることがわかった。
最後に、現在i-24の4.2マイルをカバーする276台のカメラからなるフルスケールのi-24モーションシステム上にデプロイされているソフトウェアアーキテクチャの設計を示す。
本稿では,高容量データを日々処理するために,提案する調整パイプラインのスケーラビリティを実証する。
関連論文リスト
- Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - SAPI: Surroundings-Aware Vehicle Trajectory Prediction at Intersections [4.982485708779067]
SAPIは交差点での車両軌道を予測するためのディープラーニングモデルである。
提案モデルは2つの畳み込みニューラルネットワーク(CNN)と1つのデコーダからなる。
我々は、自動運転車を介して現実世界の交差点で収集されたプロプライエタリなデータセット上でSAPIを評価する。
論文 参考訳(メタデータ) (2023-06-02T07:10:45Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Cyclist Trajectory Forecasts by Incorporation of Multi-View Video
Information [2.984037222955095]
本稿では,都市交差点に設置した広角ステレオカメラシステムによる映像データからの視覚的手がかりを,サイクリストの軌道予測に組み込む新しい手法を提案する。
本研究では,3次元畳み込みニューラルネットワーク(3D-ConvNet)を用いて画像および光学的流れ列から特徴を抽出し,その特徴をサイクリストの過去の軌道から抽出した特徴と組み合わせ,将来のサイクリストの位置を予測する。
論文 参考訳(メタデータ) (2021-06-30T11:34:43Z) - Object Tracking by Detection with Visual and Motion Cues [1.7818230914983044]
自動運転車は、カメラ画像中の物体を検出し、追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルに基づく簡易オンライン追跡アルゴリズムを提案する。
課題のあるBDD100データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2021-01-19T10:29:16Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。