論文の概要: Temporal Enhanced Floating Car Observers
- arxiv url: http://arxiv.org/abs/2403.03825v1
- Date: Wed, 6 Mar 2024 16:15:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 14:20:35.605141
- Title: Temporal Enhanced Floating Car Observers
- Title(参考訳): 時空浮動車オブザーバ
- Authors: Jeremias Gerner, Klaus Bogenberger, Stefanie Schmidtner
- Abstract要約: フローティング・カー・オブザーバ(Floating Car Observers, FCO)は、センサーを搭載した車両を配置し、他の車両を検知し、発見することで、交通データを収集する革新的な手法である。
少量のFCOでも、所定の交差点でかなりの数の車両を識別できることを実証する。
我々は,検出された車両とディープラーニングモデルのバードアイビュー表現のシーケンスを利用して,データ駆動型戦略を開発する。
このアプローチは、現在検出されていない車両を現在の状況に導入し、現在検出されている車両を強化することを目的としている。
- 参考スコア(独自算出の注目度): 1.9336815376402718
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Floating Car Observers (FCOs) are an innovative method to collect traffic
data by deploying sensor-equipped vehicles to detect and locate other vehicles.
We demonstrate that even a small penetration rate of FCOs can identify a
significant amount of vehicles at a given intersection. This is achieved
through the emulation of detection within a microscopic traffic simulation.
Additionally, leveraging data from previous moments can enhance the detection
of vehicles in the current frame. Our findings indicate that, with a 20-second
observation window, it is possible to recover up to 20\% of vehicles that are
not visible by FCOs in the current timestep. To exploit this, we developed a
data-driven strategy, utilizing sequences of Bird's Eye View (BEV)
representations of detected vehicles and deep learning models. This approach
aims to bring currently undetected vehicles into view in the present moment,
enhancing the currently detected vehicles. Results of different spatiotemporal
architectures show that up to 41\% of the vehicles can be recovered into the
current timestep at their current position. This enhancement enriches the
information initially available by the FCO, allowing an improved estimation of
traffic states and metrics (e.g. density and queue length) for improved
implementation of traffic management strategies.
- Abstract(参考訳): フローティングカーオブザーバ(floating car observers, fcos)は、センサーを搭載した車両を配置して他の車両を検知・発見することで、交通データを収集する革新的な手法である。
fcoの浸透率が小さい場合でも、特定の交差点でかなりの量の車両を識別できることを実証する。
これは微視的交通シミュレーションにおける検出のエミュレーションによって達成される。
さらに、以前のモーメントのデータを活用することで、現在のフレーム内の車両の検出を強化できる。
以上の結果から,20秒の観測窓があれば,fcosでは見えない車両の20\%を現在の時間内に回収できることが示唆された。
そこで我々は,検出された車両と深層学習モデルの鳥眼視(bird's eye view, bev)表現のシーケンスを利用したデータ駆動戦略を開発した。
このアプローチは、現在検出されていない車両を現在確認し、現在検出されている車両を強化することを目的としている。
異なる時空間アーキテクチャの結果から、車両の最大41%が現在の位置で現在の時間ステップに回収可能であることが分かる。
この拡張により、当初FCOが入手できた情報を強化し、トラフィック管理戦略の実装を改善するために、トラフィック状態とメトリクス(例えば密度とキューの長さ)の見積もりを改善することができる。
関連論文リスト
- A Holistic Framework Towards Vision-based Traffic Signal Control with
Microscopic Simulation [53.39174966020085]
交通信号制御(TSC)は交通渋滞を低減し、交通の流れを円滑にし、アイドリング時間を短縮し、CO2排出量を減らすために重要である。
本研究では,道路交通の流れを視覚的観察によって調節するTSCのコンピュータビジョンアプローチについて検討する。
我々は、視覚ベースのTSCとそのベンチマークに向けて、TrafficDojoと呼ばれる総合的なトラフィックシミュレーションフレームワークを導入する。
論文 参考訳(メタデータ) (2024-03-11T16:42:29Z) - Detection of Micromobility Vehicles in Urban Traffic Videos [7.5867752610196915]
本研究では、単一フレームオブジェクト検出の精度と速度と、オブジェクト検出フレームワークが提供するよりリッチな機能を組み合わせた、適応型検出モデルを導入する。
この融合は、YOLOX検出能力に時間的視点をもたらし、都市移動パターンをよりよく理解することができる。
都市マイクロモビリティのシナリオをキュレートしたデータセットを用いて実験し、既存の最先端手法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2024-02-28T17:31:39Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Robust and Fast Vehicle Detection using Augmented Confidence Map [10.261351772602543]
車両を含む関心領域を強調する拡張の概念を導入する。
MR-MSERの出力は高速CNNに供給され、信頼マップを生成する。
車両検出のための複雑なモデルを実装する既存のモデルとは異なり、粗いセットとファジィベースのモデルの組み合わせについて検討する。
論文 参考訳(メタデータ) (2023-04-27T18:41:16Z) - Unsupervised Driving Event Discovery Based on Vehicle CAN-data [62.997667081978825]
本研究は,車両CANデータのクラスタリングとセグメンテーションを同時に行うことで,一般的な運転イベントを教師なしで識別する手法である。
我々は、実際のTesla Model 3車載CANデータと、異なる運転イベントをアノテートした2時間の運転セッションのデータセットを用いて、アプローチを評価した。
論文 参考訳(メタデータ) (2023-01-12T13:10:47Z) - Evaluating a Signalized Intersection Performance Using Unmanned Aerial
Data [11.699288626519682]
本研究では,ギリシャ・アテネの3方向信号通信交差点におけるドローンの生データの利用について検討した。
リアルタイムビデオから抽出したデータに対する顕微鏡的アプローチと衝撃波解析を用いて,最大待ち行列長を推定した。
様々なMOEの結果は有望であることが判明し、ドローンが収集したトラフィックデータの利用には多くの応用があることが確認された。
論文 参考訳(メタデータ) (2022-07-16T21:48:32Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - V2VNet: Vehicle-to-Vehicle Communication for Joint Perception and
Prediction [74.42961817119283]
車両間通信(V2V)を用いて、自動運転車の知覚と運動予測性能を向上させる。
複数の車両から受信した情報をインテリジェントに集約することで、異なる視点から同じシーンを観察することができる。
論文 参考訳(メタデータ) (2020-08-17T17:58:26Z) - Hearing What You Cannot See: Acoustic Vehicle Detection Around Corners [5.4960756528016335]
このような車両が視界に入る前に、音で接近する車両を検知できることが示される。
我々は,屋根付マイクロホンアレイを備えた研究車両を装着し,このセンサで収集したデータを示す。
車両が視認前に接近している方向を分類するための新しい方法が提示される。
論文 参考訳(メタデータ) (2020-07-30T20:57:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。