論文の概要: Automated Construction of Time-Space Diagrams for Traffic Analysis Using Street-View Video Sequence
- arxiv url: http://arxiv.org/abs/2308.06098v2
- Date: Wed, 27 Mar 2024 15:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 23:02:36.354495
- Title: Automated Construction of Time-Space Diagrams for Traffic Analysis Using Street-View Video Sequence
- Title(参考訳): ストリートビュー映像系列を用いた交通分析のための時間空間図の自動構築
- Authors: Tanay Rastogi, Mårten Björkman,
- Abstract要約: 移動車に搭載されたカメラで撮影したストリートビュー映像シーケンスを利用して、時間空間図を構築するための革新的なアプローチを提案する。
これらの図は交通パターンに関する貴重な洞察を与え、交通インフラや交通管理戦略の設計に貢献する。
- 参考スコア(独自算出の注目度): 4.995343972237369
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Time-space diagrams are essential tools for analyzing traffic patterns and optimizing transportation infrastructure and traffic management strategies. Traditional data collection methods for these diagrams have limitations in terms of temporal and spatial coverage. Recent advancements in camera technology have overcome these limitations and provided extensive urban data. In this study, we propose an innovative approach to constructing time-space diagrams by utilizing street-view video sequences captured by cameras mounted on moving vehicles. Using the state-of-the-art YOLOv5, StrongSORT, and photogrammetry techniques for distance calculation, we can infer vehicle trajectories from the video data and generate time-space diagrams. To evaluate the effectiveness of our proposed method, we utilized datasets from the KITTI computer vision benchmark suite. The evaluation results demonstrate that our approach can generate trajectories from video data, although there are some errors that can be mitigated by improving the performance of the detector, tracker, and distance calculation components. In conclusion, the utilization of street-view video sequences captured by cameras mounted on moving vehicles, combined with state-of-the-art computer vision techniques, has immense potential for constructing comprehensive time-space diagrams. These diagrams offer valuable insights into traffic patterns and contribute to the design of transportation infrastructure and traffic management strategies.
- Abstract(参考訳): 時間空間図は、交通パターンを分析し、交通インフラと交通管理戦略を最適化するための重要なツールである。
これらの図の伝統的なデータ収集方法は、時間的および空間的範囲の制限がある。
カメラ技術の最近の進歩は、これらの制限を克服し、広範な都市データを提供してきた。
本研究では,移動車に搭載されたカメラで撮影したストリートビュー映像系列を利用して,時間空間図を作成するための革新的な手法を提案する。
距離計算に最先端のYOLOv5,StrongSORT,フォトグラム計測技術を用いて,映像データから車両軌跡を推定し,時間空間図を生成する。
提案手法の有効性を評価するために,KITTIコンピュータビジョンベンチマークスイートのデータセットを利用した。
評価結果は,ビデオデータからトラジェクトリを生成することができることを示すが,検出器,トラッカー,距離計算部品の性能を向上させることで誤差を軽減できることを示した。
結論として、移動車に搭載されたカメラが捉えたストリートビュー映像シーケンスと、最先端のコンピュータビジョン技術を組み合わせることで、総合的な時間空間図を構築する大きな可能性を秘めている。
これらの図は交通パターンに関する貴重な洞察を与え、交通インフラや交通管理戦略の設計に貢献する。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - Clustering Dynamics for Improved Speed Prediction Deriving from
Topographical GPS Registrations [0.0]
スパースGPSデータポイントとそれに関連する地形・道路設計特徴を用いた速度予測手法を提案する。
私たちのゴールは、地形とインフラの類似性を利用して、交通データがない地域での速度を予測する機械学習モデルをトレーニングできるかどうかを調べることです。
論文 参考訳(メタデータ) (2024-02-12T09:28:16Z) - FARSEC: A Reproducible Framework for Automatic Real-Time Vehicle Speed
Estimation Using Traffic Cameras [14.339217121537537]
ナビゲーションやロジスティクスなどの交通依存システムは、信頼性の高い速度推定の恩恵を受ける可能性がある。
我々は,公共交通カメラのより多様なデータに対処する,自動リアルタイム車両速度計算のための新しいフレームワークを提供する。
我々のフレームワークは、カメラの動きや異なるビデオストリーム入力などの現実的な条件を自動で処理できる。
論文 参考訳(メタデータ) (2023-09-25T19:02:40Z) - Traffic Scene Parsing through the TSP6K Dataset [109.69836680564616]
高品質なピクセルレベルのアノテーションとインスタンスレベルのアノテーションを備えた,TSP6Kと呼ばれる特殊なトラフィック監視データセットを導入する。
データセットは、既存の運転シーンの何倍ものトラフィック参加者を持つ、より混雑した交通シーンをキャプチャする。
交通シーンの異なるセマンティック領域の詳細を復元するシーン解析のためのディテールリフィニングデコーダを提案する。
論文 参考訳(メタデータ) (2023-03-06T02:05:14Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Learning to integrate vision data into road network data [14.86655504533083]
道路ネットワークは、コネクテッドおよび自律走行車の中核となるインフラである。
本稿では、グラフニューラルネットワークによる埋め込みを改善するために、リモートセンシングビジョンデータをネットワークデータに統合することを提案する。
中国・成都市におけるOSM+Di Chuxingデータセットの最先端性能を実現した。
論文 参考訳(メタデータ) (2021-12-20T15:38:49Z) - Traffic-Net: 3D Traffic Monitoring Using a Single Camera [1.1602089225841632]
我々は,1台のCCTVトラヒックカメラを用いたリアルタイムトラヒック監視のための実用的なプラットフォームを提供する。
車両・歩行者検出のためのカスタムYOLOv5ディープニューラルネットワークモデルとSORT追跡アルゴリズムの改良を行った。
また、短時間・長期の時間的ビデオデータストリームに基づく階層的なトラフィックモデリングソリューションも開発している。
論文 参考訳(メタデータ) (2021-09-19T16:59:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Constructing Geographic and Long-term Temporal Graph for Traffic
Forecasting [88.5550074808201]
交通予測のための地理・長期時間グラフ畳み込み型ニューラルネットワーク(GLT-GCRNN)を提案する。
本研究では,地理的・長期的時間的パターンを共有する道路間のリッチな相互作用を学習する交通予測のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-23T03:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。