論文の概要: CitySim: A Drone-Based Vehicle Trajectory Dataset for Safety Oriented
Research and Digital Twins
- arxiv url: http://arxiv.org/abs/2208.11036v2
- Date: Mon, 31 Jul 2023 05:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 00:37:15.315306
- Title: CitySim: A Drone-Based Vehicle Trajectory Dataset for Safety Oriented
Research and Digital Twins
- Title(参考訳): CitySim:安全指向研究とデジタル双生児のためのドローンによる車両軌道データセット
- Authors: Ou Zheng, Mohamed Abdel-Aty, Lishengsa Yue, Amr Abdelraouf, Zijin
Wang, Nada Mahmoud
- Abstract要約: CitySimは、12箇所で録画された1140分間のドローンビデオから車両軌道を抽出している。
CitySimは5ステップの手順で生成され、軌道の精度が保証された。
- 参考スコア(独自算出の注目度): 1.981804802324697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of safety-oriented research and applications requires
fine-grain vehicle trajectories that not only have high accuracy, but also
capture substantial safety-critical events. However, it would be challenging to
satisfy both these requirements using the available vehicle trajectory datasets
do not have the capacity to satisfy both.This paper introduces the CitySim
dataset that has the core objective of facilitating safety-oriented research
and applications. CitySim has vehicle trajectories extracted from 1140 minutes
of drone videos recorded at 12 locations. It covers a variety of road
geometries including freeway basic segments, signalized intersections,
stop-controlled intersections, and control-free intersections. CitySim was
generated through a five-step procedure that ensured trajectory accuracy. The
five-step procedure included video stabilization, object filtering, multi-video
stitching, object detection and tracking, and enhanced error filtering.
Furthermore, CitySim provides the rotated bounding box information of a
vehicle, which was demonstrated to improve safety evaluations. Compared with
other video-based critical events, including cut-in, merge, and diverge events,
which were validated by distributions of both minimum time-to-collision and
minimum post-encroachment time. In addition, CitySim had the capability to
facilitate digital-twin-related research by providing relevant assets, such as
the recording locations' three-dimensional base maps and signal timings.
- Abstract(参考訳): 安全指向の研究と応用の発展には、高精度だけでなく、相当な安全性クリティカルな事象を捉えた微細な車両軌道が必要である。
しかし、利用可能な車両軌道データセットを使用してこれらの要件を満足させることは困難であり、安全指向の研究と応用を促進することの中心的な目的であるcitysimデータセットを導入する。
CitySimは、12箇所で録画された1140分間のドローンビデオから車両軌道を抽出している。
高速道路の基本セグメント、信号化された交差点、停止制御交差点、制御のない交差点など様々な道路ジオメトリをカバーしている。
citysimは軌道精度を保証する5段階の手順で生成された。
5段階の手順には、ビデオ安定化、オブジェクトフィルタリング、マルチビデオ縫合、オブジェクト検出と追跡、エラーフィルタリングの強化が含まれていた。
さらに、CitySimは車両の回転バウンディングボックス情報を提供し、安全評価を改善することを実証した。
カットイン、マージ、発散といった他のビデオベースのクリティカルイベントと比較し、最小時間と最小エンクロメント時間の両方の分布によって検証された。
さらに、CitySimは、記録位置の3次元ベースマップや信号タイミングなどの関連資産を提供することで、デジタルツイン研究を促進する能力を持っていた。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - The 8th AI City Challenge [57.25825945041515]
2024年版では5トラックが収録され、47か国と地域の726チームから前例のない関心を集めた。
このチャレンジでは、2つのリーダーボードを使ってメソッドを展示し、参加者は新しいベンチマークを設定した。
論文 参考訳(メタデータ) (2024-04-15T03:12:17Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - SKoPe3D: A Synthetic Dataset for Vehicle Keypoint Perception in 3D from
Traffic Monitoring Cameras [26.457695296042903]
道路側から見たユニークな合成車両キーポイントデータセットであるSKoPe3Dを提案する。
SKoPe3Dには150万以上の車両インスタンスと490万のキーポイントがある。
実験では、データセットの適用性と、合成データと実世界のデータ間の知識伝達の可能性を強調した。
論文 参考訳(メタデータ) (2023-09-04T02:57:30Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - An Experimental Urban Case Study with Various Data Sources and a Model
for Traffic Estimation [65.28133251370055]
我々はスイスのチューリッヒの都市ネットワーク内の地域でビデオ計測による実験キャンペーンを組織した。
我々は,既存のサーマルカメラからの測定を確実にすることで,交通の流れや走行時間の観点からの交通状況の把握に注力する。
本稿では,様々なデータソースの融合による移動時間を推定するために,単純かつ効率的な多重線形回帰(MLR)モデルを提案する。
論文 参考訳(メタデータ) (2021-08-02T08:13:57Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Edge Computing for Real-Time Near-Crash Detection for Smart
Transportation Applications [29.550609157368466]
交通事故に近いイベントは、さまざまなスマートトランスポートアプリケーションにとって重要なデータソースとなる。
本稿では,既存のダッシュカムの映像ストリームをリアルタイムに処理することで,エッジコンピューティングのパワーを活用してこれらの課題に対処する。
エッジコンピューティングをリアルタイムトラフィックビデオ分析に適用する最初の取り組みのひとつであり、スマートトランスポート研究やアプリケーションにおいて、複数のサブフィールドに恩恵をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-08-02T19:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。