論文の概要: I-24 MOTION: An instrument for freeway traffic science
- arxiv url: http://arxiv.org/abs/2301.11198v1
- Date: Thu, 26 Jan 2023 16:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 13:17:37.829032
- Title: I-24 MOTION: An instrument for freeway traffic science
- Title(参考訳): I-24 MOTION:高速道路交通科学のための機器
- Authors: Derek Gloudemans, Yanbing Wang, Junyi Ji, Gergely Zachar, Will
Barbour, Daniel B. Work
- Abstract要約: 州間高速道路24号線技術州間高速道路観測ネットワーク (I-24 MOTION) はテネシー州ナッシュビルに近い交通科学の新しい手段である。
I-24 MoTION は約4.2マイル I-24をシームレスにカバーする276極搭載の高解像度交通カメラで構成されている。
本稿では,楽器の設計と作成について述べるとともに,楽器から生成された最初の公開データセットについて述べる。
- 参考スコア(独自算出の注目度): 5.627346969563955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Interstate-24 MObility Technology Interstate Observation Network (I-24
MOTION) is a new instrument for traffic science located near Nashville,
Tennessee. I-24 MOTION consists of 276 pole-mounted high-resolution traffic
cameras that provide seamless coverage of approximately 4.2 miles I-24, a 4-5
lane (each direction) freeway with frequently observed congestion. The cameras
are connected via fiber optic network to a compute facility where vehicle
trajectories are extracted from the video imagery using computer vision
techniques. Approximately 230 million vehicle miles of travel occur within I-24
MOTION annually. The main output of the instrument are vehicle trajectory
datasets that contain the position of each vehicle on the freeway, as well as
other supplementary information vehicle dimensions and class. This article
describes the design and creation of the instrument, and provides the first
publicly available datasets generated from the instrument. The datasets
published with this article contains at least 4 hours of vehicle trajectory
data for each of 10 days. As the system continues to mature, all trajectory
data will be made publicly available at i24motion.org/data.
- Abstract(参考訳): 州間高速道路24号線技術州間高速道路観測ネットワーク (I-24 MOTION) はテネシー州ナッシュビルに近い交通科学の新しい手段である。
I-24 MoTION は約4.2マイルのI-24をシームレスにカバーする276個の極マウントの高解像度交通カメラと、頻繁に観測される渋滞を伴う4-5車線(全方向)の高速道路で構成されている。
カメラは、光ファイバーネットワークを介して、コンピュータビジョン技術を用いてビデオ画像から車両軌道を抽出する計算設備に接続される。
年間約2億3000万マイルの走行がI-24 MoTIONで行われている。
この機器の主な出力は、高速道路上の各車両の位置を含む車両軌跡データセットと、その他の補助的な情報車両の寸法とクラスである。
本稿では,楽器の設計と作成について述べるとともに,楽器から生成された最初の公開データセットについて述べる。
この記事で公開されたデータセットには、10日毎に少なくとも4時間の車両軌跡データが含まれている。
システムが成熟し続けるにつれて、すべての軌道データはi24motion.org/dataで公開される。
関連論文リスト
- Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - CAROM Air -- Vehicle Localization and Traffic Scene Reconstruction from
Aerial Videos [34.17146107124073]
ビデオからの道路交通シーンの再構築は、道路安全規制当局、都市計画者、研究者、自動運転技術開発者によって望まれている。
本稿では,交通シーンを自動的に再構成し,コンピュータで正確に再現できるように,航空映像を車両軌跡データに処理する手法を提案する。
平均して、車両のローカライゼーション誤差は約0.1mから0.3mで、120mで飛行する消費者向けドローンを使用する。
また、約100時間の空中映像から50の道路交通シーンのデータセットをコンパイルし、様々な下流交通分析アプリケーションを可能にし、さらなる道路交通関連研究を促進する。
論文 参考訳(メタデータ) (2023-05-31T18:00:17Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Traffic4cast at NeurIPS 2022 -- Predict Dynamics along Graph Edges from
Sparse Node Data: Whole City Traffic and ETA from Stationary Vehicle
Detectors [25.857884532427292]
Traffic4castは、複雑な空間システムを時間とともにモデル化するための機械学習を進化させるコンペティションシリーズである。
われわれのダイナミックな道路グラフデータは、道路地図、1012ドルのプローブデータポイント、そして2年間にわたって3つの都市で静止車両検出器からの情報を組み合わせている。
その中核となる課題として,3都市15分後の道路グラフ全体のGPSデータの速度レベルから,3つの渋滞クラスが生じる可能性を予測することが挙げられる。
課題の延長として、参加者は15分以内のスーパーセグメントの平均走行時間を予測することが義務付けられている。
論文 参考訳(メタデータ) (2023-03-14T10:03:37Z) - Traffic4cast at NeurIPS 2021 -- Temporal and Spatial Few-Shot Transfer
Learning in Gridded Geo-Spatial Processes [61.16854022482186]
NeurIPS 2019と2020のIARAI Traffic4castコンペティションでは、ニューラルネットワークが将来の交通条件を1時間以内に予測することに成功した。
U-Netsは、この複雑な現実世界の地理空間的プロセスにおいて、関連する特徴を抽出する能力を実証し、勝利したアーキテクチャであることが証明された。
コンペティションは2年間で10都市をカバーし、1012以上のGPSプローブデータから収集したデータを提供する。
論文 参考訳(メタデータ) (2022-03-31T14:40:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - BAAI-VANJEE Roadside Dataset: Towards the Connected Automated Vehicle
Highway technologies in Challenging Environments of China [0.0]
このデータセットには2500フレームのLiDARデータ、5000フレームのRGBイメージが含まれ、同時に収集された20%が含まれている。
12のオブジェクトクラス、74Kの3Dオブジェクトアノテーション、105Kの2Dオブジェクトアノテーションを含んでいる。
論文 参考訳(メタデータ) (2021-05-29T20:40:55Z) - One Thousand and One Hours: Self-driving Motion Prediction Dataset [8.675886928486335]
これまでに1000時間以上のデータを含む、動き予測のための最大の自動運転データセットを提示する。
これはカリフォルニア州パロアルトの固定ルートに沿って、20台の自動運転車が4ヶ月にわたって収集したものだ。
これは170,000のシーンで構成され、各シーンの長さは25秒で、自動運転システムの知覚出力をキャプチャする。
論文 参考訳(メタデータ) (2020-06-25T15:23:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。