論文の概要: I-24 MOTION: An instrument for freeway traffic science
- arxiv url: http://arxiv.org/abs/2301.11198v1
- Date: Thu, 26 Jan 2023 16:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 13:17:37.829032
- Title: I-24 MOTION: An instrument for freeway traffic science
- Title(参考訳): I-24 MOTION:高速道路交通科学のための機器
- Authors: Derek Gloudemans, Yanbing Wang, Junyi Ji, Gergely Zachar, Will
Barbour, Daniel B. Work
- Abstract要約: 州間高速道路24号線技術州間高速道路観測ネットワーク (I-24 MOTION) はテネシー州ナッシュビルに近い交通科学の新しい手段である。
I-24 MoTION は約4.2マイル I-24をシームレスにカバーする276極搭載の高解像度交通カメラで構成されている。
本稿では,楽器の設計と作成について述べるとともに,楽器から生成された最初の公開データセットについて述べる。
- 参考スコア(独自算出の注目度): 5.627346969563955
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Interstate-24 MObility Technology Interstate Observation Network (I-24
MOTION) is a new instrument for traffic science located near Nashville,
Tennessee. I-24 MOTION consists of 276 pole-mounted high-resolution traffic
cameras that provide seamless coverage of approximately 4.2 miles I-24, a 4-5
lane (each direction) freeway with frequently observed congestion. The cameras
are connected via fiber optic network to a compute facility where vehicle
trajectories are extracted from the video imagery using computer vision
techniques. Approximately 230 million vehicle miles of travel occur within I-24
MOTION annually. The main output of the instrument are vehicle trajectory
datasets that contain the position of each vehicle on the freeway, as well as
other supplementary information vehicle dimensions and class. This article
describes the design and creation of the instrument, and provides the first
publicly available datasets generated from the instrument. The datasets
published with this article contains at least 4 hours of vehicle trajectory
data for each of 10 days. As the system continues to mature, all trajectory
data will be made publicly available at i24motion.org/data.
- Abstract(参考訳): 州間高速道路24号線技術州間高速道路観測ネットワーク (I-24 MOTION) はテネシー州ナッシュビルに近い交通科学の新しい手段である。
I-24 MoTION は約4.2マイルのI-24をシームレスにカバーする276個の極マウントの高解像度交通カメラと、頻繁に観測される渋滞を伴う4-5車線(全方向)の高速道路で構成されている。
カメラは、光ファイバーネットワークを介して、コンピュータビジョン技術を用いてビデオ画像から車両軌道を抽出する計算設備に接続される。
年間約2億3000万マイルの走行がI-24 MoTIONで行われている。
この機器の主な出力は、高速道路上の各車両の位置を含む車両軌跡データセットと、その他の補助的な情報車両の寸法とクラスである。
本稿では,楽器の設計と作成について述べるとともに,楽器から生成された最初の公開データセットについて述べる。
この記事で公開されたデータセットには、10日毎に少なくとも4時間の車両軌跡データが含まれている。
システムが成熟し続けるにつれて、すべての軌道データはi24motion.org/dataで公開される。
関連論文リスト
- Advanced computer vision for extracting georeferenced vehicle trajectories from drone imagery [4.387337528923525]
本稿では,高高度ドローン映像からジオレファレンスされた車両軌跡を抽出する枠組みを提案する。
私たちは最先端のコンピュータビジョンとディープラーニングを使って、エンドツーエンドのパイプラインを作成しています。
結果は、精密で費用対効果の高い都市交通監視のために、ドローン技術と高度なコンピュータビジョンを統合する可能性を示している。
論文 参考訳(メタデータ) (2024-11-04T14:49:01Z) - DeepSense-V2V: A Vehicle-to-Vehicle Multi-Modal Sensing, Localization, and Communications Dataset [12.007501768974281]
本研究は、mmWave車両間通信を研究するための、最初の大規模マルチモーダルデータセットを示す。
このデータセットには、日夜120kmの都市間および農村部で運転する車両が含まれており、最高速度は時速100kmである。
トラックから自転車まで、あらゆる画像から100万件以上の物体が検出されました。
論文 参考訳(メタデータ) (2024-06-25T19:43:49Z) - Vehicle Perception from Satellite [54.07157185000604]
データセットは、GTA-Vから記録された12の衛星ビデオと14の合成ビデオに基づいて構築されている。
小さなオブジェクトの検出、カウント、密度推定など、いくつかのタスクをサポートする。
128,801両は完全に注釈付けされており、各画像の車両数は0から101まで様々である。
論文 参考訳(メタデータ) (2024-02-01T15:59:16Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Traffic4cast at NeurIPS 2022 -- Predict Dynamics along Graph Edges from
Sparse Node Data: Whole City Traffic and ETA from Stationary Vehicle
Detectors [25.857884532427292]
Traffic4castは、複雑な空間システムを時間とともにモデル化するための機械学習を進化させるコンペティションシリーズである。
われわれのダイナミックな道路グラフデータは、道路地図、1012ドルのプローブデータポイント、そして2年間にわたって3つの都市で静止車両検出器からの情報を組み合わせている。
その中核となる課題として,3都市15分後の道路グラフ全体のGPSデータの速度レベルから,3つの渋滞クラスが生じる可能性を予測することが挙げられる。
課題の延長として、参加者は15分以内のスーパーセグメントの平均走行時間を予測することが義務付けられている。
論文 参考訳(メタデータ) (2023-03-14T10:03:37Z) - Traffic4cast at NeurIPS 2021 -- Temporal and Spatial Few-Shot Transfer
Learning in Gridded Geo-Spatial Processes [61.16854022482186]
NeurIPS 2019と2020のIARAI Traffic4castコンペティションでは、ニューラルネットワークが将来の交通条件を1時間以内に予測することに成功した。
U-Netsは、この複雑な現実世界の地理空間的プロセスにおいて、関連する特徴を抽出する能力を実証し、勝利したアーキテクチャであることが証明された。
コンペティションは2年間で10都市をカバーし、1012以上のGPSプローブデータから収集したデータを提供する。
論文 参考訳(メタデータ) (2022-03-31T14:40:01Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - BAAI-VANJEE Roadside Dataset: Towards the Connected Automated Vehicle
Highway technologies in Challenging Environments of China [0.0]
このデータセットには2500フレームのLiDARデータ、5000フレームのRGBイメージが含まれ、同時に収集された20%が含まれている。
12のオブジェクトクラス、74Kの3Dオブジェクトアノテーション、105Kの2Dオブジェクトアノテーションを含んでいる。
論文 参考訳(メタデータ) (2021-05-29T20:40:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。