論文の概要: TruckDrive: Long-Range Autonomous Highway Driving Dataset
- arxiv url: http://arxiv.org/abs/2603.02413v1
- Date: Mon, 02 Mar 2026 21:50:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.55248
- Title: TruckDrive: Long-Range Autonomous Highway Driving Dataset
- Title(参考訳): トラックドライブ:長距離高速道路の運転データ
- Authors: Filippo Ghilotti, Edoardo Palladin, Samuel Brucker, Adam Sigal, Mario Bijelic, Felix Heide,
- Abstract要約: TruckDriveは、長距離センシングを目的としたセンサースイートでキャプチャされたハイウェイスケールのマルチモーダル駆動データセットである。
このデータセットは475万のサンプルと165万の高密度の注釈付きフレームを提供し、最大1000メートルの知覚ベンチマークを駆動する。
最先端の自律走行モデルは、150mを超える範囲に一般化されず、3D知覚タスクでは31%から99%の低下があることがわかった。
- 参考スコア(独自算出の注目度): 33.33881609009041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe highway autonomy for heavy trucks remains an open and unsolved challenge: due to long braking distances, scene understanding of hundreds of meters is required for anticipatory planning and to allow safe braking margins. However, existing driving datasets primarily cover urban scenes, with perception effectively limited to short ranges of only up to 100 meters. To address this gap, we introduce TruckDrive, a highway-scale multimodal driving dataset, captured with a sensor suite purpose-built for long range sensing: seven long-range FMCW LiDARs measuring range and radial velocity, three high-resolution short-range LiDARs, eleven 8MP surround cameras with varying focal lengths and ten 4D FMCW radars. The dataset offers 475 thousands samples with 165 thousands densely annotated frames for driving perception benchmarking up to 1,000 meters for 2D detection and 400 meters for 3D detection, depth estimation, tracking, planning and end to end driving over 20 seconds sequences at highway speeds. We find that state-of-the-art autonomous driving models do not generalize to ranges beyond 150 meters, with drops between 31% and 99% in 3D perception tasks, exposing a systematic long-range gap that current architectures and training signals cannot close.
- Abstract(参考訳): 重トラックの安全高速道路の自律性は未解決の課題であり、長いブレーキ距離のため、予測計画や安全なブレーキマージンの確保には数百メートルの現場理解が必要である。
しかし、既存の運転データセットは主に都市部のシーンをカバーしており、知覚は100mまでの短い範囲に限られている。
長距離FMCW LiDARは7つの長距離FMCW LiDAR、高解像度短距離LiDAR、3つの高解像度の短距離LiDAR、11個の8MPサラウンドカメラ、そして10個の4D FMCWレーダーである。
このデータセットは475万のサンプルと、165万の高密度のアノテートフレームを備え、2D検出のために最大1000mの認識ベンチマークを駆動し、3D検出、深さ推定、追跡、計画、20秒間のハイウェイ速度での運転を終端とする。
最先端の自律走行モデルは150mを超える範囲に一般化せず、3D知覚タスクでは31%から99%の低下があり、現在のアーキテクチャやトレーニング信号が閉鎖できないような体系的な長距離ギャップが明らかになっている。
関連論文リスト
- Towards Foundational Models for Single-Chip Radar [49.896124982717716]
mmWaveレーダーは小型で安価で耐久性のあるセンサーで、天気や暗闇といった環境条件によらず機能する。
これは角分解能の低さ、特に自動車や屋内センサーの用途で一般的に使用される安価な単チップレーダーのコストが伴う。
我々は、4Dシングルチップレーダーの基本モデルを訓練し、3D占有率とセマンティックセマンティックセグメンテーションを、高解像度センサーでのみ可能な品質で予測できる。
論文 参考訳(メタデータ) (2025-09-15T22:06:17Z) - Self-Supervised Sparse Sensor Fusion for Long Range Perception [31.049431091957533]
長距離ハイウェイは100km/hを超える速度で走行し、少なくとも250mの知覚距離を必要としている。
現在の知覚アプローチは、距離が大きくなるにつれてメモリと計算コストが2次的に増加するバードのアイビュー表現に依存している。
本稿では,マルチモーダル・時間的特徴の効率的な3次元符号化と,ラベルのないカメラ-LiDARデータから大規模学習を可能にする,自己教師付き事前学習方式を提案する。
論文 参考訳(メタデータ) (2025-08-19T16:40:29Z) - LiDAR-Guided Monocular 3D Object Detection for Long-Range Railway Monitoring [3.12538049277428]
本稿では,自律列車に適した長距離3次元物体検出のためのディープラーニング手法を提案する。
この方法は、Faraway-Frustumアプローチにインスパイアされた単眼画像のみに依存し、トレーニング中にLiDARデータを組み込んで深度推定を改善する。
OSDaR23データセットの評価は、最大250mの物体検出におけるアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-04-25T09:33:52Z) - Deep Learning Enhanced Road Traffic Analysis: Scalable Vehicle Detection and Velocity Estimation Using PlanetScope Imagery [38.22365259129059]
本稿では,PlanetScope SuperDove衛星画像を用いて車両の速度を推定する手法を提案する。
本稿では,RGB帯における車両軌跡追跡のためのキーポイントR-CNNモデルを提案する。
ドローン比較の結果、衛星データの平均速度は112.85km/h、ドローン映像の平均速度は131.83km/hと過小評価されている。
論文 参考訳(メタデータ) (2024-10-04T18:14:07Z) - RoadRunner M&M -- Learning Multi-range Multi-resolution Traversability Maps for Autonomous Off-road Navigation [12.835198004089385]
RoadRunner (M&M) はエンドツーエンドの学習ベースのフレームワークで、さまざまな範囲のトレーバービリティと標高マップを直接予測する。
RoadRunner M&Mは、標高マッピングで最大50%の大幅な改善と、RoadRunner上でのトラバーサビリティ推定で30%の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-09-17T07:21:03Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - aiMotive Dataset: A Multimodal Dataset for Robust Autonomous Driving
with Long-Range Perception [0.0]
このデータセットは、同期して校正されたLiDAR、カメラ、および360度の視野をカバーするレーダーセンサーを備えた176のシーンで構成されている。
収集したデータは、昼間、夜、雨の間に、高速道路、都市、郊外で撮影された。
我々は3次元物体検出のための一次元・多モードベースラインモデルを訓練した。
論文 参考訳(メタデータ) (2022-11-17T10:19:59Z) - Rope3D: TheRoadside Perception Dataset for Autonomous Driving and
Monocular 3D Object Detection Task [48.555440807415664]
道路沿いの知覚3Dデータセットに挑戦する最初のハイダイバーシティを提示する。
データセットは50Kイメージと、さまざまなシーンで1.5M以上の3Dオブジェクトで構成されている。
本稿では,様々なセンサや視点によって引き起こされるあいまいさを解決するために,幾何学的制約を活用することを提案する。
論文 参考訳(メタデータ) (2022-03-25T12:13:23Z) - LiRaNet: End-to-End Trajectory Prediction using Spatio-Temporal Radar
Fusion [52.59664614744447]
本稿では,レーダセンサ情報と広範に使用されているライダーと高精細度(HD)マップを用いた新しい終端軌道予測手法LiRaNetを提案する。
自動車レーダーは、リッチで補完的な情報を提供し、より長い距離の車両検出と即時速度測定を可能にします。
論文 参考訳(メタデータ) (2020-10-02T00:13:00Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。