論文の概要: Self-Supervised Sparse Sensor Fusion for Long Range Perception
- arxiv url: http://arxiv.org/abs/2508.13995v1
- Date: Tue, 19 Aug 2025 16:40:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:32.018718
- Title: Self-Supervised Sparse Sensor Fusion for Long Range Perception
- Title(参考訳): 長距離知覚のための自励式スパースセンサフュージョン
- Authors: Edoardo Palladin, Samuel Brucker, Filippo Ghilotti, Praveen Narayanan, Mario Bijelic, Felix Heide,
- Abstract要約: 長距離ハイウェイは100km/hを超える速度で走行し、少なくとも250mの知覚距離を必要としている。
現在の知覚アプローチは、距離が大きくなるにつれてメモリと計算コストが2次的に増加するバードのアイビュー表現に依存している。
本稿では,マルチモーダル・時間的特徴の効率的な3次元符号化と,ラベルのないカメラ-LiDARデータから大規模学習を可能にする,自己教師付き事前学習方式を提案する。
- 参考スコア(独自算出の注目度): 31.049431091957533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Outside of urban hubs, autonomous cars and trucks have to master driving on intercity highways. Safe, long-distance highway travel at speeds exceeding 100 km/h demands perception distances of at least 250 m, which is about five times the 50-100m typically addressed in city driving, to allow sufficient planning and braking margins. Increasing the perception ranges also allows to extend autonomy from light two-ton passenger vehicles to large-scale forty-ton trucks, which need a longer planning horizon due to their high inertia. However, most existing perception approaches focus on shorter ranges and rely on Bird's Eye View (BEV) representations, which incur quadratic increases in memory and compute costs as distance grows. To overcome this limitation, we built on top of a sparse representation and introduced an efficient 3D encoding of multi-modal and temporal features, along with a novel self-supervised pre-training scheme that enables large-scale learning from unlabeled camera-LiDAR data. Our approach extends perception distances to 250 meters and achieves an 26.6% improvement in mAP in object detection and a decrease of 30.5% in Chamfer Distance in LiDAR forecasting compared to existing methods, reaching distances up to 250 meters. Project Page: https://light.princeton.edu/lrs4fusion/
- Abstract(参考訳): 都市ハブ以外では、自動運転車とトラックは都市間高速道路での運転をマスターする必要があります。
安全で長距離のハイウェイは100km/hを超える速度で走行し、250m以上の知覚距離を要求する。
認識範囲の増大により、軽量の2トン車両から大型のフォーティトントラックへの自律性も向上し、高い慣性のためにより計画的な地平線を必要とする。
しかし、既存の知覚アプローチのほとんどは短い範囲に焦点をあてており、距離が大きくなるにつれてメモリと計算コストが2次的に増加するバードアイビュー(BEV)表現に依存している。
この制限を克服するために、我々はスパース表現の上に構築し、ラベルのないカメラ-LiDARデータから大規模学習を可能にする新しい自己教師付き事前学習スキームとともに、マルチモーダル・時間的特徴の効率的な3D符号化を導入した。
提案手法は認識距離を250mまで延長し,物体検出におけるmAPの26.6%向上,LiDAR予測におけるチャンファー距離の30.5%低減を実現し,最大250mまで到達した。
Project Page: https://light.princeton.edu/lrs4fusion/
関連論文リスト
- Street design and driving behavior: evidence from a large-scale study in Milan, Amsterdam, and Dubai [7.63450614935066]
本研究では,ミラノの30km/h速度制限に対するドライバーのコンプライアンスについて検討した。
コンピュータビジョンに基づくセマンティックセマンティックセグメンテーションモデルをGoogleストリートビュー画像に適用する。
大規模な分析では、より狭い通りと密集した環境がより低い速度と関連していることが明らかになった。
道路特性に基づいて走行速度を予測する機械学習モデルを開発した。
論文 参考訳(メタデータ) (2025-07-06T15:40:38Z) - LiDAR-Guided Monocular 3D Object Detection for Long-Range Railway Monitoring [3.12538049277428]
本稿では,自律列車に適した長距離3次元物体検出のためのディープラーニング手法を提案する。
この方法は、Faraway-Frustumアプローチにインスパイアされた単眼画像のみに依存し、トレーニング中にLiDARデータを組み込んで深度推定を改善する。
OSDaR23データセットの評価は、最大250mの物体検出におけるアプローチの有効性を示している。
論文 参考訳(メタデータ) (2025-04-25T09:33:52Z) - RoadRunner M&M -- Learning Multi-range Multi-resolution Traversability Maps for Autonomous Off-road Navigation [12.835198004089385]
RoadRunner (M&M) はエンドツーエンドの学習ベースのフレームワークで、さまざまな範囲のトレーバービリティと標高マップを直接予測する。
RoadRunner M&Mは、標高マッピングで最大50%の大幅な改善と、RoadRunner上でのトラバーサビリティ推定で30%の大幅な改善を実現している。
論文 参考訳(メタデータ) (2024-09-17T07:21:03Z) - RoboSense: Large-scale Dataset and Benchmark for Egocentric Robot Perception and Navigation in Crowded and Unstructured Environments [62.5830455357187]
我々は3種類のセンサー(Camera, LiDAR, Fisheye)をベースとした自我中心型マルチセンサデータ収集プラットフォームを構築した。
大規模なマルチモーダルデータセットであるRoboSenseは、エゴセントリックなロボット知覚を促進するために構築されている。
論文 参考訳(メタデータ) (2024-08-28T03:17:40Z) - RoadRunner -- Learning Traversability Estimation for Autonomous Off-road Driving [13.101416329887755]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - Dfferentiable Raycasting for Self-supervised Occupancy Forecasting [52.61762537741392]
自動運転のための運動計画では、エゴ車の周囲の環境が時間とともにどのように進化するかを学ぶ必要がある。
本稿では,自由空間のようなビュー依存表現の自然な代替手段として,幾何学的占有を用いる。
私たちの重要な洞察は、差別化可能なレイキャストを使用して、将来の占有率予測を、将来のLiDARスイープ予測に"レンダリング"することです。
論文 参考訳(メタデータ) (2022-10-04T21:35:21Z) - Depth Sensing Beyond LiDAR Range [84.19507822574568]
小型の視野カメラを用いた3カメラシステムを提案する。
我々のシステムは、計量深度を計算するための新しいアルゴリズムとともに、完全な事前校正を必要としない。
遠距離のシーンや物体に対して、事実上許容できる精度で密集した深度マップを出力することができる。
論文 参考訳(メタデータ) (2020-04-07T00:09:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。