論文の概要: RoadRunner - Learning Traversability Estimation for Autonomous Off-road
Driving
- arxiv url: http://arxiv.org/abs/2402.19341v2
- Date: Sun, 3 Mar 2024 15:21:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-05 19:24:38.265167
- Title: RoadRunner - Learning Traversability Estimation for Autonomous Off-road
Driving
- Title(参考訳): roadrunner - 自律オフロード運転のための学習トラバーサビリティ推定
- Authors: Jonas Frey and Shehryar Khattak and Manthan Patel and Deegan Atha and
Julian Nubert and Curtis Padgett and Marco Hutter and Patrick Spieler
- Abstract要約: 我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
- 参考スコア(独自算出の注目度): 13.918488267013558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous navigation at high speeds in off-road environments necessitates
robots to comprehensively understand their surroundings using onboard sensing
only. The extreme conditions posed by the off-road setting can cause degraded
camera image quality due to poor lighting and motion blur, as well as limited
sparse geometric information available from LiDAR sensing when driving at high
speeds. In this work, we present RoadRunner, a novel framework capable of
predicting terrain traversability and an elevation map directly from camera and
LiDAR sensor inputs. RoadRunner enables reliable autonomous navigation, by
fusing sensory information, handling of uncertainty, and generation of
contextually informed predictions about the geometry and traversability of the
terrain while operating at low latency. In contrast to existing methods relying
on classifying handcrafted semantic classes and using heuristics to predict
traversability costs, our method is trained end-to-end in a self-supervised
fashion. The RoadRunner network architecture builds upon popular sensor fusion
network architectures from the autonomous driving domain, which embed LiDAR and
camera information into a common Bird's Eye View perspective. Training is
enabled by utilizing an existing traversability estimation stack to generate
training data in hindsight in a scalable manner from real-world off-road
driving datasets. Furthermore, RoadRunner improves the system latency by a
factor of roughly 4, from 500 ms to 140 ms, while improving the accuracy for
traversability costs and elevation map predictions. We demonstrate the
effectiveness of RoadRunner in enabling safe and reliable off-road navigation
at high speeds in multiple real-world driving scenarios through unstructured
desert environments.
- Abstract(参考訳): オフロード環境での高速での自律ナビゲーションは、オンボードセンシングのみを使用して、ロボットが周囲を包括的に理解する必要がある。
オフロード設定によって引き起こされる極端な条件は、ライティングや動きのぼやけによる画質低下や、高速運転時のLiDARセンシングから得られる限られた幾何学的情報を引き起こす可能性がある。
本研究では,カメラとlidarセンサの入力から直接,地形トラバーサビリティと標高マップを予測できる新しいフレームワーク roadrunnerを提案する。
RoadRunnerは、センサ情報を融合し、不確実性の扱い、低レイテンシで動作しながら地形の幾何学的およびトラバーサビリティに関するコンテキスト情報予測を生成することにより、信頼性の高い自律ナビゲーションを可能にする。
本手法は,手作りのセマンティッククラスを分類し,ヒューリスティックを用いてトラバーサビリティコストを予測する既存の手法とは対照的に,自己管理型でエンドツーエンドに学習する。
RoadRunnerネットワークアーキテクチャは、LiDARとカメラ情報を共通のBird’s Eye Viewの視点に埋め込む自動運転ドメインから、一般的なセンサーフュージョンネットワークアーキテクチャの上に構築されている。
既存のトラバーサビリティ推定スタックを利用して、実世界のオフロード駆動データセットからスケーラブルな方法でトレーニングデータを生成することで、トレーニングを可能にする。
さらに、RoadRunnerは、500msから140msまでの約4倍のシステムレイテンシを改善し、トラバーサビリティコストと標高マップ予測の精度を改善している。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
関連論文リスト
- UFO: Uncertainty-aware LiDAR-image Fusion for Off-road Semantic Terrain
Map Estimation [2.048226951354646]
本稿では,BEVにおける高密度地形分類図を生成するための学習ベース融合法を提案する。
提案手法は,RGB画像とシングルスイープLiDARスキャンから生成されたセマンティックマップの精度を向上させる。
論文 参考訳(メタデータ) (2024-03-05T04:20:03Z) - MSight: An Edge-Cloud Infrastructure-based Perception System for
Connected Automated Vehicles [58.461077944514564]
本稿では,自動走行車に特化して設計された最先端道路側認識システムであるMSightについて述べる。
MSightは、リアルタイムの車両検出、ローカライゼーション、トラッキング、短期的な軌道予測を提供する。
評価は、待ち時間を最小限にしてレーンレベルの精度を維持するシステムの能力を強調している。
論文 参考訳(メタデータ) (2023-10-08T21:32:30Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - How Does It Feel? Self-Supervised Costmap Learning for Off-Road Vehicle
Traversability [7.305104984234086]
オフロード環境における地形の移動性の推定には、ロボットとこれらの地形の間の複雑な相互作用のダイナミクスを推論する必要がある。
本研究では,外外環境情報と固有地形相互作用フィードバックを組み合わせることで,トラバーサビリティのコストマップを予測する手法を提案する。
論文 参考訳(メタデータ) (2022-09-22T05:18:35Z) - Risk-Aware Off-Road Navigation via a Learned Speed Distribution Map [39.54575497596679]
本研究は,データから学習可能なロボットの速度のみに基づく,トラバーサビリティの新たな表現を提案する。
提案アルゴリズムは,ロボットが達成できる速度の分布を,環境セマンティクスと命令された速度に基づいて予測する。
数値シミュレーションにより,提案したリスク認識計画アルゴリズムが平均目標達成時間を短縮することを示した。
論文 参考訳(メタデータ) (2022-03-25T03:08:02Z) - WayFAST: Traversability Predictive Navigation for Field Robots [5.914664791853234]
本稿では,車輪付き移動ロボットの走行経路を予測するための自己教師型アプローチを提案する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライントラクション推定に基づくトレーニングパイプラインは,他の手法よりもデータ効率が高いことを示す。
論文 参考訳(メタデータ) (2022-03-22T22:02:03Z) - Coupling Vision and Proprioception for Navigation of Legged Robots [65.59559699815512]
我々は視覚と受容の相補的な強みを利用して、脚のあるロボットでポイントゴールナビゲーションを実現する。
車輪付きロボット(LoCoBot)のベースラインよりも優れた性能を示す。
また,センサーと計算能力を備えた四足歩行ロボットに,我々のシステムを実環境に展開することも示す。
論文 参考訳(メタデータ) (2021-12-03T18:59:59Z) - Learning High-Speed Flight in the Wild [101.33104268902208]
複雑な自然環境や人工環境を高速で自律的に飛行するエンド・ツー・エンドのアプローチを提案する。
鍵となる原理は、雑音の知覚観測を直接、後退水平方向に無衝突軌道にマッピングすることである。
現実的なセンサノイズをシミュレートすることにより,シミュレーションから現実環境へのゼロショット転送を実現する。
論文 参考訳(メタデータ) (2021-10-11T09:43:11Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - R4Dyn: Exploring Radar for Self-Supervised Monocular Depth Estimation of
Dynamic Scenes [69.6715406227469]
駆動シナリオにおける自己教師付き単眼深度推定は、教師付きアプローチに匹敵する性能を達成した。
本稿では,自己監督型深度推定フレームワーク上に費用効率の高いレーダデータを利用する新しい手法であるR4Dynを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:57:03Z) - ROAD: The ROad event Awareness Dataset for Autonomous Driving [16.24547478826027]
ROADは、自動運転車が道路イベントを検出する能力をテストするように設計されている。
22のビデオで構成され、各道路イベントのイメージプレーンの位置を示すバウンディングボックスがアノテートされています。
また、RetinaNetに基づいて、オンライン道路イベント認識のための新しいインクリメンタルアルゴリズムをベースラインとして提供します。
論文 参考訳(メタデータ) (2021-02-23T09:48:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。