論文の概要: WayFAST: Traversability Predictive Navigation for Field Robots
- arxiv url: http://arxiv.org/abs/2203.12071v1
- Date: Tue, 22 Mar 2022 22:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-24 13:30:05.942881
- Title: WayFAST: Traversability Predictive Navigation for Field Robots
- Title(参考訳): wayfast: フィールドロボットのためのトラバーサビリティ予測ナビゲーション
- Authors: Mateus Valverde Gasparino, Arun Narenthiran Sivakumar, Yixiao Liu,
Andres Eduardo Baquero Velasquez, Vitor Akihiro Hisano Higuti, John Rogers,
Huy Tran, Girish Chowdhary
- Abstract要約: 本稿では,車輪付き移動ロボットの走行経路を予測するための自己教師型アプローチを提案する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライントラクション推定に基づくトレーニングパイプラインは,他の手法よりもデータ効率が高いことを示す。
- 参考スコア(独自算出の注目度): 5.914664791853234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a self-supervised approach for learning to predict traversable
paths for wheeled mobile robots that require good traction to navigate. Our
algorithm, termed WayFAST (Waypoint Free Autonomous Systems for
Traversability), uses RGB and depth data, along with navigation experience, to
autonomously generate traversable paths in outdoor unstructured environments.
Our key inspiration is that traction can be estimated for rolling robots using
kinodynamic models. Using traction estimates provided by an online receding
horizon estimator, we are able to train a traversability prediction neural
network in a self-supervised manner, without requiring heuristics utilized by
previous methods. We demonstrate the effectiveness of WayFAST through extensive
field testing in varying environments, ranging from sandy dry beaches to forest
canopies and snow covered grass fields. Our results clearly demonstrate that
WayFAST can learn to avoid geometric obstacles as well as untraversable
terrain, such as snow, which would be difficult to avoid with sensors that
provide only geometric data, such as LiDAR. Furthermore, we show that our
training pipeline based on online traction estimates is more data-efficient
than other heuristic-based methods.
- Abstract(参考訳): 本研究では,移動ロボットの移動経路を予測するための自己教師型学習手法を提案する。
われわれのアルゴリズムはWayFAST(Waypoint Free Autonomous Systems for Traversability)と呼ばれ、RGBと深度データとナビゲーション体験を使って、屋外の非構造環境における移動可能な経路を自律的に生成する。
キーとなるインスピレーションは、キノダイナミックモデルを用いてローリングロボットのトラクションを推定できることです。
オンライン・リサイディング・ホライズン推定器によるトラクション推定値を用いることで,従来手法のヒューリスティックスを必要とせず,トラバーサビリティ予測ニューラルネットワークを自己教師あり方式で訓練することができる。
砂浜,森林キャノピー,雪に覆われた草原など,様々な環境における広範囲な野外試験により,ウェイファストの有効性を実証した。
この結果から,LiDARのような幾何学的データのみを提供するセンサでは避け難い雪のような不測の地形だけでなく,幾何学的障害物も回避できることが明らかとなった。
さらに,オンライントラクション推定に基づくトレーニングパイプラインは,他のヒューリスティック手法よりもデータ効率が高いことを示す。
関連論文リスト
- RoadRunner - Learning Traversability Estimation for Autonomous Off-road
Driving [13.918488267013558]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - EVORA: Deep Evidential Traversability Learning for Risk-Aware Off-Road Autonomy [34.19779754333234]
本研究では,不確実性を考慮したトラクションモデルを学習し,リスクを考慮したトラジェクトリを計画するための統一的なフレームワークを提案する。
ネットワーク出力を用いてディリクレ分布をパラメータ化し、新しい不確実性を考慮した2乗地球モーバー距離損失を提案する。
我々のアプローチはシミュレーションや車輪付き四足歩行ロボットで広範囲に検証されている。
論文 参考訳(メタデータ) (2023-11-10T18:49:53Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - VAPOR: Legged Robot Navigation in Outdoor Vegetation Using Offline
Reinforcement Learning [53.13393315664145]
本研究では,非構造で密集した屋外環境における自律脚ロボットナビゲーションのための新しい手法であるVAPORを提案する。
本手法は,アクター・クリティカル・ネットワークと実際の屋外植生で収集された任意のデータを用いて,新しいRLポリシーを訓練する。
VAPORの動作は成功率を最大40%向上させ、平均電流消費量を最大2.9%削減し、正規化軌道長を最大11.2%削減する。
論文 参考訳(メタデータ) (2023-09-14T16:21:27Z) - Ada-NAV: Adaptive Trajectory Length-Based Sample Efficient Policy Learning for Robotic Navigation [72.24964965882783]
軌道長は強化学習アルゴリズムの学習過程において重要な役割を果たす。
本稿では,RLアルゴリズムのトレーニングサンプル効率を向上させるための適応軌道長スキームであるAda-NAVを紹介する。
我々は,Ada-NAVが従来の手法より優れている実世界のロボット実験を実演する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Offline Reinforcement Learning for Visual Navigation [66.88830049694457]
ReViNDは、ロボットナビゲーションのための最初のオフラインRLシステムで、これまで収集されたデータを利用して、現実世界でユーザーが指定した報酬関数を最適化する。
ReViNDは、このデータセットからのオフライントレーニングのみを使用して、遠方の目標にナビゲートできることを示し、ユーザ指定の報酬関数に基づいて、質的に異なる振る舞いを示す。
論文 参考訳(メタデータ) (2022-12-16T02:23:50Z) - OctoPath: An OcTree Based Self-Supervised Learning Approach to Local
Trajectory Planning for Mobile Robots [0.0]
我々は,エンコーダ・デコーダ・ディープニューラルネットワークであるOctoPathを導入し,エゴ車両の最適軌道を予測するための自己教師型訓練を行った。
トレーニング中、OctoPathは、所定のトレーニングデータセット内の予測と手動で駆動するトラジェクトリ間のエラーを最小限にする。
我々は,室内と屋外の異なる運転シナリオにおけるOctoPathの予測を,ベースラインハイブリッドA-Starアルゴリズムに対してベンチマークしながら評価した。
論文 参考訳(メタデータ) (2021-06-02T07:10:54Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - High-Speed Robot Navigation using Predicted Occupancy Maps [0.0]
ロボットがセンサの地平線を越えて広がる空間を高速で予測できるアルゴリズム手法について検討する。
我々は、人間のアノテートラベルを必要とせず、実世界のデータからトレーニングされた生成ニューラルネットワークを用いてこれを実現する。
既存の制御アルゴリズムを拡張し、予測空間を活用することで、衝突のない計画とナビゲーションを高速で改善します。
論文 参考訳(メタデータ) (2020-12-22T16:25:12Z) - PLOP: Probabilistic poLynomial Objects trajectory Planning for
autonomous driving [8.105493956485583]
条件付き模倣学習アルゴリズムを用いて,エゴ車とその周辺地域の軌道を推定する。
私たちのアプローチは計算効率が高く、オンボードセンサーのみに依存します。
公開データセットnuScenesでオフラインで評価する。
論文 参考訳(メタデータ) (2020-03-09T16:55:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。