論文の概要: VI-IKD: High-Speed Accurate Off-Road Navigation using Learned
Visual-Inertial Inverse Kinodynamics
- arxiv url: http://arxiv.org/abs/2203.15983v1
- Date: Wed, 30 Mar 2022 01:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 02:47:42.725703
- Title: VI-IKD: High-Speed Accurate Off-Road Navigation using Learned
Visual-Inertial Inverse Kinodynamics
- Title(参考訳): VI-IKD:学習したビジュアル慣性逆動力学を用いた高速オフロードナビゲーション
- Authors: Haresh Karnan, Kavan Singh Sikand, Pranav Atreya, Sadegh Rabiee, Xuesu
Xiao, Garrett Warnell, Peter Stone, Joydeep Biswas
- Abstract要約: Visual-Inertial Inverse Kinodynamics (VI-IKD) は、ロボットの前方の地形パッチからの視覚情報を基にした、新しい学習ベースのIKDモデルである。
我々は,VI-IKDにより,最大3.5m/sの速度で様々な地形において,より正確で堅牢なオフロードナビゲーションを可能にすることを示す。
- 参考スコア(独自算出の注目度): 42.92648945058518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key challenges in high speed off road navigation on ground
vehicles is that the kinodynamics of the vehicle terrain interaction can differ
dramatically depending on the terrain. Previous approaches to addressing this
challenge have considered learning an inverse kinodynamics (IKD) model,
conditioned on inertial information of the vehicle to sense the kinodynamic
interactions. In this paper, we hypothesize that to enable accurate high-speed
off-road navigation using a learned IKD model, in addition to inertial
information from the past, one must also anticipate the kinodynamic
interactions of the vehicle with the terrain in the future. To this end, we
introduce Visual-Inertial Inverse Kinodynamics (VI-IKD), a novel learning based
IKD model that is conditioned on visual information from a terrain patch ahead
of the robot in addition to past inertial information, enabling it to
anticipate kinodynamic interactions in the future. We validate the
effectiveness of VI-IKD in accurate high-speed off-road navigation
experimentally on a scale 1/5 UT-AlphaTruck off-road autonomous vehicle in both
indoor and outdoor environments and show that compared to other
state-of-the-art approaches, VI-IKD enables more accurate and robust off-road
navigation on a variety of different terrains at speeds of up to 3.5 m/s.
- Abstract(参考訳): 地上車両の高速オフロードナビゲーションにおける重要な課題の1つは、車両の地形相互作用のキノダイナミクスが地形によって劇的に異なることである。
この課題に対処する以前のアプローチでは、車両の慣性情報に基づいてキノダイナミックな相互作用を感知する逆キノダイナミックス(ikd)モデルを学ぶことを検討した。
本稿では,学習したIKDモデルを用いた高速オフロードナビゲーションを実現するためには,過去の慣性情報に加えて,将来の地形と車両のキノダイナミックな相互作用も予測する必要がある,という仮説を立てる。
この目的のために,視覚-慣性逆動力学(VI-IKD)を導入した。これは新しい学習ベースのIKDモデルであり,過去の慣性情報に加えて,ロボットの前方の地形パッチからの視覚情報に基づいて,将来キノダイナミックな相互作用を予測できる。
室内および屋外両環境における1/5 UT-AlphaTruckオフロード自動運転車の精度の高いオフロードナビゲーションにおけるVI-IKDの有効性を検証するとともに、他の最先端のアプローチと比較して、最大3.5m/sの速度で様々な地形においてより正確で堅牢なオフロードナビゲーションを可能にすることを示す。
関連論文リスト
- Probing Multimodal LLMs as World Models for Driving [72.18727651074563]
本研究は,自律運転分野におけるMLLM(Multimodal Large Language Models)の適用に焦点を当てた。
我々は、固定車載カメラの観点から、様々なMLLMの運転能力を世界モデルとして評価する。
以上の結果から,最先端MLLMの現在の能力に重要なギャップがあることが示唆された。
論文 参考訳(メタデータ) (2024-05-09T17:52:42Z) - DriveWorld: 4D Pre-trained Scene Understanding via World Models for Autonomous Driving [67.46481099962088]
現在の視覚中心の事前訓練は、通常、2Dまたは3Dのプリテキストタスクに依存し、自律運転の時間的特性を4Dシーン理解タスクとして見落としている。
我々は,マルチカメラ駆動ビデオからテンポラリな方法で事前学習が可能なEmphcentricDriveWorldを紹介した。
DriveWorldは、さまざまな自動運転タスクに関する有望な結果を提供する。
論文 参考訳(メタデータ) (2024-05-07T15:14:20Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - RoadRunner - Learning Traversability Estimation for Autonomous Off-road
Driving [13.918488267013558]
我々は、カメラとLiDARセンサーの入力から直接地形変動を予測できるフレームワークであるRoadRunnerと、標高マップを提示する。
RoadRunnerは、センサ情報、不確実性の処理、コンテキスト情報による予測の生成を融合させることで、信頼性の高い自律ナビゲーションを可能にする。
我々は,非構造砂漠環境を通した複数の現実の運転シナリオにおいて,安全かつ信頼性の高いオフロードナビゲーションを実現する上で,ロードランナーの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-29T16:47:54Z) - Dynamic V2X Autonomous Perception from Road-to-Vehicle Vision [14.666587433945363]
本稿では,道路から車への視界からV2X知覚を構築することを提案し,AR2VP(Adaptive Road-to-Vehicle Perception)法を提案する。
AR2VPは、シーン内とシーン間の両方の変化に取り組むように設計されている。
本研究では,3次元物体検出とセグメンテーションの知覚実験を行い,AR2VPは動的環境における特性帯域トレードオフと適応性の両方に優れることを示した。
論文 参考訳(メタデータ) (2023-10-29T19:01:20Z) - Safe Navigation: Training Autonomous Vehicles using Deep Reinforcement
Learning in CARLA [0.0]
このプロジェクトの目的は、深層強化学習技術を用いて、不確実な環境での走行を判断できるように自動運転車を訓練することである。
シミュレータは、自動運転モデルのトレーニングとテストのための現実的で都市環境を提供する。
論文 参考訳(メタデータ) (2023-10-23T04:23:07Z) - Learning Terrain-Aware Kinodynamic Model for Autonomous Off-Road Rally
Driving With Model Predictive Path Integral Control [4.23755398158039]
本稿では,固有受容情報と外部受容情報の両方に基づいて,地形を考慮したキノダイナミクスモデルを学習する手法を提案する。
提案モデルでは、6自由度運動の信頼性予測が生成され、接触相互作用を推定することもできる。
シミュレーションされたオフロードトラック実験により提案手法の有効性を実証し,提案手法がベースラインより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-01T06:09:49Z) - D&D: Learning Human Dynamics from Dynamic Camera [55.60512353465175]
本稿では、物理の法則を活かしたD&D(Learning Human Dynamics from Dynamic Camera)を紹介する。
私たちのアプローチは完全にニューラルネットワークで、物理エンジンのオフライン最適化やシミュレーションなしで動作します。
論文 参考訳(メタデータ) (2022-09-19T06:51:02Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - Learning Interpretable End-to-End Vision-Based Motion Planning for
Autonomous Driving with Optical Flow Distillation [11.638798976654327]
IVMPは、自動運転のための解釈可能なエンドツーエンドのビジョンベースのモーションプランニングアプローチです。
我々は,実時間性能を維持しつつネットワークを効果的に強化できる光フロー蒸留パラダイムを開発した。
我々のIVMPは、人間ドライバーをはるかに高い成功率で模倣する最先端のアプローチを著しく上回っています。
論文 参考訳(メタデータ) (2021-04-18T13:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。