論文の概要: Learning to Drive Off Road on Smooth Terrain in Unstructured
Environments Using an On-Board Camera and Sparse Aerial Images
- arxiv url: http://arxiv.org/abs/2004.04697v1
- Date: Thu, 9 Apr 2020 17:27:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 02:35:33.963520
- Title: Learning to Drive Off Road on Smooth Terrain in Unstructured
Environments Using an On-Board Camera and Sparse Aerial Images
- Title(参考訳): オンボードカメラとスパースエアリアル画像を用いた非構造環境における平地道路の走行学習
- Authors: Travis Manderson, Stefan Wapnick, David Meger, and Gregory Dudek
- Abstract要約: 本研究では,屋外環境とオフロード環境と非構造環境の衝突を同時に回避しながら,滑らかな地形での走行を学習する手法を提案する。
本手法は,地形の粗さや衝突のラベル付けに完全に自己制御されたモデルベースおよびモデルフリー強化学習手法をオンボードセンサで適用する。
- 参考スコア(独自算出の注目度): 32.77027811714963
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for learning to drive on smooth terrain while
simultaneously avoiding collisions in challenging off-road and unstructured
outdoor environments using only visual inputs. Our approach applies a hybrid
model-based and model-free reinforcement learning method that is entirely
self-supervised in labeling terrain roughness and collisions using on-board
sensors. Notably, we provide both first-person and overhead aerial image inputs
to our model. We find that the fusion of these complementary inputs improves
planning foresight and makes the model robust to visual obstructions. Our
results show the ability to generalize to environments with plentiful
vegetation, various types of rock, and sandy trails. During evaluation, our
policy attained 90% smooth terrain traversal and reduced the proportion of
rough terrain driven over by 6.1 times compared to a model using only
first-person imagery.
- Abstract(参考訳): 本稿では,視覚入力のみを用いて,オフロード環境と非構造化屋外環境の衝突を回避しつつ,滑らかな地形上での運転を学習する手法を提案する。
本手法では, 地形の粗さや衝突のラベル付けに完全に自己制御されたモデルベースおよびモデルフリー強化学習手法を適用する。
特に,1対1と1対1の航空画像入力の両方をモデルに提供する。
これらの相補的な入力の融合は、計画の見通しを改善し、そのモデルを視覚障害に対して堅牢にする。
本研究は,植生が豊富で,岩質や砂質の道が多様である環境に一般化できることを示す。
評価中,90%の平滑な地形横断を達成し,一対一のイメージのみを用いたモデルと比較して6.1倍の粗地移動率を低下させた。
関連論文リスト
- Pixel to Elevation: Learning to Predict Elevation Maps at Long Range
using Images for Autonomous Offroad Navigation [12.389719757605162]
本稿では,車載エゴセントリック画像のみをリアルタイムに利用して,長距離の地形標高マップを予測できる学習型アプローチを提案する。
複雑で非構造的な地形における自律型オフロードロボットナビゲーションへの提案手法の適用性を実験的に検証した。
論文 参考訳(メタデータ) (2024-01-30T22:37:24Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - ScatterNeRF: Seeing Through Fog with Physically-Based Inverse Neural
Rendering [83.75284107397003]
本稿では,シーンをレンダリングし,霧のない背景を分解するニューラルネットワークレンダリング手法であるScatterNeRFを紹介する。
本研究では,散乱量とシーンオブジェクトの非絡み合い表現を提案し,物理に着想を得た損失を伴ってシーン再構成を学習する。
マルチビューIn-the-Wildデータをキャプチャして,大規模な霧室内でのキャプチャを制御し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-03T13:24:06Z) - Aerial Diffusion: Text Guided Ground-to-Aerial View Translation from a
Single Image using Diffusion Models [72.76182801289497]
そこで本研究では,テキストガイダンスを用いて1つの地上画像から空中映像を生成する新しい手法であるAerial Diffusionを提案する。
地上ビューと空中ビューのドメインギャップに対応する2つの主な課題に対処する。
航空拡散(Aerial Diffusion)は、地上から航空への翻訳を教師なしで行う最初のアプローチである。
論文 参考訳(メタデータ) (2023-03-15T22:26:09Z) - Uncertainty-aware Vision-based Metric Cross-view Geolocalization [25.87104194833264]
地上画像と空中画像を用いて車両のポーズの確率分布を予測するエンド・ツー・エンドの微分モデルを提案する。
テストエリアからの地上データや空中データなしでも、最先端の技術を大きなマージンで改善する。
論文 参考訳(メタデータ) (2022-11-22T10:23:20Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Self-Supervised Traversability Prediction by Learning to Reconstruct
Safe Terrain [11.879448207836038]
高速な自動運転車でオフロードを走行するには、トラバース可能な地形と非トラバース可能な地形を区別する堅牢な認識システムに依存する。
これは人間の時間に多大な投資をし、正確な専門家の分類を仮定し、小さな詳細が誤分類につながる可能性がある。
本研究では,過去の車両経験から高リスク・低リスク地形を自己管理的に予測する手法を提案する。
論文 参考訳(メタデータ) (2022-08-02T09:24:39Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - OTTR: Off-Road Trajectory Tracking using Reinforcement Learning [6.033086397437647]
オフロード軌道追跡問題に対する新しい強化学習(RL)アルゴリズムを提案する。
提案手法は,ベースラインRLポリシーに適応するために利用可能な限られた実世界のデータを効率的に活用する。
標準のILQR手法と比較して,提案手法はWarthogとMooseのクロストラック誤差を30%,50%削減する。
論文 参考訳(メタデータ) (2021-10-05T20:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。