論文の概要: Learning Cost-maps Made Easy
- arxiv url: http://arxiv.org/abs/2209.12413v1
- Date: Mon, 26 Sep 2022 04:37:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 17:34:00.462313
- Title: Learning Cost-maps Made Easy
- Title(参考訳): コストマップの学習が簡単になった
- Authors: Kasi Vishwanath, P.B. Sujit and Srikanth Saripalli
- Abstract要約: オフロード環境では、各機能に関連するコスト値の手作りが難しい。
実演を通してパラメータを学習する深層学習手法を用いて,CAMELと呼ばれる新しいフレームワークを提案する。
その結果、非構造地形での衝突のない車両の柔軟で頑健な動きが示された。
- 参考スコア(独自算出の注目度): 12.386304516106854
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cost-maps are used by robotic vehicles to plan collision-free paths. The cost
associated with each cell in the map represents the sensed environment
information which is often determined manually after several trial-and-error
efforts. In off-road environments, due to the presence of several types of
features, it is challenging to handcraft the cost values associated with each
feature. Moreover, different handcrafted cost values can lead to different
paths for the same environment which is not desirable. In this paper, we
address the problem of learning the cost-map values from the sensed environment
for robust vehicle path planning. We propose a novel framework called as CAMEL
using deep learning approach that learns the parameters through demonstrations
yielding an adaptive and robust cost-map for path planning. CAMEL has been
trained on multi-modal datasets such as RELLIS-3D. The evaluation of CAMEL is
carried out on an off-road scene simulator (MAVS) and on field data from
IISER-B campus. We also perform realworld implementation of CAMEL on a ground
rover. The results shows flexible and robust motion of the vehicle without
collisions in unstructured terrains.
- Abstract(参考訳): コストマップは、衝突のない経路を計画するためにロボット車両によって使用される。
地図内の各セルに関連するコストは、いくつかの試行錯誤の後、しばしば手動で決定される知覚された環境情報を表す。
オフロード環境では、いくつかの種類の機能が存在するため、各機能に関連するコスト値の手作りが困難である。
さらに、異なる手作りのコスト値が、望ましくない同じ環境の異なるパスにつながる可能性がある。
本稿では,ロバストな車両経路計画のための知覚環境からコストマップ値を学ぶ問題に対処する。
本稿では,経路計画のための適応的かつ堅牢なコストマップを提供する実演を通してパラメータを学習する,ディープラーニングアプローチを用いたCAMELと呼ばれる新しいフレームワークを提案する。
CAMELはRELLIS-3Dのようなマルチモーダルデータセットで訓練されている。
CAMELの評価は、オフロードシーンシミュレータ(MAVS)とIISER-Bキャンパスのフィールドデータに基づいて行われる。
また,地上ローバー上でのCAMELの実装も行う。
その結果,非構造地形における衝突のない車両の柔軟でロバストな運動が得られた。
関連論文リスト
- Neural Semantic Map-Learning for Autonomous Vehicles [85.8425492858912]
本稿では,道路環境のコヒーレントな地図を作成するために,車両群から収集した局所部分写像を中心インスタンスに融合するマッピングシステムを提案する。
本手法は,シーン特異的なニューラルサイン距離場を用いて,雑音と不完全局所部分写像を併用する。
我々は,記憶効率の高いスパース機能グリッドを活用して大規模にスケールし,シーン再構築における不確実性をモデル化するための信頼スコアを導入する。
論文 参考訳(メタデータ) (2024-10-10T10:10:03Z) - Leveraging GNSS and Onboard Visual Data from Consumer Vehicles for Robust Road Network Estimation [18.236615392921273]
本稿では,自動運転車における道路グラフ構築の課題について述べる。
本稿では,これらの標準センサから取得したグローバルナビゲーション衛星システム(GNSS)のトレースと基本画像データについて提案する。
我々は、畳み込みニューラルネットワークを用いて、道路中心のセマンティックセグメンテーションタスクとして問題をフレーミングすることで、データの空間情報を利用する。
論文 参考訳(メタデータ) (2024-08-03T02:57:37Z) - Deep Perspective Transformation Based Vehicle Localization on Bird's Eye
View [0.49747156441456597]
従来のアプローチでは、環境をシミュレートする複数のセンサーのインストールに依存していた。
シーンのトップダウン表現を生成することで、代替ソリューションを提案する。
本稿では,RGB画像の視点ビューを,周囲の車両を分割した鳥眼ビューマップに変換するアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-11-12T10:16:42Z) - RSRD: A Road Surface Reconstruction Dataset and Benchmark for Safe and
Comfortable Autonomous Driving [67.09546127265034]
道路表面の再構築は、車両の走行計画と制御システムの解析と予測を促進するのに役立つ。
我々は,様々な運転条件下で,特定のプラットフォームで収集した実世界,高解像度,高精度のデータセットであるRoad Surface Reconstructionデータセットを紹介した。
約16,000対のステレオ画像、原点雲、地中深度・不均等地図を含む一般的な道路形態を網羅している。
論文 参考訳(メタデータ) (2023-10-03T17:59:32Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - End-to-end Interpretable Neural Motion Planner [78.69295676456085]
複雑な都市環境での自律走行学習のためのニューラルモーションプランナー(NMP)を提案する。
我々は,生lidarデータとhdマップを入力とし,解釈可能な中間表現を生成する全体モデルを設計した。
北米のいくつかの都市で収集された実世界の運転データにおける我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2021-01-17T14:16:12Z) - Detecting 32 Pedestrian Attributes for Autonomous Vehicles [103.87351701138554]
本稿では、歩行者を共同で検出し、32の歩行者属性を認識するという課題に対処する。
本稿では,複合フィールドフレームワークを用いたマルチタスク学習(MTL)モデルを提案する。
競合検出と属性認識の結果と,より安定したMTLトレーニングを示す。
論文 参考訳(メタデータ) (2020-12-04T15:10:12Z) - Towards Autonomous Driving: a Multi-Modal 360$^{\circ}$ Perception
Proposal [87.11988786121447]
本稿では,自動運転車の3次元物体検出と追跡のためのフレームワークを提案する。
このソリューションは、新しいセンサ融合構成に基づいて、正確で信頼性の高い道路環境検出を提供する。
自動運転車に搭載されたシステムの様々なテストは、提案された知覚スタックの適合性を評価することに成功している。
論文 参考訳(メタデータ) (2020-08-21T20:36:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。