論文の概要: PaRCE: Probabilistic and Reconstruction-Based Competency Estimation for Safe Navigation Under Perception Uncertainty
- arxiv url: http://arxiv.org/abs/2409.06111v1
- Date: Mon, 9 Sep 2024 23:34:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 19:30:38.989270
- Title: PaRCE: Probabilistic and Reconstruction-Based Competency Estimation for Safe Navigation Under Perception Uncertainty
- Title(参考訳): PaRCE: 認識不確かさ下での安全ナビゲーションのための確率的・再構成に基づくコンピテンシー推定
- Authors: Sara Pohland, Claire Tomlin,
- Abstract要約: 知覚に基づくナビゲーションシステムは、複雑な地形における無人地上車両(UGV)のナビゲーションに有用である。
本研究では,確率的・再構成型能力推定法(PaRCE)を開発し,入力画像との親しみ度を推定する。
総合能力スコアは, 正しく分類され, 誤分類され, アウト・オブ・ディストリビューション (OOD) のサンプルを正確に予測できることがわかった。
- 参考スコア(独自算出の注目度): 0.10923877073891446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Perception-based navigation systems are useful for unmanned ground vehicle (UGV) navigation in complex terrains, where traditional depth-based navigation schemes are insufficient. However, these data-driven methods are highly dependent on their training data and can fail in surprising and dramatic ways with little warning. To ensure the safety of the vehicle and the surrounding environment, it is imperative that the navigation system is able to recognize the predictive uncertainty of the perception model and respond safely and effectively in the face of uncertainty. In an effort to enable safe navigation under perception uncertainty, we develop a probabilistic and reconstruction-based competency estimation (PaRCE) method to estimate the model's level of familiarity with an input image as a whole and with specific regions in the image. We find that the overall competency score can correctly predict correctly classified, misclassified, and out-of-distribution (OOD) samples. We also confirm that the regional competency maps can accurately distinguish between familiar and unfamiliar regions across images. We then use this competency information to develop a planning and control scheme that enables effective navigation while maintaining a low probability of error. We find that the competency-aware scheme greatly reduces the number of collisions with unfamiliar obstacles, compared to a baseline controller with no competency awareness. Furthermore, the regional competency information is very valuable in enabling efficient navigation.
- Abstract(参考訳): 知覚に基づくナビゲーションシステムは、従来の深度に基づくナビゲーションスキームが不十分な複雑な地形における無人地上車両(UGV)ナビゲーションに有用である。
しかし、これらのデータ駆動手法はトレーニングデータに大きく依存しており、驚くべき、劇的な方法で失敗する可能性がある。
車両及び周辺環境の安全性を確保するため、ナビゲーションシステムは、認識モデルの予測的不確実性を認識でき、不確実性に直面して安全かつ効果的に応答できることが不可欠である。
認識の不確実性の下で安全なナビゲーションを可能にするため,確率的・再構成型能力推定法(PaRCE)を開発し,入力画像全体と画像内の特定領域との親しみ度を推定する。
総合能力スコアは, 正しく分類され, 誤分類され, アウト・オブ・ディストリビューション (OOD) のサンプルを正確に予測できることがわかった。
また,地域能力マップは画像間で親しみやすい地域と不慣れな地域を正確に区別できることを確認した。
次に、この能力情報を用いて、エラーの確率を低く保ちながら効果的なナビゲーションを可能にする計画制御方式を開発する。
能力認識方式は,能力意識のないベースラインコントローラに比べて,不慣れな障害物と衝突する回数を大幅に減少させることがわかった。
さらに、地域能力情報は、効率的なナビゲーションを可能にする上で非常に貴重である。
関連論文リスト
- Secure Navigation using Landmark-based Localization in a GPS-denied
Environment [1.19658449368018]
本稿では,ランドマークに基づくローカライゼーション(LanBLoc)と拡張カルマンフィルタ(EKF)を統合した新たなフレームワークを提案する。
本稿では,障害物や危険のない経路を移動する物体を誘導する2つのアプローチについて,シミュレーションした戦場シナリオを提案する。
論文 参考訳(メタデータ) (2024-02-22T04:41:56Z) - Cooperative Probabilistic Trajectory Forecasting under Occlusion [110.4960878651584]
隠蔽対象の情報を安全なナビゲーションのためにエゴエージェントに伝達する必要がある場合が多い。
本稿では,エゴエージェントの基準フレームにおける閉塞歩行者の現況を協調的に推定するエンド・ツー・エンドネットワークを設計する。
また,エゴ剤による閉塞歩行者の不確実性を考慮した軌道予測は,閉塞を前提とした地上の真実軌道とほぼ同様であることを示した。
論文 参考訳(メタデータ) (2023-12-06T05:36:52Z) - Visual Environment Assessment for Safe Autonomous Quadrotor Landing [8.538463567092297]
本研究では,安全な四段着陸のための着陸地点の検出と評価を行う新しい手法を提案する。
本ソリューションは,GPSなどの外部支援を不要にしながら,2次元および3次元環境情報を効率的に統合する。
提案手法は,計算能力に制限のあるクオータ上でリアルタイムに実行される。
論文 参考訳(メタデータ) (2023-11-16T18:02:10Z) - EVORA: Deep Evidential Traversability Learning for Risk-Aware Off-Road Autonomy [34.19779754333234]
本研究では,不確実性を考慮したトラクションモデルを学習し,リスクを考慮したトラジェクトリを計画するための統一的なフレームワークを提案する。
ネットワーク出力を用いてディリクレ分布をパラメータ化し、新しい不確実性を考慮した2乗地球モーバー距離損失を提案する。
我々のアプローチはシミュレーションや車輪付き四足歩行ロボットで広範囲に検証されている。
論文 参考訳(メタデータ) (2023-11-10T18:49:53Z) - Safe Navigation in Unstructured Environments by Minimizing Uncertainty
in Control and Perception [5.46262127926284]
制御と知覚の不確実性は、非構造環境における自動運転車のナビゲーションに課題をもたらす。
本稿では,安全かつ信頼性の高いナビゲーションを実現するために,制御と認識の不確実性を最小化するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-26T11:24:03Z) - Unsupervised Self-Driving Attention Prediction via Uncertainty Mining
and Knowledge Embedding [51.8579160500354]
本研究では、不確実性モデリングと知識統合の駆動による自動運転の注意を予測できる教師なし手法を提案する。
結果は、完全に教師された最先端のアプローチと比較して、同等またはさらに印象的なパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-17T00:28:33Z) - Interpretable Self-Aware Neural Networks for Robust Trajectory
Prediction [50.79827516897913]
本稿では,意味概念間で不確実性を分散する軌道予測のための解釈可能なパラダイムを提案する。
実世界の自動運転データに対する我々のアプローチを検証し、最先端のベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-16T06:28:20Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - BoMuDANet: Unsupervised Adaptation for Visual Scene Understanding in
Unstructured Driving Environments [54.22535063244038]
非構造交通環境における視覚的シーン理解のための教師なし適応手法を提案する。
本手法は,車,トラック,二輪車,三輪車,歩行者からなる密集・異種交通を伴う非構造現実シナリオを対象としたものである。
論文 参考訳(メタデータ) (2020-09-22T08:25:44Z) - Online Mapping and Motion Planning under Uncertainty for Safe Navigation
in Unknown Environments [3.2296078260106174]
本論文は,確率論的安全保証者によるオンラインで実現可能な動作のマッピングと計画のための不確実性に基づくフレームワークを提案する。
提案手法は, 環境の不確実性を意識した環境表現を構築するために周囲をマッピングし, (i) 信念空間の多層サンプリングベースプランナーを通して, キノダイナミックに実現可能で確率論的に安全な目標に反復的に(re)計画を行うことにより, 動き, 確率論的安全性, オンライン計算制約を取り扱う。
論文 参考訳(メタデータ) (2020-04-26T08:53:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。