論文の概要: Driving Through Ghosts: Behavioral Cloning with False Positives
- arxiv url: http://arxiv.org/abs/2008.12969v1
- Date: Sat, 29 Aug 2020 12:10:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 17:01:04.242382
- Title: Driving Through Ghosts: Behavioral Cloning with False Positives
- Title(参考訳): ゴーストを通り抜ける:偽陽性による行動のクローニング
- Authors: Andreas B\"uhler, Adrien Gaidon, Andrei Cramariuc, Rares Ambrus, Guy
Rosman, Wolfram Burgard
- Abstract要約: 本稿では,不完全な知覚を保守的でないまま安全に活用できる行動クローニング手法を提案する。
本稿では,物体知覚システムの雑音出力を符号化する,新しい確率論的鳥眼ビューセマンティックグリッドを提案する。
そして、専門家によるデモンストレーションを利用して、この確率的表現を用いて模擬駆動ポリシーを学ぶ。
- 参考スコア(独自算出の注目度): 42.31740099795908
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Safe autonomous driving requires robust detection of other traffic
participants. However, robust does not mean perfect, and safe systems typically
minimize missed detections at the expense of a higher false positive rate. This
results in conservative and yet potentially dangerous behavior such as avoiding
imaginary obstacles. In the context of behavioral cloning, perceptual errors at
training time can lead to learning difficulties or wrong policies, as expert
demonstrations might be inconsistent with the perceived world state. In this
work, we propose a behavioral cloning approach that can safely leverage
imperfect perception without being conservative. Our core contribution is a
novel representation of perceptual uncertainty for learning to plan. We propose
a new probabilistic birds-eye-view semantic grid to encode the noisy output of
object perception systems. We then leverage expert demonstrations to learn an
imitative driving policy using this probabilistic representation. Using the
CARLA simulator, we show that our approach can safely overcome critical false
positives that would otherwise lead to catastrophic failures or conservative
behavior.
- Abstract(参考訳): 安全な自動運転には、他の交通参加者の堅牢な検出が必要である。
しかし、ロバストとは完全という意味ではなく、安全システムは一般的に誤検出を低く抑え、高い偽陽性率を犠牲にしている。
これにより、想像上の障害を避けるなどの保守的かつ潜在的に危険な行動が生じる。
行動のクローニングの文脈では、訓練時の知覚的誤りは、専門家のデモンストレーションが知覚された世界状態と矛盾する可能性があるため、学習困難や誤った政策につながる可能性がある。
本研究では,不完全な認識を保存することなく安全に活用できる行動クローニング手法を提案する。
私たちのコアコントリビューションは、計画を学ぶための知覚の不確実性の新たな表現です。
物体知覚システムのノイズ出力を符号化する新しい確率的鳥眼視意味グリッドを提案する。
そして、専門家によるデモンストレーションを利用して、この確率的表現を用いて模擬駆動ポリシーを学ぶ。
CARLAシミュレーターを用いて、我々のアプローチは破滅的な失敗や保守的な行動につながる重大な偽陽性を安全に克服できることを示す。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - SAFE-GIL: SAFEty Guided Imitation Learning [7.979892202477701]
行動クローニングは、ロボットが専門家の監督を観察し、制御ポリシーを学ぶという、模倣学習の一般的なアプローチである。
しかし、行動のクローンは、専門家のデモンストレーションから逸脱し、破滅的なシステム障害につながる可能性があるため、ポリシーのエラーが複雑になる"複合的エラー"問題に悩まされる。
本稿では,データ収集の際,専門家を敵対的障害から誘導する非政治行動クローニング手法であるSAFE-GILを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:25:25Z) - Safety Margins for Reinforcement Learning [53.10194953873209]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - How to Learn from Risk: Explicit Risk-Utility Reinforcement Learning for
Efficient and Safe Driving Strategies [1.496194593196997]
本稿では,自動運転車の挙動を安全かつ効率的に解釈できるSafeDQNを提案する。
SafeDQNは様々なシナリオの解釈可能かつ安全な運転ポリシーを発見し、最先端の衛生技術がリスクと実用性の両方を評価するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2022-03-16T05:51:22Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Probabilistic Approach for Road-Users Detection [0.0]
最先端のディープラーニングに基づくオブジェクト検出における大きな課題の1つは、自信過剰なスコアで発生する偽陽性である。
本稿では, 深層物体検出ネットワークに新しい確率層を導入することにより, 過信予測の問題を緩和する手法を提案する。
提案手法は, 真正に対する性能を劣化させることなく, 偽正の過信を低減できることを実証した。
論文 参考訳(メタデータ) (2021-12-02T16:02:08Z) - Learning to Be Cautious [71.9871661858886]
強化学習の分野における重要な課題は、新しい状況下で慎重に行動するエージェントを開発することである。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - Sample-Efficient Safety Assurances using Conformal Prediction [57.92013073974406]
早期警戒システムは、安全でない状況が差し迫ったときに警告を提供することができる。
安全性を確実に向上させるためには、これらの警告システムは証明可能な偽陰性率を持つべきである。
本稿では,共形予測と呼ばれる統計的推論手法とロボット・環境力学シミュレータを組み合わせたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-28T23:00:30Z) - Learning Uncertainty For Safety-Oriented Semantic Segmentation In
Autonomous Driving [77.39239190539871]
自律運転における安全クリティカル画像セグメンテーションを実現するために、不確実性推定をどのように活用できるかを示す。
相似性関数によって測定された不一致予測に基づく新しい不確実性尺度を導入する。
本研究では,提案手法が競合手法よりも推論時間において計算集約性が低いことを示す。
論文 参考訳(メタデータ) (2021-05-28T09:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。