論文の概要: How to Learn from Risk: Explicit Risk-Utility Reinforcement Learning for
Efficient and Safe Driving Strategies
- arxiv url: http://arxiv.org/abs/2203.08409v1
- Date: Wed, 16 Mar 2022 05:51:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-17 15:29:00.873086
- Title: How to Learn from Risk: Explicit Risk-Utility Reinforcement Learning for
Efficient and Safe Driving Strategies
- Title(参考訳): リスクから学ぶ:効率的で安全な運転戦略のためのリスク・ユーティリティ強化学習
- Authors: Lukas M. Schmidt, Sebastian Rietsch, Axel Plinge, Bjoern M. Eskofier,
Christopher Mutschler
- Abstract要約: 本稿では,自動運転車の挙動を安全かつ効率的に解釈できるSafeDQNを提案する。
SafeDQNは様々なシナリオの解釈可能かつ安全な運転ポリシーを発見し、最先端の衛生技術がリスクと実用性の両方を評価するのにどのように役立つかを示す。
- 参考スコア(独自算出の注目度): 1.496194593196997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous driving has the potential to revolutionize mobility and is hence
an active area of research. In practice, the behavior of autonomous vehicles
must be acceptable, i.e., efficient, safe, and interpretable. While vanilla
reinforcement learning (RL) finds performant behavioral strategies, they are
often unsafe and uninterpretable. Safety is introduced through Safe RL
approaches, but they still mostly remain uninterpretable as the learned
behaviour is jointly optimized for safety and performance without modeling them
separately. Interpretable machine learning is rarely applied to RL. This paper
proposes SafeDQN, which allows to make the behavior of autonomous vehicles safe
and interpretable while still being efficient. SafeDQN offers an
understandable, semantic trade-off between the expected risk and the utility of
actions while being algorithmically transparent. We show that SafeDQN finds
interpretable and safe driving policies for a variety of scenarios and
demonstrate how state-of-the-art saliency techniques can help to assess both
risk and utility.
- Abstract(参考訳): 自動運転はモビリティに革命を起こす可能性があるため、研究の活発な領域である。
実際には、自動運転車の動作は、効率的、安全、そして解釈可能でなければならない。
バニラ強化学習(rl)は実行的行動戦略を見つけるが、それらはしばしば安全で解釈できない。
安全性はSafe RLアプローチを通じて導入されますが、学習された振る舞いが個別にモデル化することなく、安全とパフォーマンスに共同最適化されているため、ほとんどの場合、解釈不能です。
解釈可能な機械学習はRLにはほとんど適用されない。
本稿では,自律走行車両の動作を安全かつ解釈可能とし,かつ効率的であるsafedqnを提案する。
SafeDQNは、アルゴリズム的に透過的でありながら、期待されるリスクとアクションの有用性の間の理解可能なセマンティックなトレードオフを提供する。
safedqnは様々なシナリオで解釈可能かつ安全な運転方針を見つけ、最新技術がリスクと実用性の両方を評価するのにどのように役立つかを示す。
関連論文リスト
- ActSafe: Active Exploration with Safety Constraints for Reinforcement Learning [48.536695794883826]
本稿では,安全かつ効率的な探索のためのモデルベースRLアルゴリズムであるActSafeを提案する。
本稿では,ActSafeが学習中の安全性を保証しつつ,有限時間で準最適政策を得ることを示す。
さらに,最新のモデルベースRLの進歩に基づくActSafeの実用版を提案する。
論文 参考訳(メタデータ) (2024-10-12T10:46:02Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Risk-Aware Reward Shaping of Reinforcement Learning Agents for
Autonomous Driving [6.613838702441967]
本稿では,自律運転におけるRLエージェントのトレーニングとテスト性能を活用するために,リスク認識型報酬形成手法について検討する。
我々は、危険運転行動の探索と罰則を奨励する追加のリフォーム報酬項を提案する。
論文 参考訳(メタデータ) (2023-06-05T20:10:36Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Safe Reinforcement Learning with Contrastive Risk Prediction [35.80144544954927]
本稿では,安全でない状態につながる状態-作用ペアの確率を予測するために,統計的コントラスト分類器を学習する安全RLのリスク防止訓練手法を提案する。
予測されたリスク確率に基づいて、リスク防止トラジェクトリを収集し、報酬関数をリスクペナルティで再形成して、安全なRLポリシーを導き出すことができる。
その結果,提案手法は最先端のモデルベース手法と同等の性能を示し,従来のモデルフリーなRL手法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-10T18:54:38Z) - Minimizing Safety Interference for Safe and Comfortable Automated
Driving with Distributional Reinforcement Learning [3.923354711049903]
そこで本稿では,望ましい快適さと実用性に基づいて,実行時の保守性レベルを調整可能な適応ポリシーを学習するための分散強化学習フレームワークを提案する。
提案アルゴリズムは,認識ノイズが2倍高い場合にも信頼性を向上できるポリシを学習し,非閉塞交差点における自動マージと踏切の訓練構成を示す。
論文 参考訳(メタデータ) (2021-07-15T13:36:55Z) - Driving-Policy Adaptive Safeguard for Autonomous Vehicles Using
Reinforcement Learning [19.71676985220504]
本稿では,衝突回避戦略とアクティベーション機能を含むDPAS設計を提案する。
運転政策適応型アクティベーション機能は、緊急脅威が検出された場合に、現在の運転方針リスクを動的に評価し、起動する必要がある。
実験の結果は自然発生運転データにより校正され, より多くの介入を伴わずに, 衝突速度を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-12-02T08:01:53Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。