論文の概要: How to Brake? Ethical Emergency Braking with Deep Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2512.10698v1
- Date: Thu, 11 Dec 2025 14:40:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.420109
- Title: How to Brake? Ethical Emergency Braking with Deep Reinforcement Learning
- Title(参考訳): ブレーキの方法 : 深層強化学習による倫理的緊急ブレーキ
- Authors: Jianbo Wang, Galina Sidorenko, Johan Thunberg,
- Abstract要約: 緊急制動を含む多車両追従シナリオにおいて, 深層強化学習をどのように活用し, 安全性を向上させるかを検討する。
具体的には,車両間通信を用いたDRLを用いて,緊急時プロファイルを倫理的に選択する方法について検討する。
本稿では,DRLと,最適定数減速を選択するための解析式を併用したハイブリッド手法を提案する。
- 参考スコア(独自算出の注目度): 3.906196377005682
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Connected and automated vehicles (CAVs) have the potential to enhance driving safety, for example by enabling safe vehicle following and more efficient traffic scheduling. For such future deployments, safety requirements should be addressed, where the primary such are avoidance of vehicle collisions and substantial mitigating of harm when collisions are unavoidable. However, conservative worst-case-based control strategies come at the price of reduced flexibility and may compromise overall performance. In light of this, we investigate how Deep Reinforcement Learning (DRL) can be leveraged to improve safety in multi-vehicle-following scenarios involving emergency braking. Specifically, we investigate how DRL with vehicle-to-vehicle communication can be used to ethically select an emergency breaking profile in scenarios where overall, or collective, three-vehicle harm reduction or collision avoidance shall be obtained instead of single-vehicle such. As an algorithm, we provide a hybrid approach that combines DRL with a previously published method based on analytical expressions for selecting optimal constant deceleration. By combining DRL with the previous method, the proposed hybrid approach increases the reliability compared to standalone DRL, while achieving superior performance in terms of overall harm reduction and collision avoidance.
- Abstract(参考訳): 接続された自動車両(CAV)は、例えば安全車両の追従とより効率的な交通スケジューリングを可能にすることにより、運転安全性を高める可能性がある。
このような将来の展開には、車両衝突の回避、衝突が避けられない場合の危害の軽減といった安全要件に対処する必要がある。
しかし、保守的な最悪のケースベースの制御戦略は、柔軟性を低下させ、全体的なパフォーマンスを損なう可能性がある。
これを踏まえて,緊急制動を含む多車両追従シナリオにおいて,DRL(Deep Reinforcement Learning)の安全性向上にどのように活用できるかを検討する。
具体的には、車車間通信を用いたDRLを用いて、全体的、集団的、三車間の有害度低減や衝突回避といったシナリオにおいて、緊急時プロファイルを倫理的に選択する方法について検討する。
アルゴリズムとして、DRLと、最適定数減速を選択するための解析式に基づく以前に発表された手法を組み合わせたハイブリッドアプローチを提案する。
DRLを従来手法と組み合わせることで,本手法は単独のDRLに比べて信頼性を向上するとともに,全体の損傷低減と衝突回避の点で優れた性能を実現している。
関連論文リスト
- Rethinking Safety in LLM Fine-tuning: An Optimization Perspective [56.31306558218838]
我々は、本質的にトレードオフではなく、最適化の貧弱な選択が、しばしば安全上の問題を引き起こすことを示し、敵のプロンプトに対する有害な応答として測定する。
安全性能を保ったパラメータ空間における簡易指数移動平均(EMA)運動量法を提案する。
複数のデータセットにまたがるLlamaファミリーに関する実験は、安全性の問題が特別な介入なしに回避できることを実証している。
論文 参考訳(メタデータ) (2025-08-17T23:46:36Z) - Advanced Longitudinal Control and Collision Avoidance for High-Risk Edge Cases in Autonomous Driving [0.0]
本稿では,緊急制動と適応巡航を統合した新しい長手方向制御・衝突回避アルゴリズムを提案する。
シミュレーションされた高リスクシナリオでは、重任務車両を含む状況においても、このアルゴリズムは衝突を効果的に防止する。
3台の車両が減速する典型的な高速道路のシナリオでは、提案されたDRLアプローチは、標準の連邦高速道路管理局の速度概念をはるかに上回る99%の成功率を達成する。
論文 参考訳(メタデータ) (2025-04-26T14:17:06Z) - SECRM-2D: RL-Based Efficient and Comfortable Route-Following Autonomous Driving with Analytic Safety Guarantees [5.156059061769101]
SECRM-2Dは、効率と快適性の最適化と固定経路に従うRL自律運転制御装置である。
シミュレーションテストシナリオにおいて,SECRM-2Dをいくつかの学習ベースラインおよび非学習ベースラインに対して評価する。
論文 参考訳(メタデータ) (2024-07-23T21:54:39Z) - RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Deep Reinforcement Learning for Advanced Longitudinal Control and Collision Avoidance in High-Risk Driving Scenarios [0.0]
本研究では, 縦方向制御と衝突回避のための深部強化学習に基づく新しいアルゴリズムを提案する。
シミュレーションされた高リスクシナリオにおけるその実装は、従来のシステムが通常失敗する密集した交通で緊急ブレーキを伴い、衝突の可能性のある衝突を防ぐアルゴリズム能力を実証している。
論文 参考訳(メタデータ) (2024-04-29T19:58:34Z) - CAT: Closed-loop Adversarial Training for Safe End-to-End Driving [54.60865656161679]
Adversarial Training (CAT) は、自動運転車における安全なエンドツーエンド運転のためのフレームワークである。
Catは、安全クリティカルなシナリオでエージェントを訓練することで、運転エージェントの安全性を継続的に改善することを目的としている。
猫は、訓練中のエージェントに対抗する敵シナリオを効果的に生成できる。
論文 参考訳(メタデータ) (2023-10-19T02:49:31Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Safe Reinforcement Learning for an Energy-Efficient Driver Assistance
System [1.8899300124593645]
強化学習(Reinforcement Learning, RL)に基づく運転支援システムは, 電力系統制御動作の継続的な改善を通じて, 燃費の向上を図る。
本稿では,RLに基づく運転支援システムによって提案される安全でない動作をフィルタするために,指数制御障壁関数(ECBF)を導出して利用する。
提案手法は, 走行中の衝突を効果的に回避できることを示すため, 車両内での安全RLスキームの訓練と評価を行う。
論文 参考訳(メタデータ) (2023-01-03T00:25:00Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Enhancing Safe Exploration Using Safety State Augmentation [71.00929878212382]
モデルフリー強化学習における安全な探索の課題に取り組む。
トレーニング中に安全予算をスケジューリングするためのポリシーを導出します。
Simmer はトレーニングを安定させ,安全RL の性能を平均的制約で向上させることができることを示す。
論文 参考訳(メタデータ) (2022-06-06T15:23:07Z) - Self-Awareness Safety of Deep Reinforcement Learning in Road Traffic
Junction Driving [20.85562165500152]
道路交通ジャンクションのシナリオでは、車両は通常、輸送環境から部分的な観察を受ける。
本研究では,3つのベースラインDRLモデル(DQN,A2C,PPO)の安全性評価を行った。
提案した自己認識注意-DQNは,交差点およびラウンドアバウンドシナリオにおける安全性を著しく向上させることができる。
論文 参考訳(メタデータ) (2022-01-20T11:21:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。