論文の概要: Safe Reinforcement Learning with Probabilistic Control Barrier Functions
for Ramp Merging
- arxiv url: http://arxiv.org/abs/2212.00618v1
- Date: Thu, 1 Dec 2022 16:14:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:29:46.007652
- Title: Safe Reinforcement Learning with Probabilistic Control Barrier Functions
for Ramp Merging
- Title(参考訳): ランプマージのための確率的制御障壁関数を用いた安全強化学習
- Authors: Soumith Udatha, Yiwei Lyu, John Dolan
- Abstract要約: 我々は、強化学習ポリシーに組み込まれた制御障壁関数を用いて、自動運転車の性能を最適化する。
提案アルゴリズムは、安全なランプマージアルゴリズムだけではなく、高速道路のランプマージに対処するための安全な自律運転アルゴリズムである。
- 参考スコア(独自算出の注目度): 7.103977648997475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prior work has looked at applying reinforcement learning and imitation
learning approaches to autonomous driving scenarios, but either the safety or
the efficiency of the algorithm is compromised. With the use of control barrier
functions embedded into the reinforcement learning policy, we arrive at safe
policies to optimize the performance of the autonomous driving vehicle.
However, control barrier functions need a good approximation of the model of
the car. We use probabilistic control barrier functions as an estimate of the
model uncertainty. The algorithm is implemented as an online version in the
CARLA (Dosovitskiy et al., 2017) Simulator and as an offline version on a
dataset extracted from the NGSIM Database. The proposed algorithm is not just a
safe ramp merging algorithm but a safe autonomous driving algorithm applied to
address ramp merging on highways.
- Abstract(参考訳): 以前の研究では、強化学習と模倣学習のアプローチを自動運転シナリオに適用することを検討したが、安全性とアルゴリズムの効率は損なわれた。
強化学習ポリシーに組み込まれた制御バリア機能を利用することで、自動運転車の性能を最適化する安全なポリシーにたどり着く。
しかし、制御障壁関数は車のモデルの適切な近似を必要とする。
モデルの不確実性の推定には確率的制御障壁関数を用いる。
このアルゴリズムは、CARLA(Dosovitskiy et al., 2017)シミュレータのオンライン版として実装され、NGSIMデータベースから抽出されたデータセットのオフライン版として実装されている。
提案アルゴリズムは、安全なランプマージアルゴリズムだけではなく、高速道路のランプマージに対処するための安全な自律運転アルゴリズムである。
関連論文リスト
- Automatic driving lane change safety prediction model based on LSTM [3.8749946206111603]
LSTMネットワークに基づく軌道予測法は、長い時間領域における軌道予測において明らかな利点がある。
その結果、従来のモデルベース手法と比較して、LSTMネットワークに基づく軌道予測法は、長い時間領域における軌道予測において明らかな利点があることが示された。
論文 参考訳(メタデータ) (2024-02-28T12:34:04Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Tackling Real-World Autonomous Driving using Deep Reinforcement Learning [63.3756530844707]
本研究では,加速と操舵角度を予測するニューラルネットワークを学習するモデルレスディープ強化学習プランナを提案する。
実際の自動運転車にシステムをデプロイするために、我々は小さなニューラルネットワークで表されるモジュールも開発する。
論文 参考訳(メタデータ) (2022-07-05T16:33:20Z) - Learning Optimal Antenna Tilt Control Policies: A Contextual Linear
Bandit Approach [65.27783264330711]
セルラーネットワークにおけるアンテナ傾きの制御は、ネットワークのカバレッジとキャパシティの間の効率的なトレードオフに到達するために不可欠である。
既存のデータから最適な傾き制御ポリシーを学習するアルゴリズムを考案する。
従来のルールベースの学習アルゴリズムよりもはるかに少ないデータサンプルを用いて最適な傾き更新ポリシーを作成できることを示す。
論文 参考訳(メタデータ) (2022-01-06T18:24:30Z) - Model-Based Safe Reinforcement Learning with Time-Varying State and
Control Constraints: An Application to Intelligent Vehicles [13.40143623056186]
本稿では、時間変化状態と制御制約を持つ非線形システムの最適制御のための安全なRLアルゴリズムを提案する。
多段階の政策評価機構が提案され、時間変化による安全制約の下での政策の安全性リスクを予測し、安全更新を誘導する。
提案アルゴリズムは、シミュレーションされたセーフティガイム環境において、最先端のRLアルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2021-12-18T10:45:31Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - Driving-Policy Adaptive Safeguard for Autonomous Vehicles Using
Reinforcement Learning [19.71676985220504]
本稿では,衝突回避戦略とアクティベーション機能を含むDPAS設計を提案する。
運転政策適応型アクティベーション機能は、緊急脅威が検出された場合に、現在の運転方針リスクを動的に評価し、起動する必要がある。
実験の結果は自然発生運転データにより校正され, より多くの介入を伴わずに, 衝突速度を著しく低減することを示す。
論文 参考訳(メタデータ) (2020-12-02T08:01:53Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。