論文の概要: SAFER: Safe Collision Avoidance using Focused and Efficient Trajectory
Search with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2209.11789v2
- Date: Wed, 28 Jun 2023 22:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 19:35:54.443896
- Title: SAFER: Safe Collision Avoidance using Focused and Efficient Trajectory
Search with Reinforcement Learning
- Title(参考訳): SAFER:強化学習による集中的かつ効率的な軌道探索による安全な衝突回避
- Authors: Mario Srouji, Hugues Thomas, Hubert Tsai, Ali Farhadi, Jian Zhang
- Abstract要約: 本稿では,効率的な衝突回避システムSAFERを提案する。
現実世界の強化学習(RL)、検索ベースのオンライン軌道計画、自動緊急介入を組み合わせる。
実世界の実験では、いくつかのベースラインと比較して、我々のアプローチは平均速度を高くし、クラッシュ率を低くし、緊急介入を少なくし、オーバーヘッドを小さくし、全体的な制御をスムーズにしている。
- 参考スコア(独自算出の注目度): 34.934606949086096
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collision avoidance is key for mobile robots and agents to operate safely in
the real world. In this work we present SAFER, an efficient and effective
collision avoidance system that is able to improve safety by correcting the
control commands sent by an operator. It combines real-world reinforcement
learning (RL), search-based online trajectory planning, and automatic emergency
intervention, e.g. automatic emergency braking (AEB). The goal of the RL is to
learn an effective corrective control action that is used in a focused search
for collision-free trajectories, and to reduce the frequency of triggering
automatic emergency braking. This novel setup enables the RL policy to learn
safely and directly on mobile robots in a real-world indoor environment,
minimizing actual crashes even during training. Our real-world experiments show
that, when compared with several baselines, our approach enjoys a higher
average speed, lower crash rate, less emergency intervention, smaller
computation overhead, and smoother overall control.
- Abstract(参考訳): 衝突回避は、現実世界で安全に動く移動ロボットやエージェントにとって重要だ。
本研究では,オペレーターが送信する制御コマンドの修正により安全性を向上させることができる,効率的な衝突回避システムSAFERを提案する。
現実世界の強化学習(RL)、検索ベースのオンライン軌道計画、自動緊急ブレーキ(AEB)などの自動緊急介入を組み合わせる。
RLの目的は、衝突のない軌道の集中探索に使用される効果的な補正制御動作を学習し、自動緊急ブレーキの起動頻度を低減することである。
この新しいセットアップにより、rlポリシーは現実世界の屋内環境でモバイルロボットを安全に直接学習することができ、トレーニング中にも実際のクラッシュを最小限に抑えることができる。
私たちの実世界の実験では、いくつかのベースラインと比較すると、平均速度、クラッシュ率の低下、緊急介入の低減、計算オーバーヘッドの低減、全体的なコントロールの円滑化が期待できます。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Agile But Safe: Learning Collision-Free High-Speed Legged Locomotion [13.647294304606316]
本稿では,四足歩行ロボットのための学習ベースの制御フレームワークであるAgile But Safe(ABS)を紹介する。
ABSには障害の中でアジャイルモータースキルを実行するためのアジャイルポリシと、障害を防止するためのリカバリポリシが含まれています。
トレーニングプロセスには、アジャイルポリシ、リーチアビドバリューネットワーク、リカバリポリシ、排他的表現ネットワークの学習が含まれる。
論文 参考訳(メタデータ) (2024-01-31T03:58:28Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Explainable and Safe Reinforcement Learning for Autonomous Air Mobility [13.038383326602764]
本稿では,自律飛行におけるコンフリクト解決を支援するために,新しい深部強化学習(DRL)コントローラを提案する。
1) 結合したQ値学習モデルを安全意識と効率性(目標に到達)に分解する,完全に説明可能なDRLフレームワークを設計する。
また,安全指向攻撃と効率指向攻撃の両方を強制できる敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2022-11-24T08:47:06Z) - Safe Reinforcement Learning using Data-Driven Predictive Control [0.5459797813771499]
安全でない動作のフィルタとして機能するデータ駆動型安全層を提案する。
安全層は、提案されたアクションが安全でない場合にRLエージェントをペナルティ化し、最も安全なものに置き換える。
本手法は,ロボットナビゲーション問題において,最先端の安全RL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-20T17:10:40Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。