論文の概要: Safe Real-World Reinforcement Learning for Mobile Agent Obstacle
Avoidance
- arxiv url: http://arxiv.org/abs/2209.11789v1
- Date: Fri, 23 Sep 2022 18:08:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:58:07.970273
- Title: Safe Real-World Reinforcement Learning for Mobile Agent Obstacle
Avoidance
- Title(参考訳): 移動エージェント障害物回避のための安全な実世界の強化学習
- Authors: Mario Srouji, Wei Ding, Hubert Tsai, Ali Farhadi, Jian Zhang
- Abstract要約: 本稿では,実世界の強化学習(RL),検索に基づくオンライン軌道計画,自動緊急介入を組み合わせた効率的な衝突回避システムを提案する。
実世界の実験では、いくつかのベースラインと比較すると、私たちのアプローチは平均速度の向上、クラッシュ率の低下、目標達成率の向上、オーバーヘッドの低減、全体的なコントロールのスムーズさを享受しています。
- 参考スコア(独自算出の注目度): 35.897654619015235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collision avoidance is key for mobile robots and agents to operate safely in
the real world. In this work, we present an efficient and effective collision
avoidance system that combines real-world reinforcement learning (RL),
search-based online trajectory planning, and automatic emergency intervention,
e.g. automatic emergency braking (AEB). The goal of the RL is to learn
effective search heuristics that speed up the search for collision-free
trajectory and reduce the frequency of triggering automatic emergency
interventions. This novel setup enables RL to learn safely and directly on
mobile robots in a real-world indoor environment, minimizing actual crashes
even during training. Our real-world experiments show that, when compared with
several baselines, our approach enjoys a higher average speed, lower crash
rate, higher goals reached rate, smaller computation overhead, and smoother
overall control.
- Abstract(参考訳): 衝突回避は、現実世界で安全に動く移動ロボットやエージェントにとって重要だ。
本研究では,実世界の強化学習(rl),検索に基づくオンライン軌道計画,自動緊急ブレーキ(aeb)などの自動緊急介入を組み合わせた,効率的かつ効果的な衝突回避システムを提案する。
rlの目的は、衝突のない軌道の探索をスピードアップする効果的な探索ヒューリスティックを学習し、自動緊急介入を引き起こす頻度を減らすことである。
この新しいセットアップにより、RLは実際の屋内環境における移動ロボットの安全かつ直接的に学習でき、訓練中であっても実際のクラッシュを最小限に抑えることができる。
実世界の実験では、いくつかのベースラインと比較すると、我々のアプローチは平均速度の向上、クラッシュ率の低下、目標到達率の向上、計算オーバーヘッドの削減、全体的な制御のスムーズさが示されている。
関連論文リスト
- RACER: Epistemic Risk-Sensitive RL Enables Fast Driving with Fewer Crashes [57.319845580050924]
本稿では,リスク感応制御と適応行動空間のカリキュラムを組み合わせた強化学習フレームワークを提案する。
提案アルゴリズムは,現実世界のオフロード運転タスクに対して,高速なポリシーを学習可能であることを示す。
論文 参考訳(メタデータ) (2024-05-07T23:32:36Z) - Agile But Safe: Learning Collision-Free High-Speed Legged Locomotion [13.647294304606316]
本稿では,四足歩行ロボットのための学習ベースの制御フレームワークであるAgile But Safe(ABS)を紹介する。
ABSには障害の中でアジャイルモータースキルを実行するためのアジャイルポリシと、障害を防止するためのリカバリポリシが含まれています。
トレーニングプロセスには、アジャイルポリシ、リーチアビドバリューネットワーク、リカバリポリシ、排他的表現ネットワークの学習が含まれる。
論文 参考訳(メタデータ) (2024-01-31T03:58:28Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - A Multiplicative Value Function for Safe and Efficient Reinforcement
Learning [131.96501469927733]
本稿では,安全評論家と報酬評論家からなる新しい乗法値関数を持つモデルフリーRLアルゴリズムを提案する。
安全評論家は、制約違反の確率を予測し、制限のないリターンのみを見積もる報酬批評家を割引する。
安全制約を付加した古典的RLベンチマークや、画像を用いたロボットナビゲーションタスク、生のライダースキャンを観察する4つの環境において、本手法の評価を行った。
論文 参考訳(メタデータ) (2023-03-07T18:29:15Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Explainable and Safe Reinforcement Learning for Autonomous Air Mobility [13.038383326602764]
本稿では,自律飛行におけるコンフリクト解決を支援するために,新しい深部強化学習(DRL)コントローラを提案する。
1) 結合したQ値学習モデルを安全意識と効率性(目標に到達)に分解する,完全に説明可能なDRLフレームワークを設計する。
また,安全指向攻撃と効率指向攻撃の両方を強制できる敵攻撃戦略を提案する。
論文 参考訳(メタデータ) (2022-11-24T08:47:06Z) - Safe Reinforcement Learning using Data-Driven Predictive Control [0.5459797813771499]
安全でない動作のフィルタとして機能するデータ駆動型安全層を提案する。
安全層は、提案されたアクションが安全でない場合にRLエージェントをペナルティ化し、最も安全なものに置き換える。
本手法は,ロボットナビゲーション問題において,最先端の安全RL法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-20T17:10:40Z) - A Safe Hierarchical Planning Framework for Complex Driving Scenarios
based on Reinforcement Learning [23.007323699176467]
低レベルコントローラのコーディネーターとして,低レベルセーフコントローラセットと高レベル強化学習アルゴリズム(H-CtRL)を用いた階層的行動計画フレームワークを提案する。
低レベルの最適化/サンプリングベースのコントローラによって安全性が保証され、高レベルの強化学習アルゴリズムはH-CtRLを適応的で効率的な行動プランナにする。
提案したH-CtRLは,安全性と効率の両面で性能を満足して,様々な現実的なシミュレーションシナリオにおいて有効であることが証明された。
論文 参考訳(メタデータ) (2021-01-17T20:45:42Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。