論文の概要: Safe Learning in Robotics: From Learning-Based Control to Safe
Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2108.06266v1
- Date: Fri, 13 Aug 2021 14:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 12:59:55.333937
- Title: Safe Learning in Robotics: From Learning-Based Control to Safe
Reinforcement Learning
- Title(参考訳): ロボット工学における安全学習: 学習に基づく制御から安全強化学習へ
- Authors: Lukas Brunke, Melissa Greeff, Adam W. Hall, Zhaocong Yuan, Siqi Zhou,
Jacopo Panerati, Angela P. Schoellig (University of Toronto Institute for
Aerospace Studies, University of Toronto Robotics Institute, Vector Institute
for Artificial Intelligence)
- Abstract要約: 我々は、機械学習を用いて、不確実性の下で安全な意思決定を実現するための最近の進歩についてレビューする。
不安定なダイナミクスを学習することで、パフォーマンスを安全に向上する学習ベースの制御アプローチ。
今後数年間、ロボット学習の分野を牽引するオープンな課題をいくつか取り上げる。
- 参考スコア(独自算出の注目度): 3.9258421820410225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The last half-decade has seen a steep rise in the number of contributions on
safe learning methods for real-world robotic deployments from both the control
and reinforcement learning communities. This article provides a concise but
holistic review of the recent advances made in using machine learning to
achieve safe decision making under uncertainties, with a focus on unifying the
language and frameworks used in control theory and reinforcement learning
research. Our review includes: learning-based control approaches that safely
improve performance by learning the uncertain dynamics, reinforcement learning
approaches that encourage safety or robustness, and methods that can formally
certify the safety of a learned control policy. As data- and learning-based
robot control methods continue to gain traction, researchers must understand
when and how to best leverage them in real-world scenarios where safety is
imperative, such as when operating in close proximity to humans. We highlight
some of the open challenges that will drive the field of robot learning in the
coming years, and emphasize the need for realistic physics-based benchmarks to
facilitate fair comparisons between control and reinforcement learning
approaches.
- Abstract(参考訳): この半減期は、コントロールと強化の両方の学習コミュニティから、現実世界のロボット展開のための安全な学習方法への貢献が急増している。
本稿では、制御理論と強化学習研究で使用される言語とフレームワークの統合に焦点をあて、不確実性の下で安全な意思決定を実現するために機械学習を用いた最近の進歩を簡潔に、包括的にレビューする。
不確定なダイナミクスを学習することで、パフォーマンスを安全に向上させる学習ベースの制御アプローチ、安全性や堅牢性を促進する強化学習アプローチ、学習した制御ポリシーの安全性を正式に証明する手法などです。
データと学習に基づくロボット制御の手法が勢いを増し続けており、研究者は、人間の近くで操作する場合など、安全性が不可欠である現実のシナリオにおいて、いつ、どのようにそれらを活用するかを理解する必要がある。
ロボット学習の分野を今後数年間で推進するオープン課題を浮き彫りにして,制御と強化学習のアプローチを公平に比較するための,現実的な物理ベースのベンチマークの必要性を強調した。
関連論文リスト
- Handling Long-Term Safety and Uncertainty in Safe Reinforcement Learning [17.856459823003277]
安全性は、現実世界のロボットに強化学習技術が配備されるのを防ぐ重要な問題の1つだ。
本稿では,安全な探索手法であるATACOMを学習可能な制約で拡張することにより,そのギャップを埋める。
論文 参考訳(メタデータ) (2024-09-18T15:08:41Z) - Learning Control Barrier Functions and their application in Reinforcement Learning: A Survey [11.180978323594822]
強化学習は、新しいロボット行動を開発するための強力な技術である。
安全性の考慮事項を取り入れ、実際のロボットへの迅速な移動を可能にし、生涯の学習を容易にすることを目的としている。
安全な強化学習における有望なアプローチの1つは、制御障壁関数の使用である。
論文 参考訳(メタデータ) (2024-04-22T22:52:14Z) - Deception Game: Closing the Safety-Learning Loop in Interactive Robot
Autonomy [7.915956857741506]
既存の安全手法は、ロボットが実行時に学習し適応する能力を無視することが多く、過度に保守的な行動を引き起こす。
本稿では,ロボットの進化する不確実性を明示的に考慮した安全制御ポリシを合成するための,新しいクローズドループパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-03T20:34:01Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Barrier Certified Safety Learning Control: When Sum-of-Square
Programming Meets Reinforcement Learning [0.0]
本研究は、強化学習よりも制御障壁関数を採用し、安全性を完全に維持するための補償アルゴリズムを提案する。
2次プログラミングに基づく強化学習法と比較して、我々の2次プログラミングに基づく強化学習は、その優位性を示している。
論文 参考訳(メタデータ) (2022-06-16T04:38:50Z) - Revisiting the Adversarial Robustness-Accuracy Tradeoff in Robot
Learning [121.9708998627352]
近年の研究では、現実的なロボット学習の応用において、対人訓練の効果が公平なトレードオフを起こさないことが示されている。
本研究は,ロボット学習におけるロバストネスと精度のトレードオフを再考し,最近のロバストトレーニング手法と理論の進歩により,現実のロボット応用に適した対人トレーニングが可能かどうかを解析する。
論文 参考訳(メタデータ) (2022-04-15T08:12:15Z) - safe-control-gym: a Unified Benchmark Suite for Safe Learning-based
Control and Reinforcement Learning [3.9258421820410225]
我々はSafe-control-gymと呼ばれるオープンソースのベンチマークスイートを提案する。
当社の出発点はOpenAIのGym APIで、強化学習研究における事実上の標準のひとつです。
制御性能, データの効率, 安全性を定量的に比較するために, 安全な制御ジャムをどう使うかを示す。
論文 参考訳(メタデータ) (2021-09-13T21:09:28Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Training Adversarial Agents to Exploit Weaknesses in Deep Control
Policies [47.08581439933752]
対戦型強化学習に基づく自動ブラックボックステストフレームワークを提案する。
提案手法は, オンラインテストにおいて明らかでないコントロールポリシの両方において, 弱点を見出すことができることを示す。
論文 参考訳(メタデータ) (2020-02-27T13:14:53Z) - Cautious Reinforcement Learning with Logical Constraints [78.96597639789279]
適応型安全なパッドディングは、学習プロセス中の安全性を確保しつつ、RL(Reinforcement Learning)に最適な制御ポリシーの合成を強制する。
理論的な保証は、合成されたポリシーの最適性と学習アルゴリズムの収束について利用できる。
論文 参考訳(メタデータ) (2020-02-26T00:01:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。