論文の概要: Uncertainty-Aware Constraint Learning for Adaptive Safe Motion Planning
from Demonstrations
- arxiv url: http://arxiv.org/abs/2011.04141v1
- Date: Mon, 9 Nov 2020 01:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 02:40:23.153291
- Title: Uncertainty-Aware Constraint Learning for Adaptive Safe Motion Planning
from Demonstrations
- Title(参考訳): 適応型安全動作計画のための不確実性を考慮した制約学習
- Authors: Glen Chou, Necmiye Ozay, Dmitry Berenson
- Abstract要約: 本稿では,実証から不確実な制約を満たすための学習方法を提案する。
提案手法はロバスト最適化を用いて,実証と整合した制約の潜在的無限の集合に対する信念を得る。
我々は,我々の制約信念の正確さと計画の安全性に関する確率的保証を導出する。
- 参考スコア(独自算出の注目度): 6.950510860295866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for learning to satisfy uncertain constraints from
demonstrations. Our method uses robust optimization to obtain a belief over the
potentially infinite set of possible constraints consistent with the
demonstrations, and then uses this belief to plan trajectories that trade off
performance with satisfying the possible constraints. We use these trajectories
in a closed-loop policy that executes and replans using belief updates, which
incorporate data gathered during execution. We derive guarantees on the
accuracy of our constraint belief and probabilistic guarantees on plan safety.
We present results on a 7-DOF arm and 12D quadrotor, showing our method can
learn to satisfy high-dimensional (up to 30D) uncertain constraints, and
outperforms baselines in safety and efficiency.
- Abstract(参考訳): 本稿では,実証から不確実な制約を満たすための学習方法を提案する。
提案手法は,実演と整合した潜在的無限の制約の集合に対する信念を得るために頑健な最適化を用いて,その制約を満たすために性能をトレードオフするトラジェクトリを計画する。
我々はこれらのトラジェクトリをクローズドループポリシーで使用し、実行中に収集されたデータを組み込んだ信頼更新を用いて実行および計画を行う。
我々は,制約信念の正確さと計画の安全性に関する確率的保証を導出する。
提案手法は, 高次元(最大30D)の不確実な制約を満たすことを学習し, 安全性と効率の基準線より優れていることを示す。
関連論文リスト
- SafeDiffuser: Safe Planning with Diffusion Probabilistic Models [97.80042457099718]
拡散モデルに基づくアプローチは、データ駆動計画において有望であるが、安全保証はない。
我々は,拡散確率モデルが仕様を満たすことを保証するために,SafeDiffuserと呼ばれる新しい手法を提案する。
提案手法は,迷路経路の生成,足歩行ロボットの移動,空間操作など,安全な計画作業の一連のテストを行う。
論文 参考訳(メタデータ) (2023-05-31T19:38:12Z) - Statistical Safety and Robustness Guarantees for Feedback Motion
Planning of Unknown Underactuated Stochastic Systems [1.0323063834827415]
本研究では, 平均力学モデルを用いたサンプリングベースプランナを提案し, 学習外乱境界による閉ループ追従誤差を同時に有界化する。
この保証は,10次元四角形ロボットのシミュレーションや,クレージーフライ四角形ロボットとクリアパスジャカルロボットの現実世界でのシミュレーションにおいて,経験的安全性に変換されることを検証した。
論文 参考訳(メタデータ) (2022-12-13T19:38:39Z) - Provably Safe Reinforcement Learning via Action Projection using
Reachability Analysis and Polynomial Zonotopes [9.861651769846578]
リーチ回避タスクを解く非線形連続システムの安全シールドを開発する。
我々の手法はアクションプロジェクションと呼ばれ、混合整数最適化によって実装されている。
アクションプロジェクションの他の手法とは対照的に、我々の安全シールドは入力制約や障害物を効率的に処理できる。
論文 参考訳(メタデータ) (2022-10-19T16:06:12Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Planning with Learned Dynamics: Probabilistic Guarantees on Safety and
Reachability via Lipschitz Constants [7.216586291939535]
未知のダイナミクスを持つシステムのフィードバック動作計画法を提案する。
安全、到達可能性、目標安定性の保証を提供します。
提案手法は,6次元立方体と7DOFクカアームの学習モデルを用いて計画する。
論文 参考訳(メタデータ) (2020-10-18T14:17:53Z) - Chance-Constrained Trajectory Optimization for Safe Exploration and
Learning of Nonlinear Systems [81.7983463275447]
学習に基づく制御アルゴリズムは、訓練のための豊富な監督を伴うデータ収集を必要とする。
本稿では,機会制約付き最適制御と動的学習とフィードバック制御を統合した安全な探索による最適動作計画のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-09T05:57:43Z) - Learning Control Barrier Functions from Expert Demonstrations [69.23675822701357]
制御障壁関数(CBF)に基づく安全な制御器合成のための学習に基づくアプローチを提案する。
最適化に基づくCBFの学習手法を解析し、基礎となる力学系のリプシッツ仮定の下で証明可能な安全保証を享受する。
私たちの知る限りでは、これらはデータから確実に安全な制御障壁関数を学習する最初の結果です。
論文 参考訳(メタデータ) (2020-04-07T12:29:06Z) - Cautious Reinforcement Learning with Logical Constraints [78.96597639789279]
適応型安全なパッドディングは、学習プロセス中の安全性を確保しつつ、RL(Reinforcement Learning)に最適な制御ポリシーの合成を強制する。
理論的な保証は、合成されたポリシーの最適性と学習アルゴリズムの収束について利用できる。
論文 参考訳(メタデータ) (2020-02-26T00:01:08Z) - Learning Constraints from Locally-Optimal Demonstrations under Cost
Function Uncertainty [6.950510860295866]
本稿では,最適化されたコスト関数が学習者に不確実な地域最適実証からパラメトリック制約を学習するアルゴリズムを提案する。
本手法では、混合整数線形プログラム(MILP)における実演のKKT最適条件を用いて、実演の局所的最適性に整合した制約を学習する。
7-DOFアームと四重項の制約を学習することで高次元制約とシステムの評価を行い、競合する制約学習手法よりも優れており、環境における新しい制約満足軌道の計画に効果的に利用できることを示す。
論文 参考訳(メタデータ) (2020-01-25T15:57:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。