論文の概要: Multi-Step Model Predictive Safety Filters: Reducing Chattering by
Increasing the Prediction Horizon
- arxiv url: http://arxiv.org/abs/2309.11453v1
- Date: Wed, 20 Sep 2023 16:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 15:32:05.568300
- Title: Multi-Step Model Predictive Safety Filters: Reducing Chattering by
Increasing the Prediction Horizon
- Title(参考訳): マルチステップモデル予測安全フィルタ:予測水平増加によるチャタリング低減
- Authors: Federico Pizarro Bejarano, Lukas Brunke, and Angela P. Schoellig
- Abstract要約: 安全フィルタを用いて学習制御ポリシを増強することにより、状態と入力制約の満足度を保証できる。
モデル予測安全フィルタ(MPSF)は、モデル予測制御(MPC)に基づく一般的な安全フィルタリング手法である。
- 参考スコア(独自算出の注目度): 7.55113002732746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based controllers have demonstrated superior performance compared to
classical controllers in various tasks. However, providing safety guarantees is
not trivial. Safety, the satisfaction of state and input constraints, can be
guaranteed by augmenting the learned control policy with a safety filter. Model
predictive safety filters (MPSFs) are a common safety filtering approach based
on model predictive control (MPC). MPSFs seek to guarantee safety while
minimizing the difference between the proposed and applied inputs in the
immediate next time step. This limited foresight can lead to jerky motions and
undesired oscillations close to constraint boundaries, known as chattering. In
this paper, we reduce chattering by considering input corrections over a longer
horizon. Under the assumption of bounded model uncertainties, we prove
recursive feasibility using techniques from robust MPC. We verified the
proposed approach in both extensive simulation and quadrotor experiments. In
experiments with a Crazyflie 2.0 drone, we show that, in addition to preserving
the desired safety guarantees, the proposed MPSF reduces chattering by more
than a factor of 4 compared to previous MPSF formulations.
- Abstract(参考訳): 学習ベースのコントローラは、様々なタスクで古典的なコントローラよりも優れたパフォーマンスを示している。
しかし、安全性の保証は容易ではない。
安全フィルタを用いて学習制御ポリシを増強することにより、状態と入力制約の満足度を保証できる。
モデル予測安全フィルタ(MPSF)はモデル予測制御(MPC)に基づく一般的な安全フィルタリング手法である。
MPSFは、提案した入力と適用した入力の差を最小限に抑えつつ、安全性を保証する。
この制限された予見は、ビタリングとして知られる制約境界に近い不安定な動きと望ましくない振動に繋がる可能性がある。
本稿では,より長い地平線上での入力補正を考慮し,おしゃべりを減らす。
有界モデルの不確かさを仮定し、ロバストMPCの手法を用いて再帰的実現可能性を証明する。
提案手法を大規模シミュレーションと四重項実験の両方で検証した。
Crazyflie 2.0ドローンによる実験では、望ましい安全保証の保存に加えて、提案されたMPSFは、以前のMPSFの定式化と比較して、チャットを4倍以上削減する。
関連論文リスト
- A Safety Modulator Actor-Critic Method in Model-Free Safe Reinforcement Learning and Application in UAV Hovering [6.529120583320167]
本稿では、モデルフリーな安全強化学習(RL)における安全性制約と過大評価を解消する安全変調器アクタ・クリティカル(SMAC)手法を提案する。
無人航空機(UAV)ホバリングにおけるシミュレーションと実世界のシナリオ実験の両方で、SMACが安全性の制約を効果的に維持し、メインストリームのベースラインアルゴリズムより優れていることを確認した。
論文 参考訳(メタデータ) (2024-10-09T13:07:24Z) - Leveraging Approximate Model-based Shielding for Probabilistic Safety
Guarantees in Continuous Environments [63.053364805943026]
近似モデルベースの遮蔽フレームワークを連続的な設定に拡張する。
特に、テストベッドとしてSafety Gymを使用し、一般的な制約付きRLアルゴリズムとABBSのより直接的な比較を可能にします。
論文 参考訳(メタデータ) (2024-02-01T17:55:08Z) - Modular Control Architecture for Safe Marine Navigation: Reinforcement Learning and Predictive Safety Filters [0.0]
強化学習は複雑なシナリオに適応するためにますます使われていますが、安全性と安定性を保証するための標準フレームワークは欠如しています。
予測安全フィルタ(PSF)は、明示的な制約処理を伴わずに、学習ベースの制御における制約満足度を確保する、有望なソリューションを提供する。
この手法を海洋航法に適用し,シミュレーションされたCybership IIモデル上でRLとPSFを組み合わせた。
その結果, PSF が安全維持に有効であることは, RL エージェントの学習速度と性能を損なうことなく示され, PSF を使用せずに標準 RL エージェントに対して評価された。
論文 参考訳(メタデータ) (2023-12-04T12:37:54Z) - CaRT: Certified Safety and Robust Tracking in Learning-based Motion
Planning for Multi-Agent Systems [7.77024796789203]
CaRTは、学習ベースのモーションプランニングポリシーの安全性と堅牢性を保証するために、新しい階層的な分散アーキテクチャである。
定性障害や有界障害があっても,CaRTは軌道追跡誤差の安全性と指数関数性を保証する。
本稿では, 非線形動作計画と制御問題のいくつかの例において, CaRTの有効性を実証する。
論文 参考訳(メタデータ) (2023-07-13T21:51:29Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Differentiable Safe Controller Design through Control Barrier Functions [8.283758049749782]
学習ベースのコントローラは、高い経験的性能を示すことができるが、正式な安全保証がない。
制御障壁関数(CBF)は、学習ベースコントローラの出力を監視・修正するための安全フィルタとして応用されている。
本稿では,CBF ベースの安全層を識別可能な NN コントローラを提案する。
論文 参考訳(メタデータ) (2022-09-20T23:03:22Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。