論文の概要: Multi-Step Model Predictive Safety Filters: Reducing Chattering by
Increasing the Prediction Horizon
- arxiv url: http://arxiv.org/abs/2309.11453v1
- Date: Wed, 20 Sep 2023 16:35:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-21 15:32:05.568300
- Title: Multi-Step Model Predictive Safety Filters: Reducing Chattering by
Increasing the Prediction Horizon
- Title(参考訳): マルチステップモデル予測安全フィルタ:予測水平増加によるチャタリング低減
- Authors: Federico Pizarro Bejarano, Lukas Brunke, and Angela P. Schoellig
- Abstract要約: 安全フィルタを用いて学習制御ポリシを増強することにより、状態と入力制約の満足度を保証できる。
モデル予測安全フィルタ(MPSF)は、モデル予測制御(MPC)に基づく一般的な安全フィルタリング手法である。
- 参考スコア(独自算出の注目度): 7.55113002732746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based controllers have demonstrated superior performance compared to
classical controllers in various tasks. However, providing safety guarantees is
not trivial. Safety, the satisfaction of state and input constraints, can be
guaranteed by augmenting the learned control policy with a safety filter. Model
predictive safety filters (MPSFs) are a common safety filtering approach based
on model predictive control (MPC). MPSFs seek to guarantee safety while
minimizing the difference between the proposed and applied inputs in the
immediate next time step. This limited foresight can lead to jerky motions and
undesired oscillations close to constraint boundaries, known as chattering. In
this paper, we reduce chattering by considering input corrections over a longer
horizon. Under the assumption of bounded model uncertainties, we prove
recursive feasibility using techniques from robust MPC. We verified the
proposed approach in both extensive simulation and quadrotor experiments. In
experiments with a Crazyflie 2.0 drone, we show that, in addition to preserving
the desired safety guarantees, the proposed MPSF reduces chattering by more
than a factor of 4 compared to previous MPSF formulations.
- Abstract(参考訳): 学習ベースのコントローラは、様々なタスクで古典的なコントローラよりも優れたパフォーマンスを示している。
しかし、安全性の保証は容易ではない。
安全フィルタを用いて学習制御ポリシを増強することにより、状態と入力制約の満足度を保証できる。
モデル予測安全フィルタ(MPSF)はモデル予測制御(MPC)に基づく一般的な安全フィルタリング手法である。
MPSFは、提案した入力と適用した入力の差を最小限に抑えつつ、安全性を保証する。
この制限された予見は、ビタリングとして知られる制約境界に近い不安定な動きと望ましくない振動に繋がる可能性がある。
本稿では,より長い地平線上での入力補正を考慮し,おしゃべりを減らす。
有界モデルの不確かさを仮定し、ロバストMPCの手法を用いて再帰的実現可能性を証明する。
提案手法を大規模シミュレーションと四重項実験の両方で検証した。
Crazyflie 2.0ドローンによる実験では、望ましい安全保証の保存に加えて、提案されたMPSFは、以前のMPSFの定式化と比較して、チャットを4倍以上削減する。
関連論文リスト
- From Uncertain to Safe: Conformal Fine-Tuning of Diffusion Models for Safe PDE Control [16.249515106834355]
我々は,安全制約下での最適制御を実現するために,PDE制御のためのセーフ拡散モデル(SafeDiffCon)を提案する。
提案手法は,安全制約を満たす制御シーケンスを生成するために,事前学習した拡散モデルをポストトレーニングする。
我々は,1次元バーガー方程式,2次元非圧縮流体,制御核融合問題という3つの制御課題についてSafeDiffConを評価した。
論文 参考訳(メタデータ) (2025-02-04T10:42:30Z) - Safety in safe Bayesian optimization and its ramifications for control [6.450289319821615]
制御工学では、事前に設計されたコントローラのパラメータは、しばしば植物とのフィードバックでオンラインで調整される。
特に、この重要な問題、特にベイズ最適化(BO)のために機械学習手法が展開されている。
まず、SafeOpt型アルゴリズムは定量的不確実性境界に依存し、ほとんどの実装は理論上はサポートされていない。
リプシッツのみの安全ベイズ最適化(LoSBO)を提案する。
論文 参考訳(メタデータ) (2025-01-23T14:24:11Z) - Tilted Quantile Gradient Updates for Quantile-Constrained Reinforcement Learning [12.721239079824622]
予測型近似を使わずに高いレベルの安全性を実現する安全な強化学習(RL)パラダイムを提案する。
非対称分布密度を補償するために、量子勾配の傾き更新戦略を実装した。
実験により、提案モデルが安全性要件(量子的制約)を完全に満たし、高いリターンで最先端のベンチマークより優れていることが示された。
論文 参考訳(メタデータ) (2024-12-17T18:58:00Z) - A Safety Modulator Actor-Critic Method in Model-Free Safe Reinforcement Learning and Application in UAV Hovering [6.529120583320167]
本稿では、モデルフリーな安全強化学習(RL)における安全性制約と過大評価を解消する安全変調器アクタ・クリティカル(SMAC)手法を提案する。
無人航空機(UAV)ホバリングにおけるシミュレーションと実世界のシナリオ実験の両方で、SMACが安全性の制約を効果的に維持し、メインストリームのベースラインアルゴリズムより優れていることを確認した。
論文 参考訳(メタデータ) (2024-10-09T13:07:24Z) - Leveraging Approximate Model-based Shielding for Probabilistic Safety
Guarantees in Continuous Environments [63.053364805943026]
近似モデルベースの遮蔽フレームワークを連続的な設定に拡張する。
特に、テストベッドとしてSafety Gymを使用し、一般的な制約付きRLアルゴリズムとABBSのより直接的な比較を可能にします。
論文 参考訳(メタデータ) (2024-02-01T17:55:08Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Differentiable Safe Controller Design through Control Barrier Functions [8.283758049749782]
学習ベースのコントローラは、高い経験的性能を示すことができるが、正式な安全保証がない。
制御障壁関数(CBF)は、学習ベースコントローラの出力を監視・修正するための安全フィルタとして応用されている。
本稿では,CBF ベースの安全層を識別可能な NN コントローラを提案する。
論文 参考訳(メタデータ) (2022-09-20T23:03:22Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。