論文の概要: Learning-Enhanced Safeguard Control for High-Relative-Degree Systems: Robust Optimization under Disturbances and Faults
- arxiv url: http://arxiv.org/abs/2501.15373v1
- Date: Sun, 26 Jan 2025 03:03:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:35.780498
- Title: Learning-Enhanced Safeguard Control for High-Relative-Degree Systems: Robust Optimization under Disturbances and Faults
- Title(参考訳): 高信頼度システムのための学習強化セーフガード制御:外乱・故障時のロバスト最適化
- Authors: Xinyang Wang, Hongwei Zhang, Shimin Wang, Wei Xiao, Martin Guay,
- Abstract要約: 本稿では,強化学習に基づく最適制御問題における安全性保証によるシステム性能の向上を目的とする。
安全性の勾配と性能の勾配の関係を定量化するために,勾配類似性の概念を提案する。
安全性を保証するため、安全なRLフレームワークに勾配操作と適応機構を導入している。
- 参考スコア(独自算出の注目度): 6.535600892275023
- License:
- Abstract: Merely pursuing performance may adversely affect the safety, while a conservative policy for safe exploration will degrade the performance. How to balance the safety and performance in learning-based control problems is an interesting yet challenging issue. This paper aims to enhance system performance with safety guarantee in solving the reinforcement learning (RL)-based optimal control problems of nonlinear systems subject to high-relative-degree state constraints and unknown time-varying disturbance/actuator faults. First, to combine control barrier functions (CBFs) with RL, a new type of CBFs, termed high-order reciprocal control barrier function (HO-RCBF) is proposed to deal with high-relative-degree constraints during the learning process. Then, the concept of gradient similarity is proposed to quantify the relationship between the gradient of safety and the gradient of performance. Finally, gradient manipulation and adaptive mechanisms are introduced in the safe RL framework to enhance the performance with a safety guarantee. Two simulation examples illustrate that the proposed safe RL framework can address high-relative-degree constraint, enhance safety robustness and improve system performance.
- Abstract(参考訳): 単にパフォーマンスを追求することが安全性に悪影響を及ぼす可能性がある一方で、安全な探索のための保守的な政策はパフォーマンスを低下させる。
学習ベースの制御問題における安全性とパフォーマンスのバランスをとる方法は、興味深いが難しい問題である。
本稿では,RLに基づく非線形系の高次状態制約と未知の時間変動変動・アクチュエータ故障を考慮した最適制御問題の解法において,安全保証によるシステム性能の向上を図ることを目的とする。
まず、制御障壁関数(CBF)と新しいタイプのCBFであるRLを組み合わせるために、学習過程における高相対度制約に対処するために、高次相互制御障壁関数(HO-RCBF)と呼ぶ。
そこで, 安全性の勾配と性能の勾配の関係を定量化するために, 勾配類似性の概念を提案する。
最後に、安全なRLフレームワークに勾配操作と適応機構を導入し、安全性を保証する。
2つのシミュレーション例は、提案した安全なRLフレームワークが高相対性制約に対処し、安全性の堅牢性を高め、システム性能を向上させることを示している。
関連論文リスト
- A Physics-Informed Machine Learning Framework for Safe and Optimal Control of Autonomous Systems [8.347548017994178]
安全性とパフォーマンスは競合する目標になり得るため、共同最適化が難しくなる。
本稿では,性能目標をコスト関数で符号化し,安全性要件を状態制約として課す,状態制約付き最適制御問題を提案する。
結果値関数はハミルトン・ヤコビ・ベルマン方程式を満たすことを示した。
論文 参考訳(メタデータ) (2025-02-16T09:46:17Z) - Pareto Control Barrier Function for Inner Safe Set Maximization Under Input Constraints [50.920465513162334]
入力制約下での動的システムの内部安全集合を最大化するPCBFアルゴリズムを提案する。
逆振り子に対するハミルトン・ヤコビの到達性との比較と,12次元四元数系のシミュレーションにより,その有効性を検証する。
その結果,PCBFは既存の手法を一貫して上回り,入力制約下での安全性を確保した。
論文 参考訳(メタデータ) (2024-10-05T18:45:19Z) - Reinforcement Learning-based Receding Horizon Control using Adaptive Control Barrier Functions for Safety-Critical Systems [14.166970599802324]
最適制御法は、安全クリティカルな問題に対する解決策を提供するが、容易に難解になる。
モデル予測制御を利用した強化学習に基づく回帰水平制御手法を提案する。
我々は、コネクテッド・アンド・オートマチック・ビークルにおける自動マージ制御問題に適用し、本手法の有効性を検証した。
論文 参考訳(メタデータ) (2024-03-26T02:49:08Z) - Sampling-based Safe Reinforcement Learning for Nonlinear Dynamical
Systems [15.863561935347692]
非線形力学系の制御のための安全かつ収束性のある強化学習アルゴリズムを開発した。
制御とRLの交差点における最近の進歩は、ハードセーフティ制約を強制するための2段階の安全フィルタアプローチに従っている。
我々は,古典的な収束保証を享受するRLコントローラを学習する,一段階のサンプリングに基づくハード制約満足度へのアプローチを開発する。
論文 参考訳(メタデータ) (2024-03-06T19:39:20Z) - Safe Neural Control for Non-Affine Control Systems with Differentiable
Control Barrier Functions [58.19198103790931]
本稿では,非アフィン制御系における安全クリティカル制御の問題に対処する。
制御バリア関数(CBF)を用いて,状態制約と制御制約の2次コストの最適化を2次プログラムのシーケンス(QP)にサブ最適化できることが示されている。
我々は,高次CBFをニューラル常微分方程式に基づく学習モデルに差分CBFとして組み込んで,非アフィン制御系の安全性を保証する。
論文 参考訳(メタデータ) (2023-09-06T05:35:48Z) - Stable and Safe Reinforcement Learning via a Barrier-Lyapunov
Actor-Critic Approach [1.8924647429604111]
Barrier-Lyapunov Actor-Critic(BLAC)フレームワークは、前述のシステムの安全性と安定性の維持を支援する。
RLベースのコントローラが有効な制御信号を提供できない場合、追加のバックアップコントローラが導入される。
論文 参考訳(メタデータ) (2023-04-08T16:48:49Z) - Enforcing Hard Constraints with Soft Barriers: Safe Reinforcement
Learning in Unknown Stochastic Environments [84.3830478851369]
本研究では,環境を協調的に学習し,制御ポリシーを最適化する安全な強化学習手法を提案する。
本手法は, 安全性の制約を効果的に適用し, シミュレーションにより測定したシステム安全率においてCMDPベースのベースライン法を著しく上回っている。
論文 参考訳(メタデータ) (2022-09-29T20:49:25Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Safe Model-Based Reinforcement Learning Using Robust Control Barrier
Functions [43.713259595810854]
安全に対処する一般的なアプローチとして、安全層が追加され、RLアクションを安全な一連のアクションに投影する。
本稿では,モデルベースRLフレームワークにおけるロバスト制御バリア機能層としての安全性について述べる。
論文 参考訳(メタデータ) (2021-10-11T17:00:45Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Learning Robust Hybrid Control Barrier Functions for Uncertain Systems [68.30783663518821]
我々は,ロバストな安全を確保する制御則を合成する手段として,ロバストなハイブリッド制御障壁関数を提案する。
この概念に基づき,データからロバストなハイブリッド制御障壁関数を学習するための最適化問題を定式化する。
我々の技術は、モデル不確実性の対象となるコンパス歩行歩行者の魅力領域を安全に拡張することを可能にする。
論文 参考訳(メタデータ) (2021-01-16T17:53:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。