論文の概要: Safe Control and Learning Using the Generalized Action Governor
- arxiv url: http://arxiv.org/abs/2211.12628v2
- Date: Thu, 16 Jan 2025 13:40:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:07:20.647794
- Title: Safe Control and Learning Using the Generalized Action Governor
- Title(参考訳): 包括的行動管理を用いた安全管理と学習
- Authors: Nan Li, Yutong Li, Ilya Kolmanovsky, Anouck Girard, H. Eric Tseng, Dimitar Filev,
- Abstract要約: 本稿では、GA(Generalized Action Governor)に基づく安全制御と学習のための一般的なフレームワークを紹介する。
AGは、所定の安全制約を厳格に扱う能力を備えた、名目上のクローズドループシステムを強化するための監督スキームである。
我々は,汎用AGと統合されたデータ駆動型クープマン演算子制御と,強化学習とデータ駆動型クープマン演算子制御の2つの安全な学習アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 6.87943871018952
- License:
- Abstract: This article introduces a general framework for safe control and learning based on the generalized action governor (AG). The AG is a supervisory scheme for augmenting a nominal closed-loop system with the ability of strictly handling prescribed safety constraints. In the first part of this article, we present a generalized AG methodology and analyze its key properties in a general setting. Then, we introduce tailored AG design approaches derived from the generalized methodology for linear and discrete systems. Afterward, we discuss the application of the generalized AG to facilitate safe online learning, which aims at safely evolving control parameters using real-time data to enhance control performance in uncertain systems. We present two safe learning algorithms based on, respectively, reinforcement learning and data-driven Koopman operator-based control integrated with the generalized AG to exemplify this application. Finally, we illustrate the developments with a numerical example.
- Abstract(参考訳): 本稿では,GA(Generalized Action Governor)に基づく安全制御と学習のための一般的なフレームワークを紹介する。
AGは、指定された安全制約を厳格に処理する能力を備えた、名目上のクローズドループシステムを強化するための監督スキームである。
この記事の前半では、一般化されたAG方法論を提示し、その重要な特性を一般的な設定で分析する。
次に、線形系および離散系に対する一般化手法から導かれる調整されたAG設計手法を紹介する。
その後、安全オンライン学習を容易にするための汎用AGの適用について論じる。これは、リアルタイムデータを用いて制御パラメータを安全に進化させ、不確実なシステムにおける制御性能を高めることを目的としている。
我々は,この応用を実証するために,汎用AGと統合された強化学習とデータ駆動型クープマン演算子に基づく制御の2つの安全な学習アルゴリズムを提案する。
最後に、その展開を数値的な例で説明する。
関連論文リスト
- Toward General Instruction-Following Alignment for Retrieval-Augmented Generation [63.611024451010316]
Retrieval-Augmented Generation (RAG) システムの効果的な適用には、自然な指示に従うことが不可欠である。
RAGシステムにおける命令追従アライメントのための,最初の自動化,拡張性,検証可能な合成パイプラインであるVIF-RAGを提案する。
論文 参考訳(メタデータ) (2024-10-12T16:30:51Z) - Last-Iterate Global Convergence of Policy Gradients for Constrained Reinforcement Learning [62.81324245896717]
我々はC-PGと呼ばれる探索非依存のアルゴリズムを導入し、このアルゴリズムは(弱)勾配支配仮定の下でのグローバルな最終点収束を保証する。
制約付き制御問題に対して,我々のアルゴリズムを数値的に検証し,それらを最先端のベースラインと比較する。
論文 参考訳(メタデータ) (2024-07-15T14:54:57Z) - Data-Driven Permissible Safe Control with Barrier Certificates [11.96747040086603]
本稿では,未知のダイナミクスを持つシステムのデータから,安全戦略の最大セットを特定する手法を提案する。
ケーススタディでは、システム学習のためのデータセットのサイズが大きくなると、許容可能な戦略セットが大きくなることが示されている。
論文 参考訳(メタデータ) (2024-04-30T18:32:24Z) - A Tutorial on Gaussian Process Learning-based Model Predictive Control [6.868436894461309]
本チュートリアルでは,ガウス過程(GP)とモデル予測制御(MPC)を統合し,複雑なシステムにおける制御の強化を図る。
このチュートリアルの中心的な貢献は、文学におけるGP-MPCの詳細な体系的な数学的定式化である。
挑戦的な地形における移動ロボットの経路追従や混合車両小隊などのロボット制御の実践的応用について論じる。
論文 参考訳(メタデータ) (2024-04-02T03:13:05Z) - Value Functions are Control Barrier Functions: Verification of Safe
Policies using Control Theory [46.85103495283037]
本稿では,制御理論から学習値関数への検証手法の適用方法を提案する。
我々は値関数と制御障壁関数の間の関係を確立する原定理を定式化する。
我々の研究は、RLベースの制御システムの汎用的でスケーラブルで検証可能な設計のための公式なフレームワークに向けた重要な一歩である。
論文 参考訳(メタデータ) (2023-06-06T21:41:31Z) - Robust Action Governor for Uncertain Piecewise Affine Systems with
Non-convex Constraints and Safe Reinforcement Learning [5.7406123763046955]
Action Governorは、制御アクションを監視し、調整し、ポイントインタイムの状態と制約として表現された安全仕様を強制する名目制御ループへのアドオンスキームである。
非時間付加的不確実性として表現できるシステムのロバスト行動知事(RAG)を紹介する。
この開発により、環境の安全なリアルタイム進化と、システムパラメータの変化への適応が可能になる。
論文 参考訳(メタデータ) (2022-07-17T17:31:07Z) - Reinforcement Learning for Task Specifications with Action-Constraints [4.046919218061427]
有限状態マルコフ決定過程の最適制御ポリシーを学習する手法を提案する。
安全でないと考えられるアクションシーケンスの集合が有限状態オートマトンによって与えられると仮定する。
非マルコフ的行動系列と状態制約の存在下で最適なポリシーを学習するためのQ-learningアルゴリズムのバージョンを提案する。
論文 参考訳(メタデータ) (2022-01-02T04:22:01Z) - Learning Robust Output Control Barrier Functions from Safe Expert Demonstrations [50.37808220291108]
本稿では,専門家によるデモンストレーションの部分的な観察から,安全な出力フィードバック制御法を考察する。
まず,安全性を保証する手段として,ロバスト出力制御バリア関数(ROCBF)を提案する。
次に、安全なシステム動作を示す専門家による実証からROCBFを学習するための最適化問題を定式化する。
論文 参考訳(メタデータ) (2021-11-18T23:21:00Z) - Sparsity in Partially Controllable Linear Systems [56.142264865866636]
本研究では, 部分制御可能な線形力学系について, 基礎となる空間パターンを用いて検討する。
最適制御には無関係な状態変数を特徴付ける。
論文 参考訳(メタデータ) (2021-10-12T16:41:47Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z) - Learning Hybrid Control Barrier Functions from Data [66.37785052099423]
ハイブリッドシステムの安全な制御法則を得るための体系的なツールが欠如していることから,データから確実に安全な制御法則を学習するための最適化ベースのフレームワークを提案する。
特に、システムダイナミクスが知られており、安全なシステム動作を示すデータが利用可能であるような設定を仮定する。
論文 参考訳(メタデータ) (2020-11-08T23:55:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。