論文の概要: Convex Chance-Constrained Stochastic Control under Uncertain Specifications with Application to Learning-Based Hybrid Powertrain Control
- arxiv url: http://arxiv.org/abs/2601.18313v1
- Date: Mon, 26 Jan 2026 09:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.761464
- Title: Convex Chance-Constrained Stochastic Control under Uncertain Specifications with Application to Learning-Based Hybrid Powertrain Control
- Title(参考訳): 不確実な仕様下での凸長制約確率制御と学習型ハイブリッドパワートレイン制御への応用
- Authors: Teruki Kato, Ryotaro Shima, Kenji Kashima,
- Abstract要約: 本稿では,制御仕様の不確かさを考慮に入れた厳密な凸型確率制約制御フレームワークを提案する。
提案手法は,厳密な凸性を確保しつつ,確率的制約満足度を保証し,最適解の特異性と連続性をもたらす。
ハイブリッドパワートレインシステムに適用したモデル予測制御により,提案手法の有効性を実証した。
- 参考スコア(独自算出の注目度): 1.9116784879310027
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents a strictly convex chance-constrained stochastic control framework that accounts for uncertainty in control specifications such as reference trajectories and operational constraints. By jointly optimizing control inputs and risk allocation under general (possibly non-Gaussian) uncertainties, the proposed method guarantees probabilistic constraint satisfaction while ensuring strict convexity, leading to uniqueness and continuity of the optimal solution. The formulation is further extended to nonlinear model-based control using exactly linearizable models identified through machine learning. The effectiveness of the proposed approach is demonstrated through model predictive control applied to a hybrid powertrain system.
- Abstract(参考訳): 本稿では,参照軌道や運用制約などの制御仕様の不確実性を考慮した,厳密な凸凸型確率制約制御フレームワークを提案する。
一般(おそらく非ガウス的)の不確実性の下で制御入力とリスク割り当てを共同最適化することにより、厳密な凸性を確保しながら確率的制約満足度を保証し、最適解の特異性と連続性をもたらす。
この定式化は、機械学習によって同定された正確に線形化可能なモデルを用いて非線形モデルベース制御にさらに拡張される。
ハイブリッドパワートレインシステムに適用したモデル予測制御により,提案手法の有効性を実証した。
関連論文リスト
- Rectified Robust Policy Optimization for Model-Uncertain Constrained Reinforcement Learning without Strong Duality [53.525547349715595]
我々はRectified Robust Policy Optimization (RRPO) と呼ばれる新しいプライマリのみのアルゴリズムを提案する。
RRPOは双対の定式化に頼ることなく、主問題に直接作用する。
我々は、最もよく知られた下界と一致する複雑性を持つ、ほぼ最適な実現可能なポリシーに収束することを示す。
論文 参考訳(メタデータ) (2025-08-24T16:59:38Z) - Distributionally Robust Policy and Lyapunov-Certificate Learning [13.38077406934971]
不確実なシステムに対する安定性を保証するコントローラの設計における重要な課題は、オンラインデプロイメント中のモデルパラメトリック不確実性の変化の正確な決定と適応である。
我々は、リアプノフ証明書の単調な減少を保証するために、リアプノフ微分チャンス制約を分布的に頑健に定式化することで、この問題に取り組む。
得られた閉ループシステムに対して、その平衡のグローバルな安定性は、アウト・オブ・ディストリビューションの不確実性があっても高い信頼性で証明できることを示す。
論文 参考訳(メタデータ) (2024-04-03T18:57:54Z) - Learning the Uncertainty Sets for Control Dynamics via Set Membership: A Non-Asymptotic Analysis [18.110158316883403]
本稿では,未知の線形システムに対するセットメンバシップ推定(SME)に焦点を当てる。
本稿では,中小企業の収束率境界について述べるとともに,緩和された仮定の下での中小企業の変動について論じる。
また,中小企業の実用性を示す数値的な結果も提供する。
論文 参考訳(メタデータ) (2023-09-26T03:58:06Z) - Pointwise Feasibility of Gaussian Process-based Safety-Critical Control
under Model Uncertainty [77.18483084440182]
制御バリア関数(CBF)と制御リアプノフ関数(CLF)は、制御システムの安全性と安定性をそれぞれ強化するための一般的なツールである。
本稿では, CBF と CLF を用いた安全クリティカルコントローラにおいて, モデル不確実性に対処するためのガウスプロセス(GP)に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-13T23:08:49Z) - Probabilistic robust linear quadratic regulators with Gaussian processes [73.0364959221845]
ガウス過程(GP)のような確率モデルは、制御設計に続く使用のためのデータから未知の動的システムを学ぶための強力なツールです。
本稿では、確率的安定性マージンに関して堅牢なコントローラを生成する線形化GPダイナミクスのための新しいコントローラ合成について述べる。
論文 参考訳(メタデータ) (2021-05-17T08:36:18Z) - Safe Chance Constrained Reinforcement Learning for Batch Process Control [0.0]
強化学習(RL)コントローラは,コントロールコミュニティ内で興奮を引き起こしている。
エンジニアリングアプリケーションに関する最近の焦点は、安全なRLコントローラの開発に向けられている。
論文 参考訳(メタデータ) (2021-04-23T16:48:46Z) - Combining Gaussian processes and polynomial chaos expansions for
stochastic nonlinear model predictive control [0.0]
最適制御問題の時間不変不確かさを明示的に考慮する新しいアルゴリズムを提案する。
本稿では, 非線形変換の平均および分散推定値を得るために, この組み合わせを効率的に利用することを提案する。
最適制御問題に対する確率的目標と確率的制約の両方を定式化する方法を示す。
論文 参考訳(メタデータ) (2021-03-09T14:25:08Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Reinforcement Learning for Safety-Critical Control under Model
Uncertainty, using Control Lyapunov Functions and Control Barrier Functions [96.63967125746747]
強化学習フレームワークは、CBFおよびCLF制約に存在するモデル不確実性を学ぶ。
RL-CBF-CLF-QPは、安全制約におけるモデル不確実性の問題に対処する。
論文 参考訳(メタデータ) (2020-04-16T10:51:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。