論文の概要: Lyapunov-Aware Quantum-Inspired Reinforcement Learning for Continuous-Time Vehicle Control: A Feasibility Study
- arxiv url: http://arxiv.org/abs/2510.18852v1
- Date: Tue, 21 Oct 2025 17:44:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.046418
- Title: Lyapunov-Aware Quantum-Inspired Reinforcement Learning for Continuous-Time Vehicle Control: A Feasibility Study
- Title(参考訳): Lyapunov-Aware Quantum-Inspireed Reinforcement Learning for Continuous-Time Vehicle Control: A whetheribility Study
- Authors: Nutkritta Kraipatthanapong, Natthaphat Thathong, Pannita Suksawas, Thanunnut Klunklin, Kritin Vongthonglua, Krit Attahakul, Aueaphum Aueawatthanaphisut,
- Abstract要約: 本稿では,Lyapunov-based Quantum Reinforcement Learning (LQRL) フレームワークを提案する。
提案するフレームワークは、自律システムとハイブリッド量子古典最適化ドメインにおいて、確実に安全な制御を行うためのステップを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a novel Lyapunov-Based Quantum Reinforcement Learning (LQRL) framework that integrates quantum policy optimization with Lyapunov stability analysis for continuous-time vehicle control. The proposed approach combines the representational power of variational quantum circuits (VQCs) with a stability-aware policy gradient mechanism to ensure asymptotic convergence and safe decision-making under dynamic environments. The vehicle longitudinal control problem was formulated as a continuous-state reinforcement learning task, where the quantum policy network generates control actions subject to Lyapunov stability constraints. Simulation experiments were conducted in a closed-loop adaptive cruise control scenario using a quantum-inspired policy trained under stability feedback. The results demonstrate that the LQRL framework successfully embeds Lyapunov stability verification into quantum policy learning, enabling interpretable and stability-aware control performance. Although transient overshoot and Lyapunov divergence were observed under aggressive acceleration, the system maintained bounded state evolution, validating the feasibility of integrating safety guarantees within quantum reinforcement learning architectures. The proposed framework provides a foundational step toward provably safe quantum control in autonomous systems and hybrid quantum-classical optimization domains.
- Abstract(参考訳): 本稿では,Lyapunov-based Quantum Reinforcement Learning (LQRL) フレームワークを提案する。
提案手法は、変動量子回路(VQC)の表現力と、動的環境下での漸近収束と安全な意思決定を確保するための安定性を考慮したポリシー勾配機構を組み合わせたものである。
車両長手制御問題は連続状態強化学習タスクとして定式化され、Lyapunovの安定性制約を受ける制御動作を生成する量子ポリシーネットワークである。
安定フィードバック下で訓練された量子インスパイアされたポリシーを用いて、クローズドループ適応型クルーズ制御シナリオでシミュレーション実験を行った。
その結果、LQRLフレームワークは、Lyapunovの安定性検証を量子ポリシー学習に組み込むことに成功した。
過渡的オーバーシュートとリャプノフの発散は積極的な加速の下で観測されたが、このシステムは境界状態の進化を維持し、量子強化学習アーキテクチャに安全保証を統合する可能性を検証した。
提案するフレームワークは,自律システムとハイブリッド量子古典最適化ドメインにおいて,確実に安全な量子制御を実現するための基本的なステップを提供する。
関連論文リスト
- Iterative Refinement of Flow Policies in Probability Space for Online Reinforcement Learning [56.47948583452555]
固定ステップのEulerスキームによるフローマッチング推論プロセスの離散化は,最適輸送から変化するJordan-Kinderlehrer-Otto原理と整合する,というキーインサイトに基づいて,SWFP(Stepwise Flow Policy)フレームワークを紹介した。
SWFPは、大域的な流れを、プロキシメート分布間の小さな漸進的な変換の列に分解する。
この分解は、小さな流れブロックのカスケードを介して事前訓練された流れを微調整する効率的なアルゴリズムを導き、大きな利点をもたらす。
論文 参考訳(メタデータ) (2025-10-17T07:43:51Z) - Time-Optimal Control of Finite Dimensional Open Quantum Systems via a Model Predictive Strategy [8.368020865178844]
時間最適制御は、オープン量子システムにとって効果的な戦略として現れてきた。
本稿では,POVM(Positive Operator-Valued Measures)を制御プロセスに組み込むことで,フレームワークを拡張した。
各種騒音環境におけるコヒーレンス維持と高忠実度化のための戦略の有効性を数値シミュレーションにより検証した。
論文 参考訳(メタデータ) (2025-08-22T08:24:40Z) - Finite-time stabilization of ladder multi-level quantum systems [3.188406620942066]
はしご量子系の有限時間安定化を実現するために,新しい連続非平滑制御法を提案する。
まず、距離ベースリアプノフ関数を用いたはしごnレベル量子系に対する普遍分数次制御則を設計する。
固有ハミルトニアンの固有状態への収束に必要な時間の上界を導出する。
論文 参考訳(メタデータ) (2025-05-18T08:33:42Z) - Quantum-Enhanced Hybrid Reinforcement Learning Framework for Dynamic Path Planning in Autonomous Systems [2.7173738939072796]
量子を古典的強化学習と相乗化する新しい量子古典ハイブリッドフレームワークが提案されている。
提案手法は,従来の強化学習パイプラインと統合された,堅牢なQテーブルと特別なターンコスト推定を生成する。
論文 参考訳(メタデータ) (2025-04-29T11:36:08Z) - Lyapunov-stable Neural Control for State and Output Feedback: A Novel Formulation [67.63756749551924]
学習ベースのニューラルネットワーク(NN)制御ポリシは、ロボット工学と制御の幅広いタスクにおいて、印象的な経験的パフォーマンスを示している。
非線形力学系を持つNNコントローラのトラクション領域(ROA)に対するリアプノフ安定性の保証は困難である。
我々は、高速な経験的ファルシフィケーションと戦略的正則化を用いて、Lyapunov証明書とともにNNコントローラを学習するための新しいフレームワークを実証する。
論文 参考訳(メタデータ) (2024-04-11T17:49:15Z) - Bounded Robustness in Reinforcement Learning via Lexicographic
Objectives [54.00072722686121]
強化学習における政策の堅牢性は、いかなるコストでも望ましいものではないかもしれない。
本研究では,任意の観測ノイズに対して,政策が最大限に頑健になる方法について検討する。
本稿では,どのような政策アルゴリズムにも適用可能なロバストネス誘導方式を提案する。
論文 参考訳(メタデータ) (2022-09-30T08:53:18Z) - KCRL: Krasovskii-Constrained Reinforcement Learning with Guaranteed
Stability in Nonlinear Dynamical Systems [66.9461097311667]
形式的安定性を保証するモデルに基づく強化学習フレームワークを提案する。
提案手法は,特徴表現を用いて信頼区間までシステムダイナミクスを学習する。
我々は、KCRLが、基礎となる未知のシステムとの有限数の相互作用において安定化ポリシーを学ぶことが保証されていることを示す。
論文 参考訳(メタデータ) (2022-06-03T17:27:04Z) - Closing the Closed-Loop Distribution Shift in Safe Imitation Learning [80.05727171757454]
模倣学習問題において,安全な最適化に基づく制御戦略を専門家として扱う。
我々は、実行時に安価に評価でき、専門家と同じ安全保証を確実に満足する学習されたポリシーを訓練する。
論文 参考訳(メタデータ) (2021-02-18T05:11:41Z) - Lyapunov-Based Stabilization and Control of Closed Quantum Systems [0.36748639131154304]
提案手法は,システム状態軌跡追跡誤差の量子リアプノフ関数に基づいて構成される。
リアプノフ函数の正定値作用素は、デザイナにさらなる自由度を与える。
論文 参考訳(メタデータ) (2021-01-31T00:20:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。