論文の概要: Approximate Optimal Filter for Linear Gaussian Time-invariant Systems
- arxiv url: http://arxiv.org/abs/2103.05505v1
- Date: Tue, 9 Mar 2021 15:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-10 14:42:21.786179
- Title: Approximate Optimal Filter for Linear Gaussian Time-invariant Systems
- Title(参考訳): 線形ガウス時間不変系に対する近似最適フィルタ
- Authors: Kaiming Tang, Shengbo Eben Li, Yuming Yin, Yang Guan, Jingliang Duan,
Wenhan Cao, Jie Li
- Abstract要約: 状態推定は制御システムにとって、特に状態を直接測定できない場合に重要である。
本稿では, 定常ゲインを得るために, ポリシー反復法を活用できる近似最適フィルタを提案する。
その結果, 政策は定常カルマン利得に収束し, 精度は2 %以内であることが判明した。
- 参考スコア(独自算出の注目度): 10.47198224467133
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State estimation is critical to control systems, especially when the states
cannot be directly measured. This paper presents an approximate optimal filter,
which enables to use policy iteration technique to obtain the steady-state gain
in linear Gaussian time-invariant systems. This design transforms the optimal
filtering problem with minimum mean square error into an optimal control
problem, called Approximate Optimal Filtering (AOF) problem. The equivalence
holds given certain conditions about initial state distributions and policy
formats, in which the system state is the estimation error, control input is
the filter gain, and control objective function is the accumulated estimation
error. We present a policy iteration algorithm to solve the AOF problem in
steady-state. A classic vehicle state estimation problem finally evaluates the
approximate filter. The results show that the policy converges to the
steady-state Kalman gain, and its accuracy is within 2 %.
- Abstract(参考訳): 状態推定は制御システムにとって、特に状態を直接測定できない場合に重要である。
本稿では,線形ガウス時間不変系における定常ゲインを得るために,ポリシー反復手法を用いた近似最適フィルタを提案する。
この設計は、最小平均二乗誤差の最適フィルタリング問題を近似最適フィルタリング(AOF)問題と呼ばれる最適制御問題に変換します。
この等価性は、システム状態が推定誤差、制御入力がフィルタゲイン、制御対象関数が累積推定誤差である初期状態分布とポリシー形式に関する特定の条件を保持する。
定常状態におけるAOF問題を解決するためのポリシー反復アルゴリズムを提案する。
古典的な車両状態推定問題は、最終的に近似フィルタを評価する。
その結果, 政策は定常カルマン利得に収束し, 精度は2 %以内であることが判明した。
関連論文リスト
- Deterministic Policy Gradient Primal-Dual Methods for Continuous-Space Constrained MDPs [82.34567890576423]
我々は,非漸近収束を伴う最適決定主義政策を求めるための決定主義的政策勾配原始双対法を開発した。
D-PGPDの一次-双対反復は、最適正則化原始-双対にサブ線形速度で収束することが証明された。
我々の知る限り、これは連続空間制約型MDPに対する決定論的ポリシー探索法を提案する最初の研究であると思われる。
論文 参考訳(メタデータ) (2024-08-19T14:11:04Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - Implicit Maximum a Posteriori Filtering via Adaptive Optimization [4.767884267554628]
標準ベイズフィルタ問題を時間変化目標に対する最適化として検討する。
我々のフレームワークは、高次元システムに対して効率的で堅牢でスケーラブルなフィルタをもたらすことを示す。
論文 参考訳(メタデータ) (2023-11-17T15:30:44Z) - Primal-Dual Contextual Bayesian Optimization for Control System Online
Optimization with Time-Average Constraints [21.38692458445459]
本稿では,制約付き閉ループ制御システムのオンライン性能最適化問題について検討する。
動的最適解に対する線形累積後悔を克服する主元-双対文脈ベイズ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-12T18:37:52Z) - Learning the Kalman Filter with Fine-Grained Sample Complexity [4.301206378997673]
離散時間無限水平カルマンフィルタにおけるモデルフリーポリシー勾配法(PG法)の最初のエンドツーエンドのサンプル複雑性を開発する。
本研究の結果は, 統計的ノイズ等により状態測定が破損しうる線形力学系を制御するために, モデルフリーPG法の適用に光を当てた。
論文 参考訳(メタデータ) (2023-01-30T02:41:18Z) - Maximum-Likelihood Inverse Reinforcement Learning with Finite-Time
Guarantees [56.848265937921354]
逆強化学習(IRL)は報酬関数と関連する最適ポリシーを回復することを目的としている。
IRLの多くのアルゴリズムは本質的にネスト構造を持つ。
我々は、報酬推定精度を損なわないIRLのための新しいシングルループアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-10-04T17:13:45Z) - Globally Convergent Policy Search over Dynamic Filters for Output
Estimation [64.90951294952094]
我々は,大域的に最適な$textitdynamic$ filterに収束する最初の直接ポリシー探索アルゴリズム凸を導入する。
我々は、情報化が前述の優越性を克服していることを示す。
論文 参考訳(メタデータ) (2022-02-23T18:06:20Z) - On the Convexity of Discrete Time Covariance Steering in Stochastic
Linear Systems with Wasserstein Terminal Cost [1.1602089225841632]
端末状態の共分散が上界であるとき、L"所有者部分順序に関して、この問題は一意に大域的最小化状態フィードバックゲインを許容することを示す。
本研究の結果は, 特殊制御設計ツールの開発に向けての段階を定めている。
論文 参考訳(メタデータ) (2021-03-25T03:24:52Z) - Correct-by-construction reach-avoid control of partially observable
linear stochastic systems [7.912008109232803]
離散時間線形時間不変系のリーチエイド制御のための頑健なフィードバックコントローラを定式化する。
問題は、必要となる証明状態の抽象化問題を満たすコントローラを計算することである。
論文 参考訳(メタデータ) (2021-03-03T13:46:52Z) - Gaussian Process-based Min-norm Stabilizing Controller for
Control-Affine Systems with Uncertain Input Effects and Dynamics [90.81186513537777]
本稿では,この問題の制御・アフィン特性を捉えた新しい化合物カーネルを提案する。
この結果の最適化問題は凸であることを示し、ガウス過程に基づく制御リャプノフ関数第二次コーンプログラム(GP-CLF-SOCP)と呼ぶ。
論文 参考訳(メタデータ) (2020-11-14T01:27:32Z) - Adaptive Control and Regret Minimization in Linear Quadratic Gaussian
(LQG) Setting [91.43582419264763]
我々は不確実性に直面した楽観主義の原理に基づく新しい強化学習アルゴリズムLqgOptを提案する。
LqgOptはシステムのダイナミクスを効率的に探索し、モデルのパラメータを信頼区間まで推定し、最も楽観的なモデルのコントローラをデプロイする。
論文 参考訳(メタデータ) (2020-03-12T19:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。