論文の概要: Deep Subspace Encoders for Nonlinear System Identification
- arxiv url: http://arxiv.org/abs/2210.14816v2
- Date: Wed, 5 Jul 2023 13:52:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 23:44:08.583862
- Title: Deep Subspace Encoders for Nonlinear System Identification
- Title(参考訳): 非線形システム同定のための深部部分空間エンコーダ
- Authors: Gerben I. Beintema, Maarten Schoukens, Roland T\'oth
- Abstract要約: そこで本稿では,状態推定にトラッピング予測損失とサブスペースエンコーダを用いる手法を提案する。
軽度条件下では,提案手法は局所的に一貫性があり,最適化安定性が向上し,データ効率が向上することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Using Artificial Neural Networks (ANN) for nonlinear system identification
has proven to be a promising approach, but despite of all recent research
efforts, many practical and theoretical problems still remain open.
Specifically, noise handling and models, issues of consistency and reliable
estimation under minimisation of the prediction error are the most severe
problems. The latter comes with numerous practical challenges such as explosion
of the computational cost in terms of the number of data samples and the
occurrence of instabilities during optimization. In this paper, we aim to
overcome these issues by proposing a method which uses a truncated prediction
loss and a subspace encoder for state estimation. The truncated prediction loss
is computed by selecting multiple truncated subsections from the time series
and computing the average prediction loss. To obtain a computationally
efficient estimation method that minimizes the truncated prediction loss, a
subspace encoder represented by an artificial neural network is introduced.
This encoder aims to approximate the state reconstructability map of the
estimated model to provide an initial state for each truncated subsection given
past inputs and outputs. By theoretical analysis, we show that, under mild
conditions, the proposed method is locally consistent, increases optimization
stability, and achieves increased data efficiency by allowing for overlap
between the subsections. Lastly, we provide practical insights and user
guidelines employing a numerical example and state-of-the-art benchmark
results.
- Abstract(参考訳): 非線形システム同定にArtificial Neural Networks (ANN) を用いることは有望なアプローチであることが証明されているが、最近の研究成果にもかかわらず、多くの実用的および理論的問題が未解決のままである。
具体的には、ノイズハンドリングとモデル、予測誤差の最小化による一貫性と信頼性評価の問題が最も深刻な問題である。
後者には、データサンプルの数や最適化中の不安定性の発生の観点から計算コストの爆発など、多くの実践的な課題がある。
本稿では,減算予測損失と状態推定のための部分空間エンコーダを用いた手法を提案することで,この問題を克服することを目的とする。
時系列から複数の切断された部分を選択して平均予測損失を算出することにより、切断予測損失を算出する。
減算予測損失を最小限に抑える計算効率の高い推定方法を得るため、ニューラルネットワークで表される部分空間エンコーダを導入する。
このエンコーダは、推定モデルの状態再構成可能性マップを近似して、過去の入力と出力が与えられた各トランケートされたサブセクションの初期状態を提供する。
理論的解析により,提案手法は局所的に一貫した条件下で最適化安定性を向上し,各部分間の重複を許容してデータ効率の向上を実現する。
最後に,実例と最先端ベンチマーク結果を用いた実践的洞察とユーザガイドラインを提供する。
関連論文リスト
- A sparse PAC-Bayesian approach for high-dimensional quantile prediction [0.0]
本稿では,高次元量子化予測のための確率論的機械学習手法を提案する。
擬似ベイズ的フレームワークとスケールした学生tとランゲヴィン・モンテカルロを併用して効率的な計算を行う。
その効果はシミュレーションや実世界のデータを通じて検証され、そこでは確立された頻繁な手法やベイズ的手法と競合する。
論文 参考訳(メタデータ) (2024-09-03T08:01:01Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Collapsed Inference for Bayesian Deep Learning [36.1725075097107]
本稿では,崩壊サンプルを用いたベイズモデル平均化を行う新しい崩壊予測手法を提案する。
崩壊したサンプルは、近似後部から引き出された数え切れないほど多くのモデルを表す。
提案手法は, スケーラビリティと精度のバランスをとる。
論文 参考訳(メタデータ) (2023-06-16T08:34:42Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Gaining Outlier Resistance with Progressive Quantiles: Fast Algorithms
and Theoretical Studies [1.6457778420360534]
任意の損失関数を強固化するために, 外部抵抗推定の枠組みを導入する。
通常のデータセットでは、データ再見積の回数を大幅に削減できるような、開始点の要件を緩和する新しい手法が提案されている。
得られた推定器は、必ずしも大域的でも大域的でもなくても、両方の低次元において最適性を楽しむことができる。
論文 参考訳(メタデータ) (2021-12-15T20:35:21Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Nonlinear state-space identification using deep encoder networks [0.0]
本稿では,データセットを独立したセクションに分割することで,シミュレーション損失を近似する手法を提案する。
主な貢献は、各セクションの開始時に初期状態を推定するためのエンコーダ関数の導入である。
論文 参考訳(メタデータ) (2020-12-14T16:49:06Z) - Amortized Conditional Normalized Maximum Likelihood: Reliable Out of
Distribution Uncertainty Estimation [99.92568326314667]
本研究では,不確実性推定のための拡張性のある汎用的アプローチとして,償却条件正規化最大値(ACNML)法を提案する。
提案アルゴリズムは条件付き正規化最大度(CNML)符号化方式に基づいており、最小記述長の原理に従って最小値の最適特性を持つ。
我々は、ACNMLが、分布外入力のキャリブレーションの観点から、不確実性推定のための多くの手法と好意的に比較することを示した。
論文 参考訳(メタデータ) (2020-11-05T08:04:34Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z) - Dimensionality reduction to maximize prediction generalization
capability [0.7614628596146599]
時系列予測の一般化は機械学習において依然として重要な課題であり、初期の手法は大きな一般化誤差または局所最小値を持つ。
我々は,予測主成分分析(PredPCA)と呼ばれる,将来の入力を予測するための最も情報性の高いコンポーネントを抽出する,解析的に解決可能な教師なし学習手法を開発した。
提案手法は,予測不能なノイズを効果的に除去し,凸最適化によるテスト予測誤差を最小化することができる。
論文 参考訳(メタデータ) (2020-03-01T12:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。