論文の概要: Learning Stable and Robust Linear Parameter-Varying State-Space Models
- arxiv url: http://arxiv.org/abs/2304.01828v1
- Date: Tue, 4 Apr 2023 14:32:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:41:11.527620
- Title: Learning Stable and Robust Linear Parameter-Varying State-Space Models
- Title(参考訳): 安定でロバストな線形パラメータ変動状態空間モデルの学習
- Authors: Chris Verhoek and Ruigang Wang and Roland T\'oth
- Abstract要約: 本稿では,安定な線形パラメータ変化状態空間(LPV-SS)モデルの2つの直接パラメータ化について述べる。
パラメトリゼーションは直接的であるため、モデルは制約のない最適化を用いて訓練することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents two direct parameterizations of stable and robust linear
parameter-varying state-space (LPV-SS) models. The model parametrizations
guarantee a priori that for all parameter values during training, the allowed
models are stable in the contraction sense or have their Lipschitz constant
bounded by a user-defined value $\gamma$. Furthermore, since the
parametrizations are direct, the models can be trained using unconstrained
optimization. The fact that the trained models are of the LPV-SS class makes
them useful for, e.g., further convex analysis or controller design. The
effectiveness of the approach is demonstrated on an LPV identification problem.
- Abstract(参考訳): 本稿では,安定な線形パラメータ変化状態空間(LPV-SS)モデルの2つの直接パラメータ化を提案する。
モデルパラメトリゼーションは、トレーニング中のすべてのパラメータ値に対して、許容されるモデルは収縮感覚で安定であるか、リプシッツ定数をユーザー定義値$\gamma$で境界付けるかの優先順位を保証する。
さらに、パラメトリゼーションは直接的であるため、制約のない最適化を使ってモデルを訓練することができる。
訓練されたモデルがLPV-SSクラスであるという事実は、さらなる凸解析やコントローラ設計に有用である。
LPV識別問題において,本手法の有効性を実証した。
関連論文リスト
- SaRA: High-Efficient Diffusion Model Fine-tuning with Progressive Sparse Low-Rank Adaptation [52.6922833948127]
本研究では,事前学習した拡散モデルにおけるパラメータの重要性について検討する。
本稿では,これらの非効率パラメータをフル活用するための新しいモデル微調整法を提案する。
本手法は,下流アプリケーションにおける事前学習モデルの生成能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T16:44:47Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Stabilizing reinforcement learning control: A modular framework for optimizing over all stable behavior [2.4641488282873225]
本稿では,深層強化学習の最適化駆動とモデルフリーの利点と安定性の保証を組み合わせたフィードバックコントローラ設計のためのフレームワークを提案する。
近年の行動システムの発展により,データ駆動型内部モデルの構築が可能となった。
ノイズの存在下でのそのようなデータ駆動モデルの安定性を解析する。
論文 参考訳(メタデータ) (2023-10-21T19:32:11Z) - Active-Learning-Driven Surrogate Modeling for Efficient Simulation of
Parametric Nonlinear Systems [0.0]
支配方程式がなければ、パラメトリック還元次代理モデルを非侵襲的に構築する必要がある。
我々の研究は、パラメータのスナップショットを効率的に表示するための非侵入的最適性基準を提供する。
カーネルベースの浅層ニューラルネットワークを用いた能動的学習駆動サロゲートモデルを提案する。
論文 参考訳(メタデータ) (2023-06-09T18:01:14Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - Scaling & Shifting Your Features: A New Baseline for Efficient Model
Tuning [126.84770886628833]
既存の微調整法は、事前訓練されたモデルの全てのパラメータ(フル微調整)をチューニングするか、最後の線形層(線形プローブ)のみをチューニングする。
そこで本研究では,SSFと呼ばれるパラメータ効率の高いファインタニング手法を提案する。
論文 参考訳(メタデータ) (2022-10-17T08:14:49Z) - Learning Stable Koopman Embeddings [9.239657838690228]
本稿では,非線形システムの安定モデル学習のための新しいデータ駆動手法を提案する。
離散時間非線形契約モデルはすべて、我々のフレームワークで学習できることを実証する。
論文 参考訳(メタデータ) (2021-10-13T05:44:13Z) - Recurrent Equilibrium Networks: Flexible Dynamic Models with Guaranteed
Stability and Robustness [3.2872586139884623]
本稿では,機械学習,システム識別,制御における再帰平衡ネットワーク(REN)を提案する。
RENはRNの二次ベクトルによって直接パラメータ化され、安定性とロバスト性はパラメータ制約なしで確保される。
また,データ駆動型非線形オブザーバの設計と安定性保証による制御への応用について述べる。
論文 参考訳(メタデータ) (2021-04-13T05:09:41Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。