論文の概要: Learning Dynamics Models with Stable Invariant Sets
- arxiv url: http://arxiv.org/abs/2006.08935v2
- Date: Thu, 29 Oct 2020 20:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 20:04:07.059249
- Title: Learning Dynamics Models with Stable Invariant Sets
- Title(参考訳): 安定不変量集合をもつ学習ダイナミクスモデル
- Authors: Naoya Takeishi and Yoshinobu Kawahara
- Abstract要約: 本稿では,動的モデルが一般クラスの安定不変集合を持つことを保証する手法を提案する。
我々は容易に投影を計算し、同時に様々な可逆ニューラルネットワークを用いてモデルの柔軟性を維持することができる。
- 参考スコア(独自算出の注目度): 17.63040340961143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Invariance and stability are essential notions in dynamical systems study,
and thus it is of great interest to learn a dynamics model with a stable
invariant set. However, existing methods can only handle the stability of an
equilibrium. In this paper, we propose a method to ensure that a dynamics model
has a stable invariant set of general classes such as limit cycles and line
attractors. We start with the approach by Manek and Kolter (2019), where they
use a learnable Lyapunov function to make a model stable with regard to an
equilibrium. We generalize it for general sets by introducing projection onto
them. To resolve the difficulty of specifying a to-be stable invariant set
analytically, we propose defining such a set as a primitive shape (e.g.,
sphere) in a latent space and learning the transformation between the original
and latent spaces. It enables us to compute the projection easily, and at the
same time, we can maintain the model's flexibility using various invertible
neural networks for the transformation. We present experimental results that
show the validity of the proposed method and the usefulness for long-term
prediction.
- Abstract(参考訳): 不変性と安定性は力学系の研究において不可欠な概念であり、安定不変量集合を持つ力学モデルを学ぶことは非常に興味深い。
しかし、既存の方法は平衡の安定性にしか対応できない。
本稿では,リミットサイクルやラインアトラクターといった一般クラスの安定な不変集合を動的モデルが確実に持つことを保証する手法を提案する。
まず,manek と kolter (2019) によるアプローチから始めて,学習可能なリアプノフ関数を用いて平衡に関するモデルを安定させる。
一般集合に対して射影を導入することで一般化する。
to-be安定な不変集合を解析的に指定することの難しさを解決するため、そのような集合を潜在空間における原始形状(例えば球面)として定義し、元の空間と潜在空間の間の変換を学ぶことを提案する。
これにより、投影を容易に計算できると同時に、変換のためにさまざまな可逆ニューラルネットワークを使用してモデルの柔軟性を維持することができます。
本研究は,提案手法の有効性と長期予測の有用性を示す実験結果である。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間シーケンスデータを表現するために設計された深部力学モデルの新しいファミリを紹介する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
発振システム、ビデオ、実世界の状態シーケンス(MuJoCo)の実験は、学習可能なエネルギーベース以前のODEが既存のものより優れていることを示している。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Mamba-FSCIL: Dynamic Adaptation with Selective State Space Model for Few-Shot Class-Incremental Learning [113.89327264634984]
FSCIL(Few-shot class-incremental Learning)は、最小限のトレーニングサンプルを持つモデルに新しいクラスを統合するという課題に直面している。
従来の手法では、固定パラメータ空間に依存する静的適応を広く採用し、逐次到着するデータから学習する。
本稿では、動的適応のための中間特徴に基づいてプロジェクションパラメータを動的に調整する2つの選択型SSMプロジェクタを提案する。
論文 参考訳(メタデータ) (2024-07-08T17:09:39Z) - Numerically Stable Sparse Gaussian Processes via Minimum Separation
using Cover Trees [57.67528738886731]
誘導点に基づくスケーラブルスパース近似の数値安定性について検討する。
地理空間モデリングなどの低次元タスクに対しては,これらの条件を満たす点を自動計算する手法を提案する。
論文 参考訳(メタデータ) (2022-10-14T15:20:17Z) - Learning and Inference in Sparse Coding Models with Langevin Dynamics [3.0600309122672726]
本稿では確率的潜在変数モデルで推論と学習が可能なシステムについて述べる。
ランゲヴィン力学を用いて潜伏変数を推論する連続時間方程式を導出することにより、スパース符号化モデルのこのアイデアを実証する。
ランゲヴィン力学は、L1ノルムが小さいのに対して、潜伏変数をゼロにすることを推奨する'L0スパース'系において、後続分布からサンプリングする効率的な手順をもたらすことを示す。
論文 参考訳(メタデータ) (2022-04-23T23:16:47Z) - Stability Preserving Data-driven Models With Latent Dynamics [0.0]
本稿では,潜在変数を用いた動的問題に対するデータ駆動型モデリング手法を提案する。
本稿では,結合力学の安定性を容易に適用できるモデルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-20T00:41:10Z) - Message Passing Neural PDE Solvers [60.77761603258397]
我々は、バックプロップ最適化されたニューラル関数近似器で、グラフのアリーデザインのコンポーネントを置き換えるニューラルメッセージパッシング解決器を構築した。
本稿では, 有限差分, 有限体積, WENOスキームなどの古典的手法を表現的に含んでいることを示す。
本研究では, 異なる領域のトポロジ, 方程式パラメータ, 離散化などにおける高速, 安定, 高精度な性能を, 1次元, 2次元で検証する。
論文 参考訳(メタデータ) (2022-02-07T17:47:46Z) - Learning Stable Koopman Embeddings [9.239657838690228]
本稿では,非線形システムの安定モデル学習のための新しいデータ駆動手法を提案する。
離散時間非線形契約モデルはすべて、我々のフレームワークで学習できることを実証する。
論文 参考訳(メタデータ) (2021-10-13T05:44:13Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Almost Surely Stable Deep Dynamics [4.199844472131922]
本稿では,観測データから安定なディープニューラルネットワークに基づく動的モデルを学ぶ手法を提案する。
本手法は,lyapunovニューラルネットワークを動的モデルに組み込むことにより,本質的に安定性基準を満たす。
論文 参考訳(メタデータ) (2021-03-26T20:37:08Z) - Training Generative Adversarial Networks by Solving Ordinary
Differential Equations [54.23691425062034]
GANトレーニングによって引き起こされる連続時間ダイナミクスについて検討する。
この観点から、GANのトレーニングにおける不安定性は積分誤差から生じると仮定する。
本研究では,有名なODEソルバ(Runge-Kutta など)がトレーニングを安定化できるかどうかを実験的に検証する。
論文 参考訳(メタデータ) (2020-10-28T15:23:49Z) - ImitationFlow: Learning Deep Stable Stochastic Dynamic Systems by
Normalizing Flows [29.310742141970394]
我々は,世界規模で安定な非線形力学を学習できる新しいDeep生成モデルであるImitationFlowを紹介した。
提案手法の有効性を,標準データセットと実ロボット実験の両方で示す。
論文 参考訳(メタデータ) (2020-10-25T14:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。