論文の概要: Dissipative Deep Neural Dynamical Systems
- arxiv url: http://arxiv.org/abs/2011.13492v3
- Date: Wed, 8 Jun 2022 16:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:10:59.519093
- Title: Dissipative Deep Neural Dynamical Systems
- Title(参考訳): 散逸型深層神経力学系
- Authors: Jan Drgona, Soumya Vasisht, Aaron Tuor, Draguna Vrabie
- Abstract要約: ニューラルネットワークを点方向アフィンマップとして表現することで、局所線形演算子を露出する。
これにより、ニューラルネットワークの動作の“ブラックボックスのクラック”が可能になります。
これらの局所線型作用素の動的挙動と固有値スペクトルのばらつきを、様々な重み分解、活性化関数、バイアス項、深さで解析する。
- 参考スコア(独自算出の注目度): 0.9864260997723973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we provide sufficient conditions for dissipativity and local
asymptotic stability of discrete-time dynamical systems parametrized by deep
neural networks. We leverage the representation of neural networks as pointwise
affine maps, thus exposing their local linear operators and making them
accessible to classical system analytic and design methods. This allows us to
"crack open the black box" of the neural dynamical system's behavior by
evaluating their dissipativity, and estimating their stationary points and
state-space partitioning. We relate the norms of these local linear operators
to the energy stored in the dissipative system with supply rates represented by
their aggregate bias terms. Empirically, we analyze the variance in dynamical
behavior and eigenvalue spectra of these local linear operators with varying
weight factorizations, activation functions, bias terms, and depths.
- Abstract(参考訳): 本稿では,深部ニューラルネットワークを用いた離散時間力学系の解離性と局所漸近安定性について述べる。
ニューラルネットワークの表現をポイントワイドアフィンマップとして活用し、局所線形演算子を露出させ、古典的なシステム解析および設計手法にアクセスできるようにする。
これにより、神経力学系の挙動の「クラック・ザ・ブラックボックス」を、その分散性を評価し、静止点と状態空間の分割を推定できる。
これらの局所線型作用素のノルムを散逸系に蓄積されたエネルギーと、それらの総バイアス項で表される供給率とを関連付ける。
実験により, 重み分解, 活性化関数, バイアス項, 深さの異なる局所線形作用素の動的挙動と固有値スペクトルのばらつきを解析した。
関連論文リスト
- How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Constraining Chaos: Enforcing dynamical invariants in the training of
recurrent neural networks [0.0]
本稿では,カオス力学系に対する機械学習に基づく予測手法の新しいトレーニング手法を提案する。
この訓練は、リヤプノフ指数スペクトルやフラクタル次元のような動的不変量を適用し、限られたデータで操作する場合、より長くより安定した予測を可能にする。
論文 参考訳(メタデータ) (2023-04-24T00:33:47Z) - Initial Correlations in Open Quantum Systems: Constructing Linear
Dynamical Maps and Master Equations [62.997667081978825]
任意の所定の初期相関に対して、開系の作用素の空間上の線型動的写像を導入することができることを示す。
この構造が一般化されたリンドブラッド構造を持つ線形時間局所量子マスター方程式に導かれることを実証する。
論文 参考訳(メタデータ) (2022-10-24T13:43:04Z) - Structure-Preserving Learning Using Gaussian Processes and Variational
Integrators [62.31425348954686]
本稿では,機械系の古典力学に対する変分積分器と,ガウス過程の回帰による残留力学の学習の組み合わせを提案する。
我々は、既知のキネマティック制約を持つシステムへのアプローチを拡張し、予測の不確実性に関する公式な境界を提供する。
論文 参考訳(メタデータ) (2021-12-10T11:09:29Z) - Locally-symplectic neural networks for learning volume-preserving
dynamics [0.0]
音量保存力学を学習するための局所シンプレクティックニューラルネットワーク LocSympNets を提案する。
LocSympNets の構成は、体積保存力学系のベクトル場の局所ハミルトン記述の定理に由来する。
論文 参考訳(メタデータ) (2021-09-19T15:58:09Z) - Supervised DKRC with Images for Offline System Identification [77.34726150561087]
現代の力学系はますます非線形で複雑なものになりつつある。
予測と制御のためのコンパクトで包括的な表現でこれらのシステムをモデル化するフレームワークが必要である。
本手法は,教師付き学習手法を用いてこれらの基礎関数を学習する。
論文 参考訳(メタデータ) (2021-09-06T04:39:06Z) - Learning strange attractors with reservoir systems [8.201100713224003]
本稿は、Takesの祝福されたエンベディング理論が、より一般的な声明の特別な事例であることを示している。
カオス的なアトラクションの表現、学習、分析のための追加のツールを提供する。
論文 参考訳(メタデータ) (2021-08-11T04:29:18Z) - Reconstructing a dynamical system and forecasting time series by
self-consistent deep learning [4.947248396489835]
ノイズの多い決定論的時系列に自己一貫性のあるディープラーニングフレームワークを導入する。
教師なしフィルタリング、状態空間再構成、基礎となる微分方程式の同定、予測を提供する。
論文 参考訳(メタデータ) (2021-08-04T06:10:58Z) - Neural Dynamic Mode Decomposition for End-to-End Modeling of Nonlinear
Dynamics [49.41640137945938]
ニューラルネットワークに基づくリフト関数を推定するためのニューラルダイナミックモード分解法を提案する。
提案手法により,予測誤差はニューラルネットワークとスペクトル分解によって逆伝搬される。
提案手法の有効性を,固有値推定と予測性能の観点から実証した。
論文 参考訳(メタデータ) (2020-12-11T08:34:26Z) - Liquid Time-constant Networks [117.57116214802504]
本稿では,時間連続リカレントニューラルネットワークモデルについて紹介する。
暗黙の非線形性によって学習システムの力学を宣言する代わりに、線形一階力学系のネットワークを構築する。
これらのニューラルネットワークは安定かつ有界な振る舞いを示し、ニューラル常微分方程式の族の中で優れた表現性をもたらす。
論文 参考訳(メタデータ) (2020-06-08T09:53:35Z) - Input-to-State Representation in linear reservoirs dynamics [15.491286626948881]
貯留層コンピューティングは、リカレントニューラルネットワークを設計するための一般的なアプローチである。
これらのネットワークの動作原理は、完全には理解されていない。
このようなネットワークの力学の新たな解析法を提案する。
論文 参考訳(メタデータ) (2020-03-24T00:14:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。