論文の概要: Koopman operator learning using invertible neural networks
- arxiv url: http://arxiv.org/abs/2306.17396v2
- Date: Tue, 23 Jan 2024 05:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 19:30:38.115280
- Title: Koopman operator learning using invertible neural networks
- Title(参考訳): 可逆ニューラルネットワークを用いたkoopmanオペレータ学習
- Authors: Yuhuang Meng, Jianguo Huang, Yue Qiu
- Abstract要約: クープマン作用素論において、有限次元非線形系は可観測関数の集合を用いて無限だが線型系に変換される。
現在の方法論は可観測関数の可逆性の重要性を無視し、不正確な結果をもたらす傾向にある。
本稿では,CF-INN(Coupling Flow Invertible Neural Network)フレームワークを利用したフローベース動的モード分解(FlowDMD)を提案する。
- 参考スコア(独自算出の注目度): 0.6846628460229516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In Koopman operator theory, a finite-dimensional nonlinear system is
transformed into an infinite but linear system using a set of observable
functions. However, manually selecting observable functions that span the
invariant subspace of the Koopman operator based on prior knowledge is
inefficient and challenging, particularly when little or no information is
available about the underlying systems. Furthermore, current methodologies tend
to disregard the importance of the invertibility of observable functions, which
leads to inaccurate results. To address these challenges, we propose the
so-called FlowDMD, aka Flow-based Dynamic Mode Decomposition, that utilizes the
Coupling Flow Invertible Neural Network (CF-INN) framework. FlowDMD leverages
the intrinsically invertible characteristics of the CF-INN to learn the
invariant subspaces of the Koopman operator and accurately reconstruct state
variables. Numerical experiments demonstrate the superior performance of our
algorithm compared to state-of-the-art methodologies.
- Abstract(参考訳): クープマン作用素論において、有限次元非線形系は可観測関数の集合を用いて無限だが線型系に変換される。
しかし、事前知識に基づいてkoopman演算子の不変部分空間にまたがる可観測関数を手動で選択することは非効率的かつ困難である。
さらに、現在の方法論は可観測関数の可逆性の重要性を無視し、不正確な結果をもたらす傾向にある。
これらの課題に対処するために、結合フロー可逆ニューラルネットワーク(CF-INN)フレームワークを利用したフローベース動的モード分解と呼ばれるフローDMDを提案する。
FlowDMDはCF-INNの内在的可逆特性を利用して、クープマン作用素の不変部分空間を学び、状態変数を正確に再構成する。
数値実験により,最先端手法と比較して,アルゴリズムの優れた性能を示す。
関連論文リスト
- Linearization Turns Neural Operators into Function-Valued Gaussian Processes [23.85470417458593]
ニューラル作用素におけるベイズの不確かさを近似する新しい枠組みを導入する。
我々の手法は関数型プログラミングからカリー化の概念の確率論的類似体と解釈できる。
我々は、異なるタイプの偏微分方程式への応用を通して、我々のアプローチの有効性を示す。
論文 参考訳(メタデータ) (2024-06-07T16:43:54Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Extraction of nonlinearity in neural networks with Koopman operator [0.0]
ニューラルネットワークの非線形性が不可欠である程度について検討する。
我々は、Koopman演算子、拡張動的モード分解、テンソルトレイン形式を用いる。
論文 参考訳(メタデータ) (2024-02-18T23:54:35Z) - Manipulating Feature Visualizations with Gradient Slingshots [54.31109240020007]
本稿では,モデルの決定過程に大きな影響を及ぼすことなく,特徴可視化(FV)を操作する新しい手法を提案する。
ニューラルネットワークモデルにおける本手法の有効性を評価し,任意の選択したニューロンの機能を隠蔽する能力を示す。
論文 参考訳(メタデータ) (2024-01-11T18:57:17Z) - KoopmanizingFlows: Diffeomorphically Learning Stable Koopman Operators [7.447933533434023]
本稿では,線形時間不変(LTI)モデルを構築するための新しいフレームワークを提案する。
事前に定義された関数のライブラリやスペクトルを知ることなく、クープマン作用素の特徴を学習する。
本稿では,LASA手書きデータセットにおける最先端手法と比較して,提案手法の優れた有効性を示す。
論文 参考訳(メタデータ) (2021-12-08T02:40:40Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Deep Learning Enhanced Dynamic Mode Decomposition [0.0]
畳み込みオートエンコーダネットワークを用いて、観測対象の最適なファミリーを同時に見つける。
また,観測可能空間への流れの正確な埋め込みと,観測可能空間の流れ座標への浸漬も生成する。
このネットワークはフローのグローバルな変換をもたらし、EDMDとデコーダネットワークを介して将来の状態を予測する。
論文 参考訳(メタデータ) (2021-08-10T03:54:23Z) - Inverse Problem of Nonlinear Schr\"odinger Equation as Learning of
Convolutional Neural Network [5.676923179244324]
提案手法を用いて,パラメータの相対的精度を推定できることを示す。
深い学習を伴う偏微分方程式の逆問題における自然な枠組みを提供する。
論文 参考訳(メタデータ) (2021-07-19T02:54:37Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Lipschitz Recurrent Neural Networks [100.72827570987992]
我々のリプシッツ再帰ユニットは、他の連続時間RNNと比較して、入力やパラメータの摂動に対してより堅牢であることを示す。
実験により,Lipschitz RNNは,ベンチマークタスクにおいて,既存のリカレントユニットよりも優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-06-22T08:44:52Z) - Applications of Koopman Mode Analysis to Neural Networks [52.77024349608834]
我々は,ニューラルネットワークのトレーニング過程を,高次元の重み空間に作用する力学系と考える。
アーキテクチャに必要なレイヤ数を決定するために、Koopmanスペクトルをどのように利用できるかを示す。
また、Koopmanモードを使えば、ネットワークを選択的にプーンしてトレーニング手順を高速化できることを示す。
論文 参考訳(メタデータ) (2020-06-21T11:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。