論文の概要: Physics-Informed Koopman Network
- arxiv url: http://arxiv.org/abs/2211.09419v1
- Date: Thu, 17 Nov 2022 08:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 17:30:42.017424
- Title: Physics-Informed Koopman Network
- Title(参考訳): 物理インフォームド・クープマンネットワーク
- Authors: Yuying Liu, Aleksei Sholokhov, Hassan Mansour, Saleh Nabi
- Abstract要約: 我々は、クープマン演算子を表現するために、物理インフォームドニューラルネットワークにインスパイアされた新しいアーキテクチャを提案する。
大規模なトレーニングデータセットの必要性を低減できるだけでなく、クープマン固有関数の近似における高い有効性も維持できることを示す。
- 参考スコア(独自算出の注目度): 14.203407036091555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Koopman operator theory is receiving increased attention due to its promise
to linearize nonlinear dynamics. Neural networks that are developed to
represent Koopman operators have shown great success thanks to their ability to
approximate arbitrarily complex functions. However, despite their great
potential, they typically require large training data-sets either from
measurements of a real system or from high-fidelity simulations. In this work,
we propose a novel architecture inspired by physics-informed neural networks,
which leverage automatic differentiation to impose the underlying physical laws
via soft penalty constraints during model training. We demonstrate that it not
only reduces the need of large training data-sets, but also maintains high
effectiveness in approximating Koopman eigenfunctions.
- Abstract(参考訳): クープマン作用素理論は、非線形力学を線型化するという約束のために注目されている。
クープマン作用素を表現するために開発されたニューラルネットワークは、任意に複雑な関数を近似する能力によって大きな成功を収めている。
しかし、大きな可能性にもかかわらず、それらは通常、実際のシステムの測定や高忠実度シミュレーションからの大きなトレーニングデータセットを必要とする。
本研究では,モデルトレーニング中にソフトペナルティ制約によって基礎となる物理法則を強制するために自動微分を利用する,物理に変形したニューラルネットワークに触発された新しいアーキテクチャを提案する。
大規模トレーニングデータセットの必要性を減少させるだけでなく,koopman固有関数近似における高い有効性を維持することを実証した。
関連論文リスト
- Deep Learning for Koopman Operator Estimation in Idealized Atmospheric Dynamics [2.2489531925874013]
ディープラーニングは、気象予報に革命をもたらしており、新しいデータ駆動モデルは、中期予測のための運用物理モデルと同等の精度を達成している。
これらのモデルは解釈可能性に欠けることが多く、基礎となる力学を理解するのが難しく、説明が難しい。
本稿では、データ駆動モデルの透明性を高めるために、複雑な非線形力学の線形表現を提供するクープマン作用素を推定する手法を提案する。
論文 参考訳(メタデータ) (2024-09-10T13:56:54Z) - Coding schemes in neural networks learning classification tasks [52.22978725954347]
完全接続型広義ニューラルネットワーク学習タスクについて検討する。
ネットワークが強力なデータ依存機能を取得することを示す。
驚くべきことに、内部表現の性質は神経の非線形性に大きく依存する。
論文 参考訳(メタデータ) (2024-06-24T14:50:05Z) - Neural Koopman prior for data assimilation [7.875955593012905]
ニューラルネットワークアーキテクチャを使って、潜在空間に動的システムを埋め込む。
本研究では,このようなモデルを長期の継続的再構築のために訓練する手法を提案する。
また,変動データ同化手法の先行として,訓練された動的モデルの有望な利用を示すとともに,自己教師型学習の可能性も示された。
論文 参考訳(メタデータ) (2023-09-11T09:04:36Z) - Solving Large-scale Spatial Problems with Convolutional Neural Networks [88.31876586547848]
大規模空間問題に対する学習効率を向上させるために移動学習を用いる。
畳み込みニューラルネットワーク (CNN) は, 信号の小さな窓で訓練できるが, 性能劣化の少ない任意の大信号で評価できる。
論文 参考訳(メタデータ) (2023-06-14T01:24:42Z) - Learning Linear Embeddings for Non-Linear Network Dynamics with Koopman
Message Passing [0.0]
我々は、クープマン作用素理論とメッセージパッシングネットワークに基づく新しいアプローチを提案する。
動的システムに対する線形表現は,任意の段階において世界規模で有効である。
本手法で得られた線形化は,現在の最先端技術よりも数桁優れたネットワーク力学問題に対して予測を行う。
論文 参考訳(メタデータ) (2023-05-15T23:00:25Z) - Leveraging Neural Koopman Operators to Learn Continuous Representations
of Dynamical Systems from Scarce Data [0.0]
我々は、本質的に連続的な方法でダイナミクスを表現する新しいディープ・クープマン・フレームワークを提案する。
このフレームワークは、限られたトレーニングデータのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2023-03-13T10:16:19Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Applications of Koopman Mode Analysis to Neural Networks [52.77024349608834]
我々は,ニューラルネットワークのトレーニング過程を,高次元の重み空間に作用する力学系と考える。
アーキテクチャに必要なレイヤ数を決定するために、Koopmanスペクトルをどのように利用できるかを示す。
また、Koopmanモードを使えば、ネットワークを選択的にプーンしてトレーニング手順を高速化できることを示す。
論文 参考訳(メタデータ) (2020-06-21T11:00:04Z) - Optimizing Neural Networks via Koopman Operator Theory [6.09170287691728]
クープマン作用素理論は近年、ニューラルネットワーク理論と密接に関連していることが示されている。
この作業では、この接続を利用するための第一歩を踏み出します。
クープマン作用素理論法は、非自明な訓練時間の範囲で、供給重みの重みと偏りの予測を可能にする。
論文 参考訳(メタデータ) (2020-06-03T16:23:07Z) - Forecasting Sequential Data using Consistent Koopman Autoencoders [52.209416711500005]
クープマン理論に関連する新しい物理学に基づく手法が導入された。
本稿では,既存の作業の多くと異なり,前方・後方のダイナミクスを生かした新しいコンシスタント・クープマン・オートエンコーダモデルを提案する。
このアプローチの鍵となるのは、一貫性のある力学と関連するクープマン作用素との相互作用を探索する新しい解析である。
論文 参考訳(メタデータ) (2020-03-04T18:24:30Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。