論文の概要: Using Neural Implicit Flow To Represent Latent Dynamics Of Canonical Systems
- arxiv url: http://arxiv.org/abs/2404.17535v1
- Date: Fri, 26 Apr 2024 17:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 12:35:26.063121
- Title: Using Neural Implicit Flow To Represent Latent Dynamics Of Canonical Systems
- Title(参考訳): ニューラルインプリシトフローを用いた正準系の潜時ダイナミクスの表現
- Authors: Imran Nasim, Joaõ Lucas de Sousa Almeida,
- Abstract要約: 最近開発されたメッシュに依存しないニューラル演算子であるNeural Implicit Flow (NIF) の機能を示す。
NIFは、倉本・シヴァシンスキー(KS)、強制コルテヴェーグ・ド・ヴリー(fKdV)、シン=ゴルドン(SG)方程式などの正準系の潜在力学を表す。
我々はまた、Deep Operator Networks(DeepONets)として知られる他の広く知られている神経オペレーターのファミリーと比較分析を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recently introduced class of architectures known as Neural Operators has emerged as highly versatile tools applicable to a wide range of tasks in the field of Scientific Machine Learning (SciML), including data representation and forecasting. In this study, we investigate the capabilities of Neural Implicit Flow (NIF), a recently developed mesh-agnostic neural operator, for representing the latent dynamics of canonical systems such as the Kuramoto-Sivashinsky (KS), forced Korteweg-de Vries (fKdV), and Sine-Gordon (SG) equations, as well as for extracting dynamically relevant information from them. Finally we assess the applicability of NIF as a dimensionality reduction algorithm and conduct a comparative analysis with another widely recognized family of neural operators, known as Deep Operator Networks (DeepONets).
- Abstract(参考訳): 最近導入されたNeural Operatorsとして知られるアーキテクチャのクラスは、データ表現や予測を含むSciML(SciML)分野の幅広いタスクに適用可能な、非常に汎用性の高いツールとして登場した。
本研究では,最近開発されたメッシュに依存しないニューラルインプリシット・フロー (NIF) を用いて,倉本・シヴァシンスキー (KS) や強制コルテフ・ド・ヴリー (fKdV) やシン・ゴルドン (SG) 方程式などの正準系の潜在力学を表現し,それらから動的に関連する情報を抽出する機能について検討した。
最後に,NIFの適用性を次元還元アルゴリズムとして評価し,Deep Operator Networks (DeepONets) として知られる他のニューラルネットワーク群と比較分析を行った。
関連論文リスト
- A Mathematical Framework, a Taxonomy of Modeling Paradigms, and a Suite of Learning Techniques for Neural-Symbolic Systems [22.42431063362667]
本稿では,ニューラル・シンボリックエネルギーベースモデル(NeSy-EBMs)を紹介する。
我々はNeSy-EBMを用いて,システムのニューラルシンボリックインタフェースと推論機能に着目したモデリングパラダイムの分類法を開発した。
我々はまた、スケーラビリティと表現性のために設計されたオープンソースのNeSy-EBMライブラリNeuPSL(NeuPSL)についても紹介する。
論文 参考訳(メタデータ) (2024-07-12T21:26:21Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Resolution-Invariant Image Classification based on Fourier Neural
Operators [1.3190581566723918]
画像分類における一般化ニューラルネットワーク (FNO) の利用について, 標準畳み込みニューラルネットワーク (CNN) と比較して検討した。
我々は、ルベーグ空間上の連続およびFr'echet微分可能なニューラル作用素の例としてFNOアーキテクチャを導出する。
論文 参考訳(メタデータ) (2023-04-02T10:23:36Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Reachability Analysis of a General Class of Neural Ordinary Differential
Equations [7.774796410415387]
連続的なディープラーニングモデル(Neural Ordinary Differential Equations (Neural ODEs)と呼ばれる)は、ここ数年でかなりの注目を集めている。
その衝撃にもかかわらず、これらのシステムには公式な分析技術が欠如している。
我々は,それらの行動の形式的分析を可能にする,新しい到達可能性フレームワークを導入する。
論文 参考訳(メタデータ) (2022-07-13T22:05:52Z) - Learning Trajectories of Hamiltonian Systems with Neural Networks [81.38804205212425]
本稿では,モデル系の連続時間軌跡を推定し,ハミルトニアンニューラルネットワークを強化することを提案する。
提案手法は, 低サンプリング率, ノイズ, 不規則な観測において, HNNに対して有効であることを示す。
論文 参考訳(メタデータ) (2022-04-11T13:25:45Z) - The Spectral Bias of Polynomial Neural Networks [63.27903166253743]
PNN(Polynomial Neural Network)は、高頻度情報を重要視する画像生成と顔認識に特に有効であることが示されている。
これまでの研究では、ニューラルネットワークが低周波関数に対して$textitspectral bias$を示しており、トレーニング中に低周波成分のより高速な学習をもたらすことが示されている。
このような研究に触発されて、我々はPNNのTangent Kernel(NTK)のスペクトル分析を行う。
我々は、最近提案されたPNNのパラメトリゼーションである$Pi$-Netファミリがスピードアップすることを発見した。
論文 参考訳(メタデータ) (2022-02-27T23:12:43Z) - Learn Like The Pro: Norms from Theory to Size Neural Computation [3.848947060636351]
非線形性を持つ力学系が、それらをエミュレートしようとするニューラル系の設計にどのように影響するかを考察する。
本稿では,学習性尺度を提案し,その関連する特徴を学習力学の近平衡挙動に量子化する。
連続的あるいは離散的な時間ダイナミクスを模倣する乗法ノードを持つニューラルネットワークのクラスの正確なサイズを明らかにしている。
論文 参考訳(メタデータ) (2021-06-21T20:58:27Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - FastONN -- Python based open-source GPU implementation for Operational
Neural Networks [25.838282412957675]
この作業では、オペレーショナルニューラルネットワークをトレーニングするための高速GPU対応ライブラリであるFastONNが導入されている。
FastONNは、オペレーショナルニューロンの新しいベクトル化された定式化に基づいている。
バンドルされた補助モジュールは、さまざまなデータパーティションとカスタマイズされたメトリクスにわたるパフォーマンストラッキングとチェックポイントのためのインターフェースを提供する。
論文 参考訳(メタデータ) (2020-06-03T13:33:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。