論文の概要: Latent assimilation with implicit neural representations for unknown
dynamics
- arxiv url: http://arxiv.org/abs/2309.09574v1
- Date: Mon, 18 Sep 2023 08:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:20:51.216417
- Title: Latent assimilation with implicit neural representations for unknown
dynamics
- Title(参考訳): 未知ダイナミクスのための暗黙的神経表現と潜在性同化
- Authors: Zhuoyuan Li, Bin Dong, and Pingwen Zhang
- Abstract要約: 本研究は、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
- 参考スコア(独自算出の注目度): 6.682908186025083
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data assimilation is crucial in a wide range of applications, but it often
faces challenges such as high computational costs due to data dimensionality
and incomplete understanding of underlying mechanisms. To address these
challenges, this study presents a novel assimilation framework, termed Latent
Assimilation with Implicit Neural Representations (LAINR). By introducing
Spherical Implicit Neural Representations (SINR) along with a data-driven
uncertainty estimator of the trained neural networks, LAINR enhances efficiency
in assimilation process. Experimental results indicate that LAINR holds certain
advantage over existing methods based on AutoEncoders, both in terms of
accuracy and efficiency.
- Abstract(参考訳): データ同化は幅広いアプリケーションにおいて不可欠であるが、データ次元による高い計算コストや基礎となるメカニズムの不完全な理解といった課題に直面することが多い。
これらの課題に対処するため、本研究では、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
実験結果から,LAINRはオートエンコーダをベースとした既存手法に対して,精度と効率の両面で一定の優位性を有することが示された。
関連論文リスト
- Statistical tuning of artificial neural network [0.0]
本研究では、ニューラルネットワークの理解を強化する方法を紹介し、特に1つの隠蔽層を持つモデルに焦点を当てる。
本稿では,入力ニューロンの意義を統計的に評価し,次元減少のためのアルゴリズムを提案する。
この研究は、ニューラルネットワークを解釈するための堅牢な統計フレームワークを提示することにより、説明可能な人工知能の分野を前進させる。
論文 参考訳(メタデータ) (2024-09-24T19:47:03Z) - Adversarial Learning for Neural PDE Solvers with Sparse Data [4.226449585713182]
本研究では,ロバストトレーニングのためのシステムモデル拡張(Systematic Model Augmentation for Robust Training)という,ニューラルネットワークPDEの普遍的学習戦略を紹介する。
モデルの弱点に挑戦し改善することに集中することにより、SMARTはデータスカース条件下でのトレーニング中の一般化エラーを低減する。
論文 参考訳(メタデータ) (2024-09-04T04:18:25Z) - CGNSDE: Conditional Gaussian Neural Stochastic Differential Equation for Modeling Complex Systems and Data Assimilation [1.4322470793889193]
条件付きニューラル微分方程式(CGNSDE)と呼ばれる新しい知識ベースおよび機械学習ハイブリッドモデリング手法を開発した。
標準的なニューラルネットワーク予測モデルとは対照的に、CGNSDEは前方予測タスクと逆状態推定問題の両方に効果的に取り組むように設計されている。
論文 参考訳(メタデータ) (2024-04-10T05:32:03Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - A neural network based model for multi-dimensional nonlinear Hawkes
processes [0.0]
非線形ホークスプロセスに適合するニューラルネットワークに基づく非パラメトリック手法であるNNNH(Neural Network for Descent Hawkes Process)を導入する。
本結果は,非線形ホークス過程の複雑さを正確に把握するNNNH法の有効性を強調した。
論文 参考訳(メタデータ) (2023-03-06T12:31:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。