論文の概要: Latent assimilation with implicit neural representations for unknown dynamics
- arxiv url: http://arxiv.org/abs/2309.09574v2
- Date: Sat, 23 Mar 2024 02:16:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 03:07:37.044014
- Title: Latent assimilation with implicit neural representations for unknown dynamics
- Title(参考訳): 未知ダイナミクスのための暗黙的神経表現を用いた潜時同化
- Authors: Zhuoyuan Li, Bin Dong, Pingwen Zhang,
- Abstract要約: 本研究は、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
- 参考スコア(独自算出の注目度): 6.682908186025083
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data assimilation is crucial in a wide range of applications, but it often faces challenges such as high computational costs due to data dimensionality and incomplete understanding of underlying mechanisms. To address these challenges, this study presents a novel assimilation framework, termed Latent Assimilation with Implicit Neural Representations (LAINR). By introducing Spherical Implicit Neural Representations (SINR) along with a data-driven uncertainty estimator of the trained neural networks, LAINR enhances efficiency in assimilation process. Experimental results indicate that LAINR holds certain advantage over existing methods based on AutoEncoders, both in terms of accuracy and efficiency.
- Abstract(参考訳): データ同化は幅広いアプリケーションにおいて重要であるが、データ次元性による高い計算コストや、基礎となるメカニズムの不完全な理解といった課題に直面していることが多い。
これらの課題に対処するため、本研究では、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
実験結果から,LAINRはAutoEncoderをベースとした既存の手法に対して,精度と効率の両面で一定の優位性を持っていることが示唆された。
関連論文リスト
- Deep-Unrolling Multidimensional Harmonic Retrieval Algorithms on Neuromorphic Hardware [78.17783007774295]
本稿では,高精度かつエネルギー効率の高い単発多次元高調波検索のための変換に基づくニューロモルフィックアルゴリズムの可能性について検討する。
複雑な値の畳み込み層と活性化をスパイクニューラルネットワーク(SNN)に変換する新しい手法を開発した。
変換されたSNNは、元のCNNに比べて性能が低下し、ほぼ5倍の電力効率を実現している。
論文 参考訳(メタデータ) (2024-12-05T09:41:33Z) - Preserving Information: How does Topological Data Analysis improve Neural Network performance? [0.0]
本稿では,画像認識におけるトポロジカルデータ解析(TDA)と畳み込みニューラルネットワーク(CNN)の統合手法を提案する。
我々のアプローチは、ベクトルスチッチ(Vector Stitching)と呼ばれ、生画像データと追加のトポロジ情報を組み合わせたものである。
実験の結果は,追加データ解析の結果をネットワークの推論プロセスに組み込むことの可能性を強調した。
論文 参考訳(メタデータ) (2024-11-27T14:56:05Z) - Statistical tuning of artificial neural network [0.0]
本研究では、ニューラルネットワークの理解を強化する方法を紹介し、特に1つの隠蔽層を持つモデルに焦点を当てる。
本稿では,入力ニューロンの意義を統計的に評価し,次元減少のためのアルゴリズムを提案する。
この研究は、ニューラルネットワークを解釈するための堅牢な統計フレームワークを提示することにより、説明可能な人工知能の分野を前進させる。
論文 参考訳(メタデータ) (2024-09-24T19:47:03Z) - Adversarial Learning for Neural PDE Solvers with Sparse Data [4.226449585713182]
本研究では,ロバストトレーニングのためのシステムモデル拡張(Systematic Model Augmentation for Robust Training)という,ニューラルネットワークPDEの普遍的学習戦略を紹介する。
モデルの弱点に挑戦し改善することに集中することにより、SMARTはデータスカース条件下でのトレーニング中の一般化エラーを低減する。
論文 参考訳(メタデータ) (2024-09-04T04:18:25Z) - Generalization Error Guaranteed Auto-Encoder-Based Nonlinear Model
Reduction for Operator Learning [12.124206935054389]
本稿では,オートエンコーダベースニューラルネットワーク(AENet)によるモデル縮小における低次元非線形構造の利用について述べる。
数値実験により,非線形偏微分方程式の解演算子を正確に学習する能力について検証した。
我々の理論的枠組みは、AENetのトレーニングのサンプルの複雑さが、モデル化されたプロセスの本質的な次元と複雑に結びついていることを示している。
論文 参考訳(メタデータ) (2024-01-19T05:01:43Z) - A neural network based model for multi-dimensional nonlinear Hawkes
processes [0.0]
非線形ホークスプロセスに適合するニューラルネットワークに基づく非パラメトリック手法であるNNNH(Neural Network for Descent Hawkes Process)を導入する。
本結果は,非線形ホークス過程の複雑さを正確に把握するNNNH法の有効性を強調した。
論文 参考訳(メタデータ) (2023-03-06T12:31:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Gradient Starvation: A Learning Proclivity in Neural Networks [97.02382916372594]
グラディエント・スターベーションは、タスクに関連する機能のサブセットのみをキャプチャすることで、クロスエントロピー損失を最小化するときに発生する。
この研究は、ニューラルネットワークにおけるそのような特徴不均衡の出現に関する理論的説明を提供する。
論文 参考訳(メタデータ) (2020-11-18T18:52:08Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。