論文の概要: Latent assimilation with implicit neural representations for unknown
dynamics
- arxiv url: http://arxiv.org/abs/2309.09574v1
- Date: Mon, 18 Sep 2023 08:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 14:20:51.216417
- Title: Latent assimilation with implicit neural representations for unknown
dynamics
- Title(参考訳): 未知ダイナミクスのための暗黙的神経表現と潜在性同化
- Authors: Zhuoyuan Li, Bin Dong, and Pingwen Zhang
- Abstract要約: 本研究は、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
- 参考スコア(独自算出の注目度): 6.682908186025083
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Data assimilation is crucial in a wide range of applications, but it often
faces challenges such as high computational costs due to data dimensionality
and incomplete understanding of underlying mechanisms. To address these
challenges, this study presents a novel assimilation framework, termed Latent
Assimilation with Implicit Neural Representations (LAINR). By introducing
Spherical Implicit Neural Representations (SINR) along with a data-driven
uncertainty estimator of the trained neural networks, LAINR enhances efficiency
in assimilation process. Experimental results indicate that LAINR holds certain
advantage over existing methods based on AutoEncoders, both in terms of
accuracy and efficiency.
- Abstract(参考訳): データ同化は幅広いアプリケーションにおいて不可欠であるが、データ次元による高い計算コストや基礎となるメカニズムの不完全な理解といった課題に直面することが多い。
これらの課題に対処するため、本研究では、LAINR(Latent Assimilation with Implicit Neural Representations)と呼ばれる新しい同化フレームワークを提案する。
Spherical Implicit Neural Representation (SINR)とデータ駆動型ニューラルネットワークの不確実性推定器を導入することにより、LAINRは同化過程における効率を向上させる。
実験結果から,LAINRはオートエンコーダをベースとした既存手法に対して,精度と効率の両面で一定の優位性を有することが示された。
関連論文リスト
- An Interpretable Constructive Algorithm for Incremental Random Weight
Neural Networks and Its Application [3.725257880268641]
本稿では,幾何的情報制約を伴う解釈可能な構成アルゴリズム(ICA)を提案する。
ICAは、モデリング速度、モデル精度、モデルネットワーク構造において、他の構築アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2023-07-01T01:07:20Z) - A neural network based model for multi-dimensional nonlinear Hawkes
processes [0.0]
非線形ホークスプロセスに適合するニューラルネットワークに基づく非パラメトリック手法であるNNNH(Neural Network for Descent Hawkes Process)を導入する。
本結果は,非線形ホークス過程の複雑さを正確に把握するNNNH法の有効性を強調した。
論文 参考訳(メタデータ) (2023-03-06T12:31:19Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - On Robust Numerical Solver for ODE via Self-Attention Mechanism [82.95493796476767]
我々は,内在性雑音障害を緩和し,AIによって強化された数値解法を,データサイズを小さくする訓練について検討する。
まず,教師付き学習における雑音を制御するための自己認識機構の能力を解析し,さらに微分方程式の数値解に付加的な自己認識機構を導入し,簡便かつ有効な数値解法であるAttrを提案する。
論文 参考訳(メタデータ) (2023-02-05T01:39:21Z) - A Robust Backpropagation-Free Framework for Images [64.45011329525778]
本稿では, 局所的に導出した誤り伝達カーネルとエラーマップを用いて, 畳み込みニューラルネットワーク(CNN)を訓練するための生物学的に妥当なアプローチを提案する。
我々は,Fashion MNIST, CIFAR-10, SVHNベンチマーク上で視覚認識タスクを行うことにより, EKDAAの有効性を示す。
また,識別不能なアクティベーション関数を用いて訓練したCNNについて報告する。
論文 参考訳(メタデータ) (2022-06-03T21:14:10Z) - Multigoal-oriented dual-weighted-residual error estimation using deep
neural networks [0.0]
ディープラーニングは、関数を近似する柔軟性の高い強力なツールだと考えられている。
提案手法は,誤差の局所化に付随する問題を解く後続誤差推定法に基づく。
複数のゴール関数に対する後方誤差推定を得るために,効率的で実装が容易なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-12-21T16:59:44Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Robust Learning of Recurrent Neural Networks in Presence of Exogenous
Noise [22.690064709532873]
入力雑音を受けるRNNモデルに対するトラクタブルロバストネス解析を提案する。
線形化手法を用いてロバストネス測度を効率的に推定することができる。
提案手法はリカレントニューラルネットワークのロバスト性を大幅に改善する。
論文 参考訳(メタデータ) (2021-05-03T16:45:05Z) - Exploiting Non-Linear Redundancy for Neural Model Compression [26.211513643079993]
本稿では,線形依存の活用に基づく新しいモデル圧縮手法を提案する。
その結果,ネットワークサイズが最大99%減少し,性能が低下することがわかった。
論文 参考訳(メタデータ) (2020-05-28T15:13:21Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。