論文の概要: Translation Invariance of Neural Operators for the FitzHugh-Nagumo Model
- arxiv url: http://arxiv.org/abs/2603.17523v1
- Date: Wed, 18 Mar 2026 09:28:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.603098
- Title: Translation Invariance of Neural Operators for the FitzHugh-Nagumo Model
- Title(参考訳): FitzHugh-Nagumoモデルに対するニューラル演算子の変換不変性
- Authors: Luca Pellegrini,
- Abstract要約: ニューラルネットワーク(NOs)は、偏微分方程式から解演算子を学ぶために設計された強力なディープラーニングフレームワークである。
本研究は, 励起性細胞を記述したFitz-Nagumoモデルにおいて, 硬度時間的ダイナミクスを捕捉するNOs能について検討した。
我々は、7つのNOsアーキテクチャをベンチマークし、それらの性能を翻訳されたテストダイナミクスで評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Operators (NOs) are a powerful deep learning framework designed to learn the solution operator that arise from partial differential equations. This study investigates NOs ability to capture the stiff spatio-temporal dynamics of the FitzHugh-Nagumo model, which describes excitable cells. A key contribution of this work is evaluating the translation invariance using a novel training strategy. NOs are trained using an applied current with varying spatial locations and intensities at a fixed time, and the test set introduces a more challenging out-of-distribution scenario in which the applied current is translated in both time and space. This approach significantly reduces the computational cost of dataset generation. Moreover we benchmark seven NOs architectures: Convolutional Neural Operators (CNOs), Deep Operator Networks (DONs), DONs with CNN encoder (DONs-CNN), Proper Orthogonal Decomposition DONs (POD-DONs), Fourier Neural Operators (FNOs), Tucker Tensorized FNOs (TFNOs), Localized Neural Operators (LocalNOs). We evaluated these models based on training and test accuracy, efficiency, and inference speed. Our results reveal that CNOs performs well on translated test dynamics. However, they require higher training costs, though their performance on the training set is similar to that of the other considered architectures. In contrast, FNOs achieve the lowest training error, but have the highest inference time. Regarding the translated dynamics, FNOs and their variants provide less accurate predictions. Finally, DONs and their variants demonstrate high efficiency in both training and inference, however they do not generalize well to the test set. These findings highlight the current capabilities and limitations of NOs in capturing complex ionic model dynamics and provide a comprehensive benchmark including their application to scenarios involving translated dynamics.
- Abstract(参考訳): ニューラル演算子(英: Neural Operators, NOs)は、偏微分方程式から解演算子を学ぶために設計された強力なディープラーニングフレームワークである。
本研究では, 励起性細胞を記述したFitzHugh-Nagumoモデルにおいて, 硬度時空間ダイナミクスを捕捉するNOs能について検討した。
この研究の重要な貢献は、新しいトレーニング戦略を用いて翻訳不変性を評価することである。
NOは、空間的位置と強度の異なる印加電流を一定時間でトレーニングし、テストセットは、印加電流が時間と空間の両方で変換されるより困難な配電シナリオを導入する。
このアプローチはデータセット生成の計算コストを大幅に削減する。
さらに、畳み込みニューラルネットワーク(CNOs)、ディープオペレータネットワーク(DONs)、CNNエンコーダ(DONs-CNN)、適切な直交分解DONs(POD-DONs)、フーリエニューラルネットワーク(FNOs)、タッカーテンソル化FNOs(TFNOs)、ローカルNOs(LocalNOs)の7つのNOsアーキテクチャをベンチマークする。
トレーニングとテスト精度,効率,推論速度に基づいて,これらのモデルを評価した。
以上の結果から,CNOsは翻訳された試験力学において良好に機能することが明らかとなった。
しかし、トレーニングセットのパフォーマンスは他の考慮されたアーキテクチャと似ているにもかかわらず、より高いトレーニングコストを必要とする。
対照的に、FNOはトレーニングエラーが最も少ないが、推論時間が最も高い。
翻訳力学に関して、FNOとその変種はより正確な予測を提供する。
最後に、DONとその変種は、トレーニングと推論の両方において高い効率を示すが、それらはテストセットにうまく一般化しない。
これらの知見は、複雑なイオンモデルダイナミクスのキャプチャにおけるNOの現在の機能と制限を強調し、それらが翻訳力学を含むシナリオに適用されることを含む包括的なベンチマークを提供する。
関連論文リスト
- Test-time Generalization for Physics through Neural Operator Splitting [12.59844119790293]
トレーニングオペレータの合成を探索し、未知のダイナミクスを近似する神経オペレータ分割戦略を導入する。
提案手法は,基礎となるPDEパラメータを復元しながら,最先端のゼロショット一般化結果を実現する。
論文 参考訳(メタデータ) (2026-01-31T20:08:57Z) - Deep Hierarchical Learning with Nested Subspace Networks [53.71337604556311]
大規模ニューラルネットワークのためのNested Subspace Networks (NSN)を提案する。
NSNは、単一のモデルを連続した計算予算の範囲で動的かつきめ細かな調整を可能にする。
我々は,NSNを訓練済みのLLMに外科的に適用し,スムーズで予測可能な計算性能フロンティアを解き放つことができることを示した。
論文 参考訳(メタデータ) (2025-09-22T15:13:14Z) - MesaNet: Sequence Modeling by Locally Optimal Test-Time Training [67.45211108321203]
我々は,最近提案されたMesa層の数値的に安定かつチャンクワイズ可能な並列化版を導入する。
テストタイムの最適トレーニングにより、従来のRNNよりも言語モデリングの難易度が低く、ダウンストリームベンチマークのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-06-05T16:50:23Z) - Recurrent Neural Operators: Stable Long-Term PDE Prediction [0.0]
本稿では、リカレント・トレーニングをニューラル・オペレーター・アーキテクチャに統合するためのリカレント・ニューラル・オペレーター(RNO)を提案する。
RNOはオペレータを時間ウィンドウ上で自身の予測に適用し、トレーニング中の推論時間ダイナミクスを効果的にシミュレートする。
繰り返し学習は, 教師が線形成長を強制する場合の, 最悪の指数的誤りの増大を低減できることを示す。
論文 参考訳(メタデータ) (2025-05-27T05:04:35Z) - DeepONet Augmented by Randomized Neural Networks for Efficient Operator Learning in PDEs [5.84093922354671]
精度と効率のバランスをとるために設計されたハイブリッドアーキテクチャであるRaNN-DeepONetsを提案する。
RaNN-DeepONetsは計算コストを桁違いに削減しながら、同等の精度を達成する。
これらの結果は、PDEシステムにおける演算子学習の効率的な代替手段としてのRaNN-DeepONetsの可能性を強調している。
論文 参考訳(メタデータ) (2025-03-01T03:05:29Z) - Spectral-Refiner: Accurate Fine-Tuning of Spatiotemporal Fourier Neural Operator for Turbulent Flows [6.961408873053586]
最近の演算子型ニューラルネットワークは、部分微分方程式(PDE)の近似に有望な結果を示している。
これらのニューラルネットワークは、かなりのトレーニング費用を要し、科学や工学の分野において要求される精度を常に達成するとは限らない。
論文 参考訳(メタデータ) (2024-05-27T14:33:06Z) - Efficient kernel surrogates for neural network-based regression [0.8030359871216615]
ニューラルタンジェントカーネル(NTK)の効率的な近似である共役カーネル(CK)の性能について検討する。
CK性能がNTKよりもわずかに劣っていることを示し、特定の場合において、CK性能が優れていることを示す。
NTKの代わりにCKを使用するための理論的基盤を提供するだけでなく,DNNの精度を安価に向上するためのレシピを提案する。
論文 参考訳(メタデータ) (2023-10-28T06:41:47Z) - Guaranteed Approximation Bounds for Mixed-Precision Neural Operators [83.64404557466528]
我々は、ニューラル演算子学習が本質的に近似誤差を誘導する直感の上に構築する。
提案手法では,GPUメモリ使用量を最大50%削減し,スループットを58%向上する。
論文 参考訳(メタデータ) (2023-07-27T17:42:06Z) - Incorporating NODE with Pre-trained Neural Differential Operator for
Learning Dynamics [73.77459272878025]
ニューラル微分演算子(NDO)の事前学習による動的学習における教師付き信号の強化を提案する。
NDOは記号関数のクラスで事前訓練され、これらの関数の軌跡サンプルとそれらの導関数とのマッピングを学習する。
我々は,NDOの出力が,ライブラリの複雑さを適切に調整することで,基礎となる真理微分を適切に近似できることを理論的に保証する。
論文 参考訳(メタデータ) (2021-06-08T08:04:47Z) - Understanding Learning Dynamics for Neural Machine Translation [53.23463279153577]
ロス・チェンジ・アロケーション (LCA)citeplan 2019-loss-change-allocation を用いてNMTの学習力学を理解することを提案する。
LCAは更新毎にデータセット全体の勾配を計算する必要があるため、NMTシナリオで実際に実施するための近似を提示する。
シミュレーション実験により, 近似計算は効率的であり, 実験により一貫した結果が得られることを示した。
論文 参考訳(メタデータ) (2020-04-05T13:32:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。