論文の概要: Learning the Hodgkin-Huxley Model with Operator Learning Techniques
- arxiv url: http://arxiv.org/abs/2406.02173v1
- Date: Tue, 4 Jun 2024 10:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:51:53.729504
- Title: Learning the Hodgkin-Huxley Model with Operator Learning Techniques
- Title(参考訳): 演算子学習技術を用いたホジキン・ハクスリーモデルの学習
- Authors: Edoardo Centofanti, Massimiliano Ghiotto, Luca F. Pavarino,
- Abstract要約: 我々は,Hudgkin-Huxleyイオンモデルの膜貫通電位に時間依存の印加電流をマッピングする演算子を3つの演算子学習アーキテクチャを構築し,比較する。
これらの演算子学習手法を適切に設計することにより,Hudgkin-Huxleyイオンモデルの解を学習する際の相対的なL2誤差を1.4%以下に抑えることにより,これらの課題に効果的に対処できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We construct and compare three operator learning architectures, DeepONet, Fourier Neural Operator, and Wavelet Neural Operator, in order to learn the operator mapping a time-dependent applied current to the transmembrane potential of the Hodgkin- Huxley ionic model. The underlying non-linearity of the Hodgkin-Huxley dynamical system, the stiffness of its solutions, and the threshold dynamics depending on the intensity of the applied current, are some of the challenges to address when exploiting artificial neural networks to learn this class of complex operators. By properly designing these operator learning techniques, we demonstrate their ability to effectively address these challenges, achieving a relative L2 error as low as 1.4% in learning the solutions of the Hodgkin-Huxley ionic model.
- Abstract(参考訳): 我々は、ホジキン・ハクスリーイオンモデルの膜貫通電位に時間依存の印加電流をマッピングする演算子を学習するために、DeepONet、フーリエニューラル演算子、ウェーブレットニューラル演算子という3つの演算子学習アーキテクチャを構築し、比較する。
ホジキン・ホクスリー力学系の根底にある非線形性、その解の硬さ、および応用電流の強度に依存するしきい値力学は、この種類の複雑な演算子を学ぶために人工ニューラルネットワークを利用する際の課題である。
これらの演算子学習手法を適切に設計することにより、Hudgkin-Huxleyイオンモデルの解を学習する際に、相対的なL2誤差を1.4%以下で達成し、これらの課題に効果的に対処する能力を示す。
関連論文リスト
- How Feature Learning Can Improve Neural Scaling Laws [86.9540615081759]
我々は,カーネル限界を超えたニューラルスケーリング法則の解法モデルを開発する。
モデルのサイズ、トレーニング時間、利用可能なデータの総量によるパフォーマンスのスケールアップ方法を示す。
論文 参考訳(メタデータ) (2024-09-26T14:05:32Z) - FB-HyDON: Parameter-Efficient Physics-Informed Operator Learning of Complex PDEs via Hypernetwork and Finite Basis Domain Decomposition [0.0]
ディープ・オペレータ・ネットワーク(DeepONet)とニューラル・オペレーターは無限次元の関数空間をマッピングし、ゼロショット超解像を行う能力において大きな注目を集めている。
本稿では,Finite Basis Physics-Informed HyperDeepONet (FB-HyDON)を紹介した。
ハイパーネットワークと有限基底関数を利用することで、FB-HyDONは既存の物理インフォームド演算子学習法に関連するトレーニング制限を効果的に緩和する。
論文 参考訳(メタデータ) (2024-09-13T21:41:59Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Learning reduced-order Quadratic-Linear models in Process Engineering using Operator Inference [7.471096682644106]
この研究は、プロセス工学における動的システムの効率的なモデリングという課題に対処する。
我々は、低次モデル学習、特に演算子推論を用いる。
本研究の応用は、パワー・トゥ・Xフレームワークにおける重要な反応である二酸化炭素のメタン化である。
論文 参考訳(メタデータ) (2024-02-27T17:21:10Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Peridynamic Neural Operators: A Data-Driven Nonlocal Constitutive Model
for Complex Material Responses [12.454290779121383]
本研究では,データから非局所法則を学習するPNO(Peridynamic Neural Operator)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このニューラル作用素は、客観性と運動量バランス法則が自動的に保証される状態ベースペリダイナミックスという形でフォワードモデルを提供する。
複雑な応答をキャプチャする能力により、学習したニューラル演算子はベースラインモデルと比較して精度と効率が向上することを示した。
論文 参考訳(メタデータ) (2024-01-11T17:37:20Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Towards an Hybrid Hodgkin-Huxley Action Potential Generation Model [0.0]
2つの簡単な測定値のみを用いてホジキン・ハクスリーモデルのパラメトリック関数を見つける可能性を検討する。
元のHodgkin-Huxleyモデルから生成されたデータを用いて実験を行った。
その結果、最小限のデータ量でトレーニングされた単純な2層人工ニューラルネットワークアーキテクチャは、アクションポテンシャル生成の基本的な妥当性をモデル化することを学ぶことができた。
論文 参考訳(メタデータ) (2023-03-15T22:39:23Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。