論文の概要: Learning the Hodgkin-Huxley Model with Operator Learning Techniques
- arxiv url: http://arxiv.org/abs/2406.02173v1
- Date: Tue, 4 Jun 2024 10:04:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 16:51:53.729504
- Title: Learning the Hodgkin-Huxley Model with Operator Learning Techniques
- Title(参考訳): 演算子学習技術を用いたホジキン・ハクスリーモデルの学習
- Authors: Edoardo Centofanti, Massimiliano Ghiotto, Luca F. Pavarino,
- Abstract要約: 我々は,Hudgkin-Huxleyイオンモデルの膜貫通電位に時間依存の印加電流をマッピングする演算子を3つの演算子学習アーキテクチャを構築し,比較する。
これらの演算子学習手法を適切に設計することにより,Hudgkin-Huxleyイオンモデルの解を学習する際の相対的なL2誤差を1.4%以下に抑えることにより,これらの課題に効果的に対処できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We construct and compare three operator learning architectures, DeepONet, Fourier Neural Operator, and Wavelet Neural Operator, in order to learn the operator mapping a time-dependent applied current to the transmembrane potential of the Hodgkin- Huxley ionic model. The underlying non-linearity of the Hodgkin-Huxley dynamical system, the stiffness of its solutions, and the threshold dynamics depending on the intensity of the applied current, are some of the challenges to address when exploiting artificial neural networks to learn this class of complex operators. By properly designing these operator learning techniques, we demonstrate their ability to effectively address these challenges, achieving a relative L2 error as low as 1.4% in learning the solutions of the Hodgkin-Huxley ionic model.
- Abstract(参考訳): 我々は、ホジキン・ハクスリーイオンモデルの膜貫通電位に時間依存の印加電流をマッピングする演算子を学習するために、DeepONet、フーリエニューラル演算子、ウェーブレットニューラル演算子という3つの演算子学習アーキテクチャを構築し、比較する。
ホジキン・ホクスリー力学系の根底にある非線形性、その解の硬さ、および応用電流の強度に依存するしきい値力学は、この種類の複雑な演算子を学ぶために人工ニューラルネットワークを利用する際の課題である。
これらの演算子学習手法を適切に設計することにより、Hudgkin-Huxleyイオンモデルの解を学習する際に、相対的なL2誤差を1.4%以下で達成し、これらの課題に効果的に対処する能力を示す。
関連論文リスト
- Learning reduced-order Quadratic-Linear models in Process Engineering
using Operator Inference [7.9164922475424815]
この研究は、プロセス工学における動的システムの効率的なモデリングという課題に対処する。
我々は、低次モデル学習、特に演算子推論を用いる。
本研究の応用は、パワー・トゥ・Xフレームワークにおける重要な反応である二酸化炭素のメタン化である。
論文 参考訳(メタデータ) (2024-02-27T17:21:10Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Peridynamic Neural Operators: A Data-Driven Nonlocal Constitutive Model
for Complex Material Responses [12.454290779121383]
本研究では,データから非局所法則を学習するPNO(Peridynamic Neural Operator)と呼ばれる新しいニューラルネットワークアーキテクチャを提案する。
このニューラル作用素は、客観性と運動量バランス法則が自動的に保証される状態ベースペリダイナミックスという形でフォワードモデルを提供する。
複雑な応答をキャプチャする能力により、学習したニューラル演算子はベースラインモデルと比較して精度と効率が向上することを示した。
論文 参考訳(メタデータ) (2024-01-11T17:37:20Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Towards an Hybrid Hodgkin-Huxley Action Potential Generation Model [0.0]
2つの簡単な測定値のみを用いてホジキン・ハクスリーモデルのパラメトリック関数を見つける可能性を検討する。
元のHodgkin-Huxleyモデルから生成されたデータを用いて実験を行った。
その結果、最小限のデータ量でトレーニングされた単純な2層人工ニューラルネットワークアーキテクチャは、アクションポテンシャル生成の基本的な妥当性をモデル化することを学ぶことができた。
論文 参考訳(メタデータ) (2023-03-15T22:39:23Z) - Neural Galerkin Schemes with Active Learning for High-Dimensional
Evolution Equations [44.89798007370551]
本研究では,高次元偏微分方程式を数値的に解くために,能動的学習を用いた学習データを生成するディープラーニングに基づくニューラル・ガレルキンスキームを提案する。
ニューラル・ガレルキンスキームはディラック・フランケル変分法に基づいて、残余を時間とともに最小化することで、ネットワークを訓練する。
提案したニューラル・ガレルキン・スキームの学習データ収集は,高次元におけるネットワークの表現力を数値的に実現するための鍵となる。
論文 参考訳(メタデータ) (2022-03-02T19:09:52Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Deep Bayesian Active Learning for Accelerating Stochastic Simulation [74.58219903138301]
Interactive Neural Process(INP)は、シミュレーションとアクティブな学習アプローチのためのディープラーニングフレームワークである。
能動的学習のために,NPベースモデルの潜時空間で計算された新しい取得関数Latent Information Gain (LIG)を提案する。
その結果,STNPは学習環境のベースラインを上回り,LIGは能動学習の最先端を達成していることがわかった。
論文 参考訳(メタデータ) (2021-06-05T01:31:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。