論文の概要: Analysing Rescaling, Discretization, and Linearization in RNNs for Neural System Modelling
- arxiv url: http://arxiv.org/abs/2312.15974v6
- Date: Sun, 06 Apr 2025 12:27:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:07:20.113769
- Title: Analysing Rescaling, Discretization, and Linearization in RNNs for Neural System Modelling
- Title(参考訳): ニューラルネットワークモデリングのためのRNNにおける再スケーリング、離散化、線形化の解析
- Authors: Mariano Caruso, Cecilia Jarne,
- Abstract要約: リカレントニューラルネットワーク(RNN)は神経活動のモデル化に広く用いられているが、コアプロシージャの数学的相互作用は実現されていない。
この研究は、これらの手順が通勤する条件を確立し、計算神経科学の柔軟な応用を可能にした。
本研究は, 意思決定と運動制御における神経力学をシミュレートするための生物学的に有効なRNNの設計を, 直接指導するものである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Recurrent Neural Networks (RNNs) are widely used for modelling neural activity, yet the mathematical interplay of core procedures is used to analyze them (temporal rescaling, discretization, and linearization) remain uncharacterized. This study establishes the conditions under which these procedures commute, enabling flexible application in computational neuroscience. We rigorously analyze the mathematical foundations of the three procedures, formalizing their application to continuous-time RNN dynamics governed by differential equations. By deriving transformed equations under rescaling, discretization, and linearization, we determine commutativity criteria and evaluate their effects on network stability, numerical implementation, and linear approximations. We demonstrate that rescaling and discretization commute when time-step adjustments align with scaling factors. Similarly, linearization and discretization (or rescaling) yield equivalent dynamics regardless of order, provided activation functions operate near equilibrium points. Our findings directly guide the design of biologically plausible RNNs for simulating neural dynamics in decision-making and motor control, where temporal alignment and stability are critical
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は神経活動のモデル化に広く用いられているが、コアプロシージャの数学的相互作用はそれらを解析するために用いられる(時間的再スケーリング、離散化、線形化)。
この研究は、これらの手順が通勤する条件を確立し、計算神経科学の柔軟な応用を可能にした。
我々は、3つの手順の数学的基礎を厳密に分析し、微分方程式によって支配される連続時間RNN力学への応用を定式化する。
再スケーリング, 離散化, 線形化の下で変換方程式を導出することにより, 可換性基準を決定し, ネットワーク安定性, 数値的実装, 線形近似に与える影響を評価する。
時間段階の調整がスケーリング要因と一致した場合、再スケーリングと離散化が通勤することを示す。
同様に、線形化と離散化(あるいは再スケーリング)は順序によらず等価なダイナミクスをもたらす。
我々の知見は、時間的アライメントと安定性が不可欠である意思決定と運動制御における神経力学をシミュレートするための生物学的にもっとも有効なRNNの設計を直接導くものである。
関連論文リスト
- Episodic Memory Theory for the Mechanistic Interpretation of Recurrent
Neural Networks [3.683202928838613]
本稿では,最近提案された一般逐次記憶モデルにおいて,RNNを離散時間アナログとして概念化できるという,エピソード記憶理論(EMT)を提案する。
本稿では,RNNにおける変数結合の振る舞いを探索するアルゴリズムを新たに導入する。
実験により、訓練されたRNNは可変結合回路に一貫して収束し、RNNのダイナミクスの普遍性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-03T20:52:37Z) - On the Trade-off Between Efficiency and Precision of Neural Abstraction [62.046646433536104]
ニューラル抽象化は、最近、複雑な非線形力学モデルの形式近似として導入されている。
我々は形式的帰納的合成法を用いて、これらのセマンティクスを用いた動的モデルをもたらすニューラル抽象化を生成する。
論文 参考訳(メタデータ) (2023-07-28T13:22:32Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Learning Low Dimensional State Spaces with Overparameterized Recurrent
Neural Nets [57.06026574261203]
我々は、長期記憶をモデル化できる低次元状態空間を学習するための理論的証拠を提供する。
実験は、線形RNNと非線形RNNの両方で低次元状態空間を学習することで、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2022-10-25T14:45:15Z) - Efficient, probabilistic analysis of combinatorial neural codes [0.0]
ニューラルネットワークは、個々のニューロンの活動の組み合わせの形で入力を符号化する。
これらのニューラルネットワークは、その高次元性としばしば大量のデータのため、計算上の課題を示す。
従来の手法を小さな例に適用し,実験によって生成された大きなニューラルコードに適用する。
論文 参考訳(メタデータ) (2022-10-19T11:58:26Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - Learning Deep Morphological Networks with Neural Architecture Search [19.731352645511052]
メタラーニングに基づく形態論的演算子をディープニューラルネットワークに組み込む手法を提案する。
学習したアーキテクチャは、我々の新しい形態的操作が、様々なタスクにおけるDNNのパフォーマンスを著しく向上させることを示す。
論文 参考訳(メタデータ) (2021-06-14T19:19:48Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。