論文の概要: Drift-Diffusion Matching: Embedding dynamics in latent manifolds of asymmetric neural networks
- arxiv url: http://arxiv.org/abs/2602.14885v1
- Date: Mon, 16 Feb 2026 16:15:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.538534
- Title: Drift-Diffusion Matching: Embedding dynamics in latent manifolds of asymmetric neural networks
- Title(参考訳): ドリフト拡散マッチング:非対称ニューラルネットワークの潜在多様体における埋め込み力学
- Authors: Ramón Nartallo-Kaluarachchi, Renaud Lambiotte, Alain Goriely,
- Abstract要約: 低次元潜在部分空間内の任意の力学系を表現するために、連続時間RNNを訓練するための一般的なフレームワークを導入する。
RNNは、カオス誘引子のような非線形および非平衡ダイナミクスを含む、与えられた微分方程式のドリフトと拡散を忠実に埋め込むことができることを示す。
その結果、非対称なニューラルネットワークは、低次元の動的計算を幅広いクラスに実装でき、連想記憶、非平衡統計力学、ニューラル計算のアイデアを統一できることを示した。
- 参考スコア(独自算出の注目度): 0.8793721044482612
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recurrent neural networks (RNNs) provide a theoretical framework for understanding computation in biological neural circuits, yet classical results, such as Hopfield's model of associative memory, rely on symmetric connectivity that restricts network dynamics to gradient-like flows. In contrast, biological networks support rich time-dependent behaviour facilitated by their asymmetry. Here we introduce a general framework, which we term drift-diffusion matching, for training continuous-time RNNs to represent arbitrary stochastic dynamical systems within a low-dimensional latent subspace. Allowing asymmetric connectivity, we show that RNNs can faithfully embed the drift and diffusion of a given stochastic differential equation, including nonlinear and nonequilibrium dynamics such as chaotic attractors. As an application, we construct RNN realisations of stochastic systems that transiently explore various attractors through both input-driven switching and autonomous transitions driven by nonequilibrium currents, which we interpret as models of associative and sequential (episodic) memory. To elucidate how these dynamics are encoded in the network, we introduce decompositions of the RNN based on its asymmetric connectivity and its time-irreversibility. Our results extend attractor neural network theory beyond equilibrium, showing that asymmetric neural populations can implement a broad class of dynamical computations within low-dimensional manifolds, unifying ideas from associative memory, nonequilibrium statistical mechanics, and neural computation.
- Abstract(参考訳): リカレントニューラルネットワーク(RNN)は、生物学的ニューラルネットワークの計算を理解するための理論的枠組みを提供するが、ホップフィールドの連想記憶モデルのような古典的な結果は、ネットワーク力学を勾配のような流れに制限する対称接続に依存している。
対照的に、生物学的ネットワークは、その非対称性によって促進されるリッチな時間依存行動をサポートする。
本稿では、低次元潜在部分空間内の任意の確率力学系を表現するために、連続時間RNNを訓練するためのドリフト拡散マッチング(flow-diffusion matching)と呼ばれる一般的なフレームワークを紹介する。
非対称接続を与えると、RNNはカオス誘引子のような非線形および非平衡ダイナミクスを含む与えられた確率微分方程式のドリフトと拡散を忠実に埋め込むことができることを示す。
応用として、非平衡電流によって駆動される入力駆動スイッチングと自律遷移の両方を通して、様々なアトラクタを過渡的に探索する確率的システムのRNN実現を構築し、連想的およびシーケンシャル(絶対的)メモリのモデルとして解釈する。
ネットワーク内でこれらのダイナミクスがどのように符号化されているかを明らかにするために、非対称接続と時間可逆性に基づいて、RNNの分解を導入する。
その結果、非対称なニューラルネットワークは、低次元多様体内で広い種類の動的計算を実装でき、連想記憶、非平衡統計力学、ニューラル計算からアイデアを統合できることを示した。
関連論文リスト
- Mechanistic Interpretability of RNNs emulating Hidden Markov Models [2.786617687297761]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、神経科学において、神経集団の潜伏ダイナミクスを推論するための強力なアプローチを提供する。
RNNは、隠れマルコフモデルの放射統計を再現し、訓練されたネットワークをリバースエンジニアリングして、実装するメカニズムを明らかにすることができる。
論文 参考訳(メタデータ) (2025-10-29T16:42:07Z) - Neuronal Group Communication for Efficient Neural representation [85.36421257648294]
本稿では, 効率的な, モジュラー, 解釈可能な表現を学習する, 大規模ニューラルシステムの構築方法に関する問題に対処する。
本稿では、ニューラルネットワークを相互作用する神経群の動的システムとして再認識する理論駆動型フレームワークである神経グループ通信(NGC)を提案する。
NGCは、重みを埋め込みのようなニューロン状態間の過渡的な相互作用として扱い、神経計算はニューロン群間の反復的なコミュニケーションを通じて展開する。
論文 参考訳(メタデータ) (2025-10-19T14:23:35Z) - Dynamical Learning in Deep Asymmetric Recurrent Neural Networks [1.3421746809394772]
非対称なディープリカレントニューラルネットワークは、指数関数的に大きく、密度の高い内部表現の多様体を生み出すことを示す。
本稿では,再帰的ダイナミクスからインプット・アウトプット・アソシエーションが自然に出現する分散学習手法を提案する。
論文 参考訳(メタデータ) (2025-09-05T12:05:09Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Recurrent convolutional neural networks for modeling non-adiabatic dynamics of quantum-classical systems [1.23088383881821]
本稿では、ハイブリッド量子古典系の非断熱力学をモデル化するための畳み込みニューラルネットワークに基づくRNNモデルを提案する。
PARC-CNNアーキテクチャは,深部切開条件下でホルシュタインモデルの統計的気候を効果的に学習できることを実証する。
論文 参考訳(メタデータ) (2024-12-09T16:23:25Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Identifying Equivalent Training Dynamics [3.793387630509845]
共役および非共役のトレーニングダイナミクスを識別するフレームワークを開発する。
クープマン作用素理論の進歩を利用して、クープマン固有値を比較することで、オンラインミラー降下とオンライン勾配降下の既知同値を正しく同定できることを実証する。
a)浅層ニューラルネットワークと広層ニューラルネットワークの間の非共役トレーニングダイナミクスの同定、(b)畳み込みニューラルネットワークにおけるトレーニングダイナミクスの初期段階の特徴付け、(c)グルーキングを行わないトランスフォーマーにおける非共役トレーニングダイナミクスの発見。
論文 参考訳(メタデータ) (2023-02-17T22:15:20Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Theory of gating in recurrent neural networks [5.672132510411465]
リカレントニューラルネットワーク(Recurrent Neural Network, RNN)は、機械学習(ML)や神経科学で広く使われている強力な動的モデルである。
ここでは、ゲーティングが集合力学の2つの健全な特徴を柔軟に制御できることを示す。
ゲート制御の時間スケールは、ネットワークがフレキシブルインテグレータとして機能する、新しい、極端に安定な状態につながる。
論文 参考訳(メタデータ) (2020-07-29T13:20:58Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。