論文の概要: Diffusion-Guided Renormalization of Neural Systems via Tensor Networks
- arxiv url: http://arxiv.org/abs/2510.06361v1
- Date: Tue, 07 Oct 2025 18:26:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.143598
- Title: Diffusion-Guided Renormalization of Neural Systems via Tensor Networks
- Title(参考訳): テンソルネットワークを用いた拡散誘導型ニューラルネットワークの正規化
- Authors: Nathan X. Kodama,
- Abstract要約: 平衡から遠く離れたところで、神経系は複数のスケールで自己組織化する。
神経科学と人工知能における大規模自己組織化の展開には、計算の枠組みが必要である。
サブサンプリングされた神経活動からコミュニティ構造を発見するためのスケーラブルなグラフ推論アルゴリズムを開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Far from equilibrium, neural systems self-organize across multiple scales. Exploiting multiscale self-organization in neuroscience and artificial intelligence requires a computational framework for modeling the effective non-equilibrium dynamics of stochastic neural trajectories. Non-equilibrium thermodynamics and representational geometry offer theoretical foundations, but we need scalable data-driven techniques for modeling collective properties of high-dimensional neural networks from partial subsampled observations. Renormalization is a coarse-graining technique central to studying emergent scaling properties of many-body and nonlinear dynamical systems. While widely applied in physics and machine learning, coarse-graining complex dynamical networks remains unsolved, affecting many computational sciences. Recent diffusion-based renormalization, inspired by quantum statistical mechanics, coarse-grains networks near entropy transitions marked by maximal changes in specific heat or information transmission. Here I explore diffusion-based renormalization of neural systems by generating symmetry-breaking representations across scales and offering scalable algorithms using tensor networks. Diffusion-guided renormalization bridges microscale and mesoscale dynamics of dissipative neural systems. For microscales, I developed a scalable graph inference algorithm for discovering community structure from subsampled neural activity. Using community-based node orderings, diffusion-guided renormalization generates renormalization group flow through metagraphs and joint probability functions. Towards mesoscales, diffusion-guided renormalization targets learning the effective non-equilibrium dynamics of dissipative neural trajectories occupying lower-dimensional subspaces, enabling coarse-to-fine control in systems neuroscience and artificial intelligence.
- Abstract(参考訳): 平衡から遠く離れたところで、神経系は複数のスケールで自己組織化する。
神経科学と人工知能におけるマルチスケールの自己組織化を爆発させるには、確率的神経軌道の効果的な非平衡力学をモデル化するための計算フレームワークが必要である。
非平衡熱力学と表現幾何学は理論的基礎を提供するが、部分サンプル観測から高次元ニューラルネットワークの集合特性をモデル化するためのスケーラブルなデータ駆動技術が必要である。
再正規化は、多体および非線形力学系の創発的スケーリング特性の研究の中心となる粗粒化技術である。
物理学や機械学習に広く応用されているが、粗粒複雑な動的ネットワークは未解決のままであり、多くの計算科学に影響を及ぼす。
量子統計力学にインスパイアされた近年の拡散に基づく再正規化は、特定の熱や情報伝達の最大変化によって特徴づけられるエントロピー転移に近い粗粒ネットワークである。
ここでは、スケールにわたって対称性を破る表現を生成し、テンソルネットワークを用いたスケーラブルなアルゴリズムを提供することにより、拡散に基づくニューラルネットワークの正規化を検討する。
拡散誘導型リノーマライゼーションブリッジは、散逸性神経系のマイクロスケールおよびメソスケールダイナミクスを橋渡しする。
マイクロスケールでは,サブサンプリングされた神経活動からコミュニティ構造を発見するためのスケーラブルなグラフ推論アルゴリズムを開発した。
コミュニティベースのノード順序付けを用いて拡散誘導型再正規化は、メタグラフと結合確率関数を通して再正規化群フローを生成する。
メソスケールに向けて、拡散誘導型再正規化は、低次元の部分空間を占有する散逸性神経軌道の効果的な非平衡ダイナミクスを学習し、システム神経科学と人工知能における粗い制御を可能にする。
関連論文リスト
- High-order expansion of Neural Ordinary Differential Equations flows [4.4569182855550755]
イベントグラデーション上のニューラルODEダイナミクスの厳密な数学的記述を提供する高階微分に基づくフレームワークであるイベントトランジションを紹介する。
本研究は,イベントトリガー型ニューラルディファレンス方程式のより深い理論的基礎と,複雑なシステム力学を説明する数学的構造に寄与する。
論文 参考訳(メタデータ) (2025-04-02T08:57:34Z) - Inferring stochastic low-rank recurrent neural networks from neural data [5.179844449042386]
計算神経科学における中心的な目的は、大きなニューロンの活動と基礎となる力学系を関連付けることである。
低ランクリカレントニューラルネットワーク(RNN)は、トラクタブルダイナミクスを持つことによって、そのような解釈可能性を示す。
そこで本研究では,低ランクRNNをモンテカルロ変分法に適合させる手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T15:57:49Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Gibbs-Duhem-Informed Neural Networks for Binary Activity Coefficient
Prediction [45.84205238554709]
本稿では,Gibs-Duhem-informed Neural Network を用いて,様々な組成における二成分活性係数の予測を行う。
ニューラルネットワークの学習における損失関数にギブス・デュヘム方程式を明示的に含んでいる。
論文 参考訳(メタデータ) (2023-05-31T07:36:45Z) - Stretched and measured neural predictions of complex network dynamics [2.1024950052120417]
微分方程式のデータ駆動近似は、力学系のモデルを明らかにする従来の方法に代わる有望な方法である。
最近、ダイナミックスを研究する機械学習ツールとしてニューラルネットワークが採用されている。これは、データ駆動型ソリューションの検出や微分方程式の発見に使用できる。
従来の統計学習理論の限界を超えてモデルの一般化可能性を拡張することは可能であることを示す。
論文 参考訳(メタデータ) (2023-01-12T09:44:59Z) - EINNs: Epidemiologically-Informed Neural Networks [75.34199997857341]
本稿では,疫病予測のための新しい物理インフォームドニューラルネットワークEINNを紹介する。
メカニスティックモデルによって提供される理論的柔軟性と、AIモデルによって提供されるデータ駆動表現性の両方を活用する方法について検討する。
論文 参考訳(メタデータ) (2022-02-21T18:59:03Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。