論文の概要: Tuning Universality in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2512.00168v1
- Date: Fri, 28 Nov 2025 19:14:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.0982
- Title: Tuning Universality in Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークにおけるチューニングの普遍性
- Authors: Arsham Ghavasieh,
- Abstract要約: ディープニューラルネットワーク(DNN)は、メカニズム的な説明が欠けているクラッキングのような雪崩を示す。
中央極限定理(CLT)レベルのゆらぎを取り入れた深部情報伝播理論(DIP)を導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks (DNNs) exhibit crackling-like avalanches whose origin lacks a mechanistic explanation. Here, I derive a stochastic theory of deep information propagation (DIP) by incorporating Central Limit Theorem (CLT)-level fluctuations. Four effective couplings $(r, h, D_1, D_2)$ characterize the dynamics, yielding a Landau description of the static exponents and a Directed Percolation (DP) structure of activity cascades. Tuning the couplings selects between avalanche dynamics generated by a Brownian Motion (BM) in a logarithmic trap and an absorbed free BM, each corresponding to a distinct universality classes. Numerical simulations confirm the theory and demonstrate that activation function design controls the collective dynamics in random DNNs.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、メカニズム的な説明が欠けているクラッキングのような雪崩を示す。
ここでは,Central Limit Theorem(CLT)レベルのゆらぎを組み込むことにより,DIP(Deep Information propagation)の確率論的理論を導出する。
4つの効果的な結合 $(r, h, D_1, D_2)$ は、静的指数のランダウ記述とアクティビティカスケードのダイレクトパーコレーション(DP)構造を特徴付ける。
結合のチューニングは、対数トラップにおいてブラウン運動(BM)によって生成される雪崩ダイナミクスと、それぞれ異なる普遍性クラスに対応する吸収された自由BMとを区別する。
数値シミュレーションによりこの理論が検証され、アクティベーション関数の設計がランダムDNNの集合力学を制御することを示す。
関連論文リスト
- Graph Neural Diffusion via Generalized Opinion Dynamics [8.691309696914882]
本稿では,複数の意見力学モデルを原理的,訓練可能な拡散機構に統一するGODNFを提案する。
本フレームワークは,ノード固有の挙動モデリングと動的近傍の影響により,異種拡散パターンと時間的ダイナミクスを捕捉する。
多様な収束構成をモデル化するGODNFの能力を示す厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2025-08-15T06:36:57Z) - Fractional Spike Differential Equations Neural Network with Efficient Adjoint Parameters Training [63.3991315762955]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューロンからインスピレーションを得て、脳に似た計算の現実的なモデルを作成する。
既存のほとんどのSNNは、マルコフ特性を持つ一階常微分方程式(ODE)によってモデル化された、神経細胞膜電圧ダイナミクスの単一時間定数を仮定している。
本研究では, 膜電圧およびスパイク列車の長期依存性を分数次力学により捉えるフラクタルSPIKE微分方程式ニューラルネットワーク (fspikeDE) を提案する。
論文 参考訳(メタデータ) (2025-07-22T18:20:56Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - KITINet: Kinetics Theory Inspired Network Architectures with PDE Simulation Approaches [43.872190335490515]
本稿では,非平衡粒子動力学のレンズによる特徴伝播を再解釈する新しいアーキテクチャKITINetを紹介する。
そこで本研究では,粒子系の進化をモデルとした残留モジュールを提案する。
この定式化は粒子衝突とエネルギー交換を模倣し、物理インフォームド相互作用による適応的特徴改善を可能にする。
論文 参考訳(メタデータ) (2025-05-23T13:58:29Z) - Tree tensor network hierarchical equations of motion based on time-dependent variational principle for efficient open quantum dynamics in structured thermal environments [0.0]
ボゾン浴と相互作用する駆動量子系に対するオープン量子力学を正確に計算するための効率的なTTN-HEOM法を提案する。
結合マスター方程式に対する3つの一般的なプロパゲータを実装した。
この結果から,TTN-HEOMは,構造浴と相互作用する駆動量子系の劣化と緩和のダイナミクスをシミュレートできることがわかった。
論文 参考訳(メタデータ) (2025-04-30T18:48:05Z) - Simulating quantum dynamics in two-dimensional lattices with tensor network influence functional belief propagation [1.4132765964347058]
我々は,TN-IF法を木格子上に構築し,TN-IFに対する信念伝搬(BP)アルゴリズムを提案することにより,TN-IF法の適用性を2次元格子に拡張する。
本研究では, IF-BPのクラスタ展開のパワーを2次元逆場イジングモデルの量子力学のクエンチで示し, 現状を改善する数値的な結果を得る。
論文 参考訳(メタデータ) (2025-04-10T00:04:32Z) - Transformers from Diffusion: A Unified Framework for Neural Message Passing [79.9193447649011]
メッセージパッシングニューラルネットワーク(MPNN)は、デファクトクラスのモデルソリューションとなっている。
本稿では,拡散の誘導バイアスとエネルギーの層的制約を統合するエネルギー制約拡散モデルを提案する。
これらの知見に基づいて、我々はTransformer (DIFFormer)と呼ばれる新しいタイプのメッセージパッシングモデルを考案した。
論文 参考訳(メタデータ) (2024-09-13T17:54:41Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Self-Consistent Dynamical Field Theory of Kernel Evolution in Wide
Neural Networks [18.27510863075184]
勾配流を学習した無限幅ニューラルネットワークにおける特徴学習を,自己整合力学場理論を用いて解析する。
本研究では,各層に隠れた単位活性化と勾配を示す内積カーネルである決定論的動的順序パラメータの集合を,時間点のペアで構築する。
論文 参考訳(メタデータ) (2022-05-19T16:10:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。