論文の概要: Bulk-boundary decomposition of neural networks
- arxiv url: http://arxiv.org/abs/2511.02003v1
- Date: Mon, 03 Nov 2025 19:18:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:05.661994
- Title: Bulk-boundary decomposition of neural networks
- Title(参考訳): ニューラルネットワークのバルク境界分解
- Authors: Donghee Lee, Hye-Sung Lee, Jaeok Yi,
- Abstract要約: 本稿では,ディープニューラルネットワークのトレーニング力学を理解するための新しいフレームワークとして,バルク境界分解を提案する。
自然な拡張として、この分解に基づいて、ニューラルダイナミクスの場論的定式化を開発する。
- 参考スコア(独自算出の注目度): 3.293822034705118
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present the bulk-boundary decomposition as a new framework for understanding the training dynamics of deep neural networks. Starting from the stochastic gradient descent formulation, we show that the Lagrangian can be reorganized into a data-independent bulk term and a data-dependent boundary term. The bulk captures the intrinsic dynamics set by network architecture and activation functions, while the boundary reflects stochastic interactions from training samples at the input and output layers. This decomposition exposes the local and homogeneous structure underlying deep networks. As a natural extension, we develop a field-theoretic formulation of neural dynamics based on this decomposition.
- Abstract(参考訳): 本稿では,ディープニューラルネットワークのトレーニング力学を理解するための新しいフレームワークとして,バルク境界分解を提案する。
確率勾配降下式から、ラグランジアンはデータ非依存のバルク項とデータ依存の境界項に再編成可能であることを示す。
バルクはネットワークアーキテクチャとアクティベーション関数によって設定された固有ダイナミクスを捉え、バウンダリは入力層と出力層のトレーニングサンプルからの確率的相互作用を反映する。
この分解は、ディープネットワークの根底にある局所構造と均質構造を公開する。
自然な拡張として、この分解に基づいて、ニューラルダイナミクスの場論的定式化を開発する。
関連論文リスト
- Revisiting Deep Information Propagation: Fractal Frontier and Finite-size Effects [16.42026346710591]
本研究では,有限幅のランダムニューラルネットワークにおける情報伝達について検討し,秩序構造とカオス構造の境界がフラクタル構造を示すことを示した。
これは、入力データと最適化とは無関係な設定で、ニューラルネットワークのダイナミクスの基本的な複雑さを示しています。
論文 参考訳(メタデータ) (2025-08-05T08:49:24Z) - The Cooperative Network Architecture: Learning Structured Networks as Representation of Sensory Patterns [3.9848584845601014]
協調ネットワークアーキテクチャ(Cooperative Network Architecture, CNA)は,ニューロンの構造的, 繰り返し接続されたネットワークを用いて, 知覚信号を表すモデルである。
我々は、ネットフラグメントを監督なしに学習し、フレキシブルに組み換えることで、新しいパターンをエンコードし、フィギュア補完とノイズに対するレジリエンスを可能にすることを実証した。
論文 参考訳(メタデータ) (2024-07-08T06:22:10Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Intensity Profile Projection: A Framework for Continuous-Time
Representation Learning for Dynamic Networks [50.2033914945157]
本稿では、連続時間動的ネットワークデータのための表現学習フレームワークIntensity Profile Projectionを提案する。
このフレームワークは3つの段階から構成される: 対の強度関数を推定し、強度再構成誤差の概念を最小化する射影を学習する。
さらに、推定軌跡の誤差を厳密に制御する推定理論を開発し、その表現がノイズに敏感な追従解析に利用できることを示す。
論文 参考訳(メタデータ) (2023-06-09T15:38:25Z) - Understanding Convolutional Neural Networks from Theoretical Perspective
via Volterra Convolution [22.058311878382142]
本研究では,畳み込みニューラルネットワークと有限Volterra畳み込みの関係について検討する。
複雑なネットワークアーキテクチャに邪魔されることなく、ニューラルネットワークの全体的な特性を説明し、研究するための新しいアプローチを提供する。
論文 参考訳(メタデータ) (2021-10-19T12:07:46Z) - Phase space learning with neural networks [0.0]
本研究では、部分微分方程式(PDE)を解く投影型手法の非線形一般化としてのオートエンコーダニューラルネットワークを提案する。
提案したディープラーニングアーキテクチャは、中間再構成なしに非常に少ない潜在空間に完全に統合することでPDEのダイナミクスを生成でき、その後、潜在解を元の空間に復号することができる。
単一経路のサンプルデータから動的システムの位相空間のグローバルな特性を学習するために、適切に正規化されたニューラルネットワークの信頼性と、目に見えない分岐を予測する能力を示す。
論文 参考訳(メタデータ) (2020-06-22T20:28:07Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Network Diffusions via Neural Mean-Field Dynamics [52.091487866968286]
本稿では,ネットワーク上の拡散の推論と推定のための新しい学習フレームワークを提案する。
本研究の枠組みは, ノード感染確率の正確な進化を得るために, モリ・ズワンジッヒ形式から導かれる。
我々のアプローチは、基礎となる拡散ネットワークモデルのバリエーションに対して多用途で堅牢である。
論文 参考訳(メタデータ) (2020-06-16T18:45:20Z) - Mehler's Formula, Branching Process, and Compositional Kernels of Deep
Neural Networks [3.167685495996986]
我々は、Mehlerの公式による合成カーネルと分岐プロセスの接続を利用して、ディープニューラルネットワークを研究する。
構成核の非スケールおよび再スケール限界について検討し、制限挙動の異なる位相を探索する。
合成カーネルの固有値に関する明示的な公式が提供され、対応するカーネルヒルベルト空間の複雑さを定量化する。
論文 参考訳(メタデータ) (2020-04-09T18:46:13Z) - Local Propagation in Constraint-based Neural Network [77.37829055999238]
ニューラルネットワークアーキテクチャの制約に基づく表現について検討する。
本稿では,いわゆるアーキテクチャ制約を満たすのに適した簡単な最適化手法について検討する。
論文 参考訳(メタデータ) (2020-02-18T16:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。