論文の概要: Deep Manifold Part 2: Neural Network Mathematics
- arxiv url: http://arxiv.org/abs/2512.06563v1
- Date: Sat, 06 Dec 2025 20:44:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.410801
- Title: Deep Manifold Part 2: Neural Network Mathematics
- Title(参考訳): Deep Manifold Part 2: Neural Network Mathematics
- Authors: Max Y. Ma, Gen-Hua Shi,
- Abstract要約: この研究は、階層化されたピースワイド多様体、固定点理論、境界条件付き反復を通じて、ニューラルネットワークの大域的方程式を開発する。
固定座標と演算子を除去すると、ニューラルネットワークは、多様体の複雑さ、高次非線形性、境界条件によって形成される学習可能な数値計算として現れる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work develops the global equations of neural networks through stacked piecewise manifolds, fixed--point theory, and boundary--conditioned iteration. Once fixed coordinates and operators are removed, a neural network appears as a learnable numerical computation shaped by manifold complexity, high--order nonlinearity, and boundary conditions. Real--world data impose strong data complexity, near-infinite scope, scale, and minibatch fragmentation, while training dynamics produce learning complexity through shifting node covers, curvature accumulation, and the rise and decay of plasticity. These forces constrain learnability and explain why capability emerges only when fixed--point regions stabilize. Neural networks do not begin with fixed points; they construct them through residual--driven iteration. This perspective clarifies the limits of monolithic models under geometric and data--induced plasticity and motivates architectures and federated systems that distribute manifold complexity across many elastic models, forming a coherent world--modeling framework grounded in geometry, algebra, fixed points, and real--data complexity.
- Abstract(参考訳): この研究は、階層化されたピースワイド多様体、固定点理論、境界条件付き反復を通じて、ニューラルネットワークの大域的方程式を開発する。
固定座標と演算子を除去すると、ニューラルネットワークは、多様体の複雑さ、高次非線形性、境界条件によって形成される学習可能な数値計算として現れる。実世界のデータは、強いデータ複雑さ、ほぼ無限の範囲、スケール、およびミニバッチの断片化を課し、トレーニングダイナミクスは、ノードカバーのシフト、曲率蓄積、塑性の上昇と崩壊を通じて学習複雑性を生成する。
ニューラルネットワークは、固定点から始めるのではなく、残差駆動の反復によって構築する。
この観点は、幾何学的およびデータによって引き起こされる可塑性の下のモノリシックモデルの限界を明らかにし、多くの弾性モデルに多様体の複雑さを分散させ、幾何学、代数、固定点、実データ複雑性を基礎としたコヒーレントな世界モデリングフレームワークを形成するアーキテクチャと連合系を動機付けている。
関連論文リスト
- Why Neural Network Can Discover Symbolic Structures with Gradient-based Training: An Algebraic and Geometric Foundation for Neurosymbolic Reasoning [73.18052192964349]
我々は、連続的なニューラルネットワークトレーニングのダイナミックスから、離散的なシンボル構造が自然に現れるかを説明する理論的枠組みを開発する。
ニューラルパラメータを測度空間に上げ、ワッサーシュタイン勾配流としてモデル化することにより、幾何的制約の下では、パラメータ測度 $mu_t$ が2つの同時現象となることを示す。
論文 参考訳(メタデータ) (2025-06-26T22:40:30Z) - Neural Network Modeling of Microstructure Complexity Using Digital Libraries [1.03590082373586]
本研究では, 人工・スパイクニューラルネットワークの性能評価を行い, 疲労き裂進展とチューリングパターンの発達を予測した。
我々の評価では、漏れた統合・火災ニューロンモデルの方が、少ないパラメータと少ないメモリ使用量で予測精度が優れていることが示唆されている。
論文 参考訳(メタデータ) (2025-01-30T07:44:21Z) - Mapping the Edge of Chaos: Fractal-Like Boundaries in The Trainability of Decoder-Only Transformer Models [0.0]
ミニチュアニューラルネットワークによる最近の証拠は、これらの結果を分離する境界がフラクタル特性を示すことを示唆している。
本研究は、より一貫した収束尺度を用いて、中規模デコーダのみの変圧器アーキテクチャに拡張する。
その結果、訓練性フロンティアは単純なしきい値ではなく、複数のスケールで自己相似で一見ランダムな構造を形成することがわかった。
論文 参考訳(メタデータ) (2025-01-08T05:24:11Z) - Spatial embedding promotes a specific form of modularity with low entropy and heterogeneous spectral dynamics [0.0]
空間的に埋め込まれたリカレントニューラルネットワークは、学習よりもネットワークの構造と機能を組み合わせた組織をどのように形成するかを研究するための有望な道を提供する。
我々は,これらの制約を,速度とスパイクニューラルネットワークの両面にわたって,ニューラルウェイトと固有スペクトルのエントロピー測定によって研究することが可能であることを示す。
この作業は、ニューラルネットワークにおける制約付き学習の理解を深め、コーディングスキームやタスクを越えて、同時に構造的および機能的目的に対するソリューションをタンデムで達成する必要がある。
論文 参考訳(メタデータ) (2024-09-26T10:00:05Z) - Defining Neural Network Architecture through Polytope Structures of Dataset [53.512432492636236]
本稿では, ニューラルネットワーク幅の上下境界を定義し, 問題となるデータセットのポリトープ構造から情報を得る。
本研究では,データセットのポリトープ構造を学習したニューラルネットワークから推定できる逆条件を探索するアルゴリズムを開発した。
MNIST、Fashion-MNIST、CIFAR10といった一般的なデータセットは、顔の少ない2つ以上のポリトップを用いて効率的にカプセル化できることが確立されている。
論文 参考訳(メタデータ) (2024-02-04T08:57:42Z) - Polynomial-Spline Neural Networks with Exact Integrals [0.0]
我々は,実験モデルの混合と自由結び目B1-スプライン基底関数を組み合わせた新しいニューラルネットワークアーキテクチャを開発した。
我々のアーキテクチャは近似理論から期待される収束率での回帰問題に対する$h$-および$p$-の洗練を示す。
ネットワークアーキテクチャの一貫性と正確な統合性を示す様々な回帰問題と変分問題において、我々のネットワークの成功を実証する。
論文 参考訳(メタデータ) (2021-10-26T22:12:37Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。