論文の概要: Supervised Learning of Random Neural Architectures Structured by Latent Random Fields on Compact Boundaryless Multiply-Connected Manifolds
- arxiv url: http://arxiv.org/abs/2512.10407v1
- Date: Thu, 11 Dec 2025 08:17:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.272772
- Title: Supervised Learning of Random Neural Architectures Structured by Latent Random Fields on Compact Boundaryless Multiply-Connected Manifolds
- Title(参考訳): コンパクト境界のない多重連結多様体上の潜在ランダム場によって構成されたランダムニューラルネットワークの教師付き学習
- Authors: Christian Soize,
- Abstract要約: 本稿では,ニューラルネットワークにおける教師あり学習のための新しい確率的フレームワークを提案する。
決定論的入力を強く非ガウス的入力とする複雑な不確実なランダム出力をモデル化するように設計されている。
目的は、ニューラルネットワークが幾何学を意識したフィールド駆動生成プロセスを実現するための、概念的で数学的枠組みを確立することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a new probabilistic framework for supervised learning in neural systems. It is designed to model complex, uncertain systems whose random outputs are strongly non-Gaussian given deterministic inputs. The architecture itself is a random object stochastically generated by a latent anisotropic Gaussian random field defined on a compact, boundaryless, multiply-connected manifold. The goal is to establish a novel conceptual and mathematical framework in which neural architectures are realizations of a geometry-aware, field-driven generative process. Both the neural topology and synaptic weights emerge jointly from a latent random field. A reduced-order parameterization governs the spatial intensity of an inhomogeneous Poisson process on the manifold, from which neuron locations are sampled. Input and output neurons are identified via extremal evaluations of the latent field, while connectivity is established through geodesic proximity and local field affinity. Synaptic weights are conditionally sampled from the field realization, inducing stochastic output responses even for deterministic inputs. To ensure scalability, the architecture is sparsified via percentile-based diffusion masking, yielding geometry-aware sparse connectivity without ad hoc structural assumptions. Supervised learning is formulated as inference on the generative hyperparameters of the latent field, using a negative log-likelihood loss estimated through Monte Carlo sampling from single-observation-per-input datasets. The paper initiates a mathematical analysis of the model, establishing foundational properties such as well-posedness, measurability, and a preliminary analysis of the expressive variability of the induced stochastic mappings, which support its internal coherence and lay the groundwork for a broader theory of geometry-driven stochastic learning.
- Abstract(参考訳): 本稿では,ニューラルネットワークにおける教師あり学習のための新しい確率的フレームワークを提案する。
ランダムな出力が決定論的入力を強く非ガウス的とする複雑で不確実なシステムをモデル化するように設計されている。
アーキテクチャ自身は、コンパクトで境界のない多重連結多様体上で定義される潜在異方性ガウス確率場によって確率的に生成されるランダムオブジェクトである。
目的は、ニューラルネットワークが幾何学を意識したフィールド駆動生成プロセスを実現するための、概念的で数学的枠組みを確立することである。
神経トポロジーとシナプスの重みは、潜在ランダム場から共同で現れる。
縮小次パラメータ化は、ニューロンの位置がサンプリングされる多様体上の不均一なポアソン過程の空間強度を管理する。
入力ニューロンと出力ニューロンは潜在磁場の極端評価によって同定され、接続性は測地線近傍と局所磁場親和性によって確立される。
シナプス重みはフィールド実現から条件付きサンプリングされ、決定論的入力に対しても確率的出力応答が誘導される。
スケーラビリティを確保するため、アーキテクチャはパーセンタイルベースの拡散マスキングによって分散され、アドホックな構造仮定なしに幾何学的に認識されたスパース接続が得られる。
教師付き学習は, 単オブザーブ・パー・インプット・データセットからのモンテカルロサンプリングにより推定された負の対数類似損失を用いて, 潜伏場の生成ハイパーパラメータの推測として定式化される。
本論文は, モデルの数学的解析を開始し, 有効性, 可測性などの基礎的特性を確立し, 内部コヒーレンスをサポートし, 幾何駆動確率学習のより広範な理論の基盤となる, 誘発確率写像の表現的変動の予備的解析を行う。
関連論文リスト
- Interpretable Neural Approximation of Stochastic Reaction Dynamics with Guaranteed Reliability [4.736119820998459]
我々は,解釈可能性,信頼性保証,実質的な計算ゲインを実現するニューラルネットワークフレームワークであるDeepSKAを紹介する。
DeepSKAは、状態、時間、出力関数にまたがって一般化する数学的に透明な表現を生成し、この構造を少数のシミュレーションと統合し、古典的モンテカルロよりも非バイアスで、確率的に収束し、劇的に低いマグニチュード推定を生成する。
論文 参考訳(メタデータ) (2025-12-06T04:45:31Z) - Wasserstein Regression as a Variational Approximation of Probabilistic Trajectories through the Bernstein Basis [41.99844472131922]
既存のアプローチは、しばしば確率空間の幾何学を無視したり、計算コストがかかる。
ベルンシュタイン基底を用いた確率軌道のパラメータ化と分布間のワッサーシュタイン距離の最小化を組み合わせた新しい手法を提案する。
この手法は、幾何学的精度、計算的実用性、解釈可能性を組み合わせたものである。
論文 参考訳(メタデータ) (2025-10-30T15:36:39Z) - Probabilistic Neural Networks (PNNs) for Modeling Aleatoric Uncertainty
in Scientific Machine Learning [2.348041867134616]
本稿では,確率論的ニューラルネットワーク(PNN)を用いてアレータティック不確実性をモデル化する。
PNNはターゲット変数の確率分布を生成し、回帰シナリオにおける予測平均と間隔の両方を決定できる。
実世界の科学機械学習の文脈では、PNNはR2乗のスコアが0.97に近づき、その予測間隔は0.80に近い高い相関係数を示す。
論文 参考訳(メタデータ) (2024-02-21T17:15:47Z) - Universal approximation property of Banach space-valued random feature models including random neural networks [3.3379026542599934]
ランダムな特徴学習におけるバナッハ空間値の拡張を提案する。
特徴マップをランダムに初期化することにより、線形読み出しのみをトレーニングする必要がある。
我々は、与えられたバナッハ空間の要素を学ぶための近似率と明示的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2023-12-13T11:27:15Z) - Inferring Inference [7.11780383076327]
我々は,大規模神経活動パターンから標準分散計算を推定するフレームワークを開発した。
確率的グラフィカルモデルに近似推論アルゴリズムを暗黙的に実装したモデル脳のための記録をシミュレートする。
全体として、このフレームワークはニューラル記録の解釈可能な構造を発見するための新しいツールを提供する。
論文 参考訳(メタデータ) (2023-10-04T22:12:11Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z) - Semiparametric Nonlinear Bipartite Graph Representation Learning with
Provable Guarantees [106.91654068632882]
半パラメトリック指数族分布におけるパラメータの統計的推定問題として、両部グラフを考察し、その表現学習問題を定式化する。
提案手法は, 地中真理付近で強い凸性を示すため, 勾配降下法が線形収束率を達成できることを示す。
我々の推定器は指数族内の任意のモデル誤特定に対して頑健であり、広範な実験で検証されている。
論文 参考訳(メタデータ) (2020-03-02T16:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。