論文の概要: Formalized Hopfield Networks and Boltzmann Machines
- arxiv url: http://arxiv.org/abs/2512.07766v1
- Date: Mon, 08 Dec 2025 17:48:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.990377
- Title: Formalized Hopfield Networks and Boltzmann Machines
- Title(参考訳): ホルマライズホップフィールドネットワークとボルツマンマシン
- Authors: Matteo Cipollina, Michail Karatarakis, Freek Wiedijk,
- Abstract要約: 本稿では、決定論的モデルと決定論的モデルの両方をカバーするニューラルネットワークのリーン形式化を提案する。
まず、パターンを安定状態として格納するホップフィールドネットワークを定式化する。
次に、更新が確率的であり、収束が定常分布であるネットワークを考える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are widely used, yet their analysis and verification remain challenging. In this work, we present a Lean 4 formalization of neural networks, covering both deterministic and stochastic models. We first formalize Hopfield networks, recurrent networks that store patterns as stable states. We prove convergence and the correctness of Hebbian learning, a training rule that updates network parameters to encode patterns, here limited to the case of pairwise-orthogonal patterns. We then consider stochastic networks, where updates are probabilistic and convergence is to a stationary distribution. As a canonical example, we formalize the dynamics of Boltzmann machines and prove their ergodicity, showing convergence to a unique stationary distribution using a new formalization of the Perron-Frobenius theorem.
- Abstract(参考訳): ニューラルネットワークは広く使われているが、その分析と検証は依然として難しい。
本稿では、決定論的モデルと確率論的モデルの両方をカバーする、ニューラルネットワークのLean 4形式化について述べる。
まず、パターンを安定状態として格納するホップフィールドネットワークを定式化する。
パターンをエンコードするためにネットワークパラメータを更新するトレーニングルールであるHebbian Learningの収束と正確性を証明する。
次に、更新が確率的であり、収束が定常分布である確率的ネットワークを考える。
標準的な例として、ボルツマンマシンの力学を形式化し、それらのエルゴード性を証明し、ペロン・フロベニウスの定理の新たな形式化を用いて、一意な定常分布に収束することを示す。
関連論文リスト
- Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Neural Network Diffusion [45.851945143942885]
拡散モデルはランダムノイズから潜在表現を合成するために訓練される。
このモデルは次に新しい表現を生成し、オートエンコーダのデコーダを通過してハイパフォーマンスなネットワークパラメータの新しいサブセットを生成する。
論文 参考訳(メタデータ) (2024-02-20T16:59:03Z) - Hebbian Learning from First Principles [0.0]
我々は、そのハミルトン的表現を教師なしおよび教師なしのプロトコルに仮定する。
エントロピー拡大力ネットワークにおけるラグランジアン制約がニューラル相関に与える影響を示す。
指数ホップフィールドモデル(密度のばらつきに富んだ高密度ネットワークの限界として)や半教師付きプロトコルについても言及する。
論文 参考訳(メタデータ) (2024-01-13T16:19:49Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Joint Bayesian Inference of Graphical Structure and Parameters with a
Single Generative Flow Network [59.79008107609297]
本稿では,ベイジアンネットワークの構造上の結合後部を近似する手法を提案する。
サンプリングポリシが2フェーズプロセスに従う単一のGFlowNetを使用します。
パラメータは後部分布に含まれるため、これは局所確率モデルに対してより柔軟である。
論文 参考訳(メタデータ) (2023-05-30T19:16:44Z) - A PAC-Bayes oracle inequality for sparse neural networks [0.0]
非パラメトリック回帰条件下で, スパースディープニューラルネットのギブス後部分布について検討した。
この方法が回帰関数の未知の正則性と階層構造に適応することを示すオラクルの不等式を証明する。
論文 参考訳(メタデータ) (2022-04-26T15:48:24Z) - Discovering dynamical features of Hodgkin-Huxley-type model of
physiological neuron using artificial neural network [0.0]
2つの高速かつ1つの遅い変数を持つHodgkin-Huxley型システムを考える。
これら2つのシステムでは、そのダイナミクスを再現できる人工ニューラルネットワークを作成します。
ビスタブルモデルでは、トレーニング中に見ずに、あるソリューションのブランチでのみトレーニングされたネットワークが、別のネットワークを回復することを意味する。
論文 参考訳(メタデータ) (2022-03-26T19:04:19Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。