論文の概要: Proximal Mean Field Learning in Shallow Neural Networks
- arxiv url: http://arxiv.org/abs/2210.13879v1
- Date: Tue, 25 Oct 2022 10:06:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:45:14.728808
- Title: Proximal Mean Field Learning in Shallow Neural Networks
- Title(参考訳): 浅層ニューラルネットワークにおける近平均場学習
- Authors: Alexis Teter, Iman Nodozi, Abhishek Halder
- Abstract要約: 本稿では,リスク関数の進化に伴う自由エネルギーの勾配勾配を求めるアルゴリズムを提案する。
本稿では,重み付き粒子と二分分類アルゴリズムを相互作用する計算フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.9281671380673306
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent mean field interpretations of learning dynamics in over-parameterized
neural networks offer theoretical insights on the empirical success of first
order optimization algorithms in finding global minima of the nonconvex risk
landscape. In this paper, we explore applying mean field learning dynamics as a
computational algorithm, rather than as an analytical tool. Specifically, we
design a Sinkhorn regularized proximal algorithm to approximate the
distributional flow from the learning dynamics in the mean field regime over
weighted point clouds. In this setting, a contractive fixed point recursion
computes the time-varying weights, numerically realizing the interacting
Wasserstein gradient flow of the parameter distribution supported over the
neuronal ensemble. An appealing aspect of the proposed algorithm is that the
measure-valued recursions allow meshless computation. We demonstrate the
proposed computational framework of interacting weighted particle evolution on
binary and multi-class classification. Our algorithm performs gradient descent
of the free energy associated with the risk functional.
- Abstract(参考訳): 過パラメータニューラルネットワークにおける学習ダイナミクスの最近の平均場解釈は、非凸リスクランドスケープのグローバルミニマムを見つけるための一階最適化アルゴリズムの実証的成功に関する理論的知見を提供する。
本稿では,解析ツールとしてではなく,計算アルゴリズムとして平均場学習ダイナミクスを適用することを検討する。
具体的には、重み付き点雲上の平均場状態における学習力学からの分布フローを近似するシンクホーン正規化近似アルゴリズムを設計する。
この設定では、収縮的不動点再帰は時間変化重みを計算し、神経アンサンブル上で支持されるパラメータ分布の相互作用するワッサースタイン勾配流れを数値的に認識する。
提案アルゴリズムの魅力は、測度値再帰がメッシュレス計算を可能にすることである。
重み付き粒子進化をバイナリ分類とマルチクラス分類で相互作用させる計算枠組みを提示する。
本アルゴリズムは,リスク汎関数に関連する自由エネルギーの勾配降下を行う。
関連論文リスト
- A Unified Framework for Neural Computation and Learning Over Time [56.44910327178975]
Hamiltonian Learningはニューラルネットワークを"時間とともに"学習するための新しい統合フレームワーク
i)外部ソフトウェアソルバを必要とせずに統合できる、(ii)フィードフォワードおよびリカレントネットワークにおける勾配に基づく学習の概念を一般化する、(iii)新しい視点で開放する、という微分方程式に基づいている。
論文 参考訳(メタデータ) (2024-09-18T14:57:13Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Enhanced quantum state preparation via stochastic prediction of neural
network [0.8287206589886881]
本稿では,ニューラルネットワークの知識盲点を生かして,アルゴリズムの有効性を高めるための興味深い道を探る。
本手法は,半導体ダブル量子ドットシステムにおける任意の量子状態の生成に使用される機械学習アルゴリズムを中心にしている。
ニューラルネットワークが生成した予測を活用することにより、最適化プロセスの導出により、局所最適化を回避できる。
論文 参考訳(メタデータ) (2023-07-27T09:11:53Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Analytically Tractable Inference in Deep Neural Networks [0.0]
Tractable Approximate Inference (TAGI)アルゴリズムは、浅いフルコネクテッドニューラルネットワークのバックプロパゲーションに対する実行可能でスケーラブルな代替手段であることが示された。
従来のディープニューラルネットワークアーキテクチャをトレーニングするために、TAGIがバックプロパゲーションのパフォーマンスとどのように一致するか、または上回るかを実証しています。
論文 参考訳(メタデータ) (2021-03-09T14:51:34Z) - Local Extreme Learning Machines and Domain Decomposition for Solving
Linear and Nonlinear Partial Differential Equations [0.0]
本稿では線形偏微分方程式と非線形偏微分方程式の解法を提案する。
この手法は、極端学習機械(ELM)、ドメイン分解、局所ニューラルネットワークのアイデアを組み合わせたものである。
本稿では,DGM法(Deep Galerkin Method)とPINN(Physical-informed Neural Network)を精度と計算コストの観点から比較する。
論文 参考訳(メタデータ) (2020-12-04T23:19:39Z) - Event-Based Backpropagation can compute Exact Gradients for Spiking
Neural Networks [0.0]
スパイクニューラルネットワークは、離散スパイクを用いたアナログ計算とイベントベースの通信を組み合わせる。
この研究は、連続時間スパイクニューラルネットワークと一般損失関数のバックプロパゲーションアルゴリズムを初めて導いた。
EventProp経由で計算した勾配を用いて,スパイク時間あるいは電圧に基づく損失関数を用いて,Yin-YangおよびMNISTデータセット上のネットワークをトレーニングし,競合性能を報告する。
論文 参考訳(メタデータ) (2020-09-17T15:45:00Z) - A Shooting Formulation of Deep Learning [19.51427735087011]
本稿では,ネットワーク層ごとのパラメータ化から,最適ネットワーク上でのパラメータ化へと視点を転換するシューティング定式化を提案する。
拡張性のために,連続深度ニューラルネットワークの最適重み軌跡を同定する新しい粒子アンサンブルパラメトリゼーションを提案する。
論文 参考訳(メタデータ) (2020-06-18T07:36:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。