論文の概要: Solving high-dimensional eigenvalue problems using deep neural networks:
A diffusion Monte Carlo like approach
- arxiv url: http://arxiv.org/abs/2002.02600v2
- Date: Thu, 16 Jul 2020 03:34:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 04:34:41.194133
- Title: Solving high-dimensional eigenvalue problems using deep neural networks:
A diffusion Monte Carlo like approach
- Title(参考訳): ディープニューラルネットワークを用いた高次元固有値問題の解法:拡散モンテカルロ的アプローチ
- Authors: Jiequn Han, Jianfeng Lu, Mo Zhou
- Abstract要約: 固有値問題は、演算子によって誘導される半群フローの固定点問題として再構成される。
この方法は拡散モンテカルロと同様の精神を持つが、ニューラル・ネットワーク・アンサッツによる固有関数への直接近似を増大させる。
我々の手法はいくつかの数値例で正確な固有値と固有関数の近似を提供することができる。
- 参考スコア(独自算出の注目度): 14.558626910178127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new method to solve eigenvalue problems for linear and
semilinear second order differential operators in high dimensions based on deep
neural networks. The eigenvalue problem is reformulated as a fixed point
problem of the semigroup flow induced by the operator, whose solution can be
represented by Feynman-Kac formula in terms of forward-backward stochastic
differential equations. The method shares a similar spirit with diffusion Monte
Carlo but augments a direct approximation to the eigenfunction through
neural-network ansatz. The criterion of fixed point provides a natural loss
function to search for parameters via optimization. Our approach is able to
provide accurate eigenvalue and eigenfunction approximations in several
numerical examples, including Fokker-Planck operator and the linear and
nonlinear Schr\"odinger operators in high dimensions.
- Abstract(参考訳): 本稿では,深層ニューラルネットワークに基づく線形および半線形2次微分作用素の固有値問題の高次元解法を提案する。
固有値問題は、作用素によって誘導される半群流の固定点問題として再計算され、その解は前向き確率微分方程式でファインマン・カックの公式で表される。
この方法は拡散モンテカルロと類似の精神を共有しているが、ニューラルネットワークのアンサッツによる固有関数への直接近似を補強する。
固定点の基準は、最適化によってパラメータを探索する自然損失関数を提供する。
本手法は,fokker-planck演算子や高次元の線形および非線形schr\"odinger演算子など,いくつかの数値例において固有値と固有関数の正確な近似を提供することができる。
関連論文リスト
- Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [4.313136216120379]
本稿では、過度にパラメータ化された2層PINNのトレーニングのための暗黙の勾配降下に対する収束解析について述べる。
ランダムなIGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - A Mean-Field Analysis of Neural Stochastic Gradient Descent-Ascent for Functional Minimiax Optimization [90.87444114491116]
本稿では,超パラメトリック化された2層ニューラルネットワークの無限次元関数クラス上で定義される最小最適化問題について検討する。
i) 勾配降下指数アルゴリズムの収束と, (ii) ニューラルネットワークの表現学習に対処する。
その結果、ニューラルネットワークによって誘導される特徴表現は、ワッサーシュタイン距離で測定された$O(alpha-1)$で初期表現から逸脱することが許された。
論文 参考訳(メタデータ) (2024-04-18T16:46:08Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - On the Identification and Optimization of Nonsmooth Superposition
Operators in Semilinear Elliptic PDEs [3.045851438458641]
原型半線形楕円偏微分方程式(PDE)の非線形部分におけるネミトスキー作用素の同定を目的とした無限次元最適化問題について検討する。
以前の研究とは対照的に、ネミトスキー作用素を誘導する関数が a-priori であることは、$H leakyloc(mathbbR)$ の要素であることが知られている。
論文 参考訳(メタデータ) (2023-06-08T13:33:20Z) - From Kernel Methods to Neural Networks: A Unifying Variational
Formulation [25.6264886382888]
演算子と一般ラドン領域ノルムに依存する統一正規化関数を提案する。
我々のフレームワークは、多種多様な正規化演算子、または同等に、幅広い浅層ニューラルネットワークに対して、普遍的な近似を保証する。
論文 参考訳(メタデータ) (2022-06-29T13:13:53Z) - NeuralEF: Deconstructing Kernels by Deep Neural Networks [47.54733625351363]
従来のNystr"om式に基づく非パラメトリックなソリューションはスケーラビリティの問題に悩まされる。
最近の研究はパラメトリックなアプローチ、すなわち固有関数を近似するためにニューラルネットワークを訓練している。
教師なしおよび教師なしの学習問題の空間に一般化する新たな目的関数を用いて,これらの問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-04-30T05:31:07Z) - A semigroup method for high dimensional committor functions based on
neural network [1.7205106391379026]
偏微分方程式を扱う代わりに、新しい手法は微分作用素の半群に基づく積分的定式化を扱う。
勾配降下型アルゴリズムは、任意の混合二階微分を計算することなく、コミッタ関数の訓練に適用することができる。
ペナルティ項によって境界条件を強制する以前の方法とは異なり、新しい方法は境界条件を自動的に考慮する。
論文 参考訳(メタデータ) (2020-12-12T05:00:47Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z) - Convex Geometry and Duality of Over-parameterized Neural Networks [70.15611146583068]
有限幅2層ReLUネットワークの解析のための凸解析手法を開発した。
正規化学習問題に対する最適解が凸集合の極点として特徴づけられることを示す。
高次元では、トレーニング問題は無限に多くの制約を持つ有限次元凸問題としてキャストできることが示される。
論文 参考訳(メタデータ) (2020-02-25T23:05:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。