論文の概要: From {\tt Ferminet} to PINN. Connections between neural network-based algorithms for high-dimensional Schrödinger Hamiltonian
- arxiv url: http://arxiv.org/abs/2410.09177v2
- Date: Wed, 20 Nov 2024 16:54:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-21 16:09:45.192300
- Title: From {\tt Ferminet} to PINN. Connections between neural network-based algorithms for high-dimensional Schrödinger Hamiltonian
- Title(参考訳): 高次元シュレーディンガー・ハミルトニアンのためのニューラルネットワークに基づくアルゴリズムの接続
- Authors: Mashhood Khan, Emmanuel Lorin,
- Abstract要約: 特に,標準モンテカルロアルゴリズムの解に対応するデータに適合する問題として,PINNアルゴリズムを再構成する。
最適化アルゴリズムのレベルでの接続も確立されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this note, we establish some connections between standard (data-driven) neural network-based solvers for PDE and eigenvalue problems developed on one side in the applied mathematics and engineering communities (e.g. Deep-Ritz and Physics Informed Neural Networks (PINN)), and on the other side in quantum chemistry (e.g. Variational Monte Carlo algorithms, {\tt Ferminet} or {\tt Paulinet} following the pioneer work of {\it Carleo et. al}. In particular, we re-formulate a PINN algorithm as a {\it fitting} problem with data corresponding to the solution to a standard Diffusion Monte Carlo algorithm initialized thanks to neural network-based Variational Monte Carlo. Connections at the level of the optimization algorithms are also established.
- Abstract(参考訳): 本稿では,PDEの標準的な(データ駆動型)ニューラルネットワークベースの解法と,応用数学・工学コミュニティ(例えばディープ・リッツと物理情報ニューラルネットワーク(PINN))の一方で開発された固有値問題と,量子化学(例えば変分モンテカルロアルゴリズム, {\tt Ferminet} や {\tt Paulinet})の他方で発達した固有値問題との間の関係を確立する。
al}。
特に、ニューラルネットワークに基づく変分モンテカルロ法により初期化された標準拡散モンテカルロアルゴリズムの解に対応するデータを用いて、PINNアルゴリズムを {\it fit} 問題として再定式化する。
最適化アルゴリズムのレベルでの接続も確立されている。
関連論文リスト
- LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - A Graph Neural Network-Based QUBO-Formulated Hamiltonian-Inspired Loss
Function for Combinatorial Optimization using Reinforcement Learning [1.325953054381901]
グラフニューラルネットワーク(GNN)を用いた新しいモンティカルロ木探索手法を提案する。
PI-GNNに関連する行動パターンを特定し,その性能向上のための戦略を考案する。
また、RL法とQUBO法で定式化されたハミルトニアンとの橋渡しにも着目する。
論文 参考訳(メタデータ) (2023-11-27T19:33:14Z) - Spectral-Bias and Kernel-Task Alignment in Physically Informed Neural
Networks [4.604003661048267]
物理情報ニューラルネットワーク(PINN)は微分方程式の解法として有望である。
この重要な問題に光を当てる包括的な理論的枠組みを提案する。
我々は、PINN予測を大容量データセット限界で支配する積分微分方程式を導出する。
論文 参考訳(メタデータ) (2023-07-12T18:00:02Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - $\Delta$-PINNs: physics-informed neural networks on complex geometries [2.1485350418225244]
物理インフォームドニューラルネットワーク(PINN)は偏微分方程式を含む前方および逆問題の解法において有望であることを示す。
現在までに、問題が解決されている領域のトポロジについて、PINNに知らせる明確な方法はない。
本稿では,Laplace-Beltrami演算子の固有関数に基づくPINNの新たな位置符号化機構を提案する。
論文 参考訳(メタデータ) (2022-09-08T18:03:19Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - PhyGNNet: Solving spatiotemporal PDEs with Physics-informed Graph Neural
Network [12.385926494640932]
本稿では,グラフニューラルネットワークの基本値から偏微分方程式を解くためのPhyGNNetを提案する。
特に、計算領域を正規グリッドに分割し、グリッド上の偏微分演算子を定義し、PhyGNNetモデルを構築する最適化のためにネットワークのpde損失を構築する。
論文 参考訳(メタデータ) (2022-08-07T13:33:34Z) - An Unbiased Symmetric Matrix Estimator for Topology Inference under
Partial Observability [16.60607849384252]
本稿では,部分観測可能性の枠組みに基づくネットワークトポロジ推論の問題について考察する。
本稿では、ガウス雑音とラプラシアン結合則を持つ対称ネットワークトポロジーのための新しい非バイアス推定器を提案する。
ネットワーク構造を推定するために、ネットワーク推論ガウスアルゴリズムと呼ばれる効果的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-03-29T12:49:25Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - LocalDrop: A Hybrid Regularization for Deep Neural Networks [98.30782118441158]
本稿では,ローカルラデマチャー複雑性を用いたニューラルネットワークの正規化のための新しい手法であるLocalDropを提案する。
フルコネクテッドネットワーク(FCN)と畳み込みニューラルネットワーク(CNN)の両方のための新しい正規化機能は、ローカルラデマチャー複雑さの上限提案に基づいて開発されました。
論文 参考訳(メタデータ) (2021-03-01T03:10:11Z) - Multipole Graph Neural Operator for Parametric Partial Differential
Equations [57.90284928158383]
物理系をシミュレーションするためのディープラーニングベースの手法を使用する際の大きな課題の1つは、物理ベースのデータの定式化である。
線形複雑度のみを用いて、あらゆる範囲の相互作用をキャプチャする、新しいマルチレベルグラフニューラルネットワークフレームワークを提案する。
実験により, 離散化不変解演算子をPDEに学習し, 線形時間で評価できることを確認した。
論文 参考訳(メタデータ) (2020-06-16T21:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。