論文の概要: D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory
- arxiv url: http://arxiv.org/abs/2303.00399v1
- Date: Wed, 1 Mar 2023 10:38:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:17:47.941010
- Title: D4FT: A Deep Learning Approach to Kohn-Sham Density Functional Theory
- Title(参考訳): D4FT:Kohn-Sham密度汎関数理論への深層学習アプローチ
- Authors: Tianbo Li, Min Lin, Zheyuan Hu, Kunhao Zheng, Giovanni Vignale, Kenji
Kawaguchi, A. H. Castro Neto, Kostya S. Novoselov, Shuicheng Yan
- Abstract要約: コーンシャム密度汎関数論(KS-DFT)を解くための深層学習手法を提案する。
このような手法はSCF法と同じ表現性を持つが,計算複雑性は低下する。
さらに,本手法により,より複雑なニューラルベース波動関数の探索が可能となった。
- 参考スコア(独自算出の注目度): 79.50644650795012
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Kohn-Sham Density Functional Theory (KS-DFT) has been traditionally solved by
the Self-Consistent Field (SCF) method. Behind the SCF loop is the physics
intuition of solving a system of non-interactive single-electron wave functions
under an effective potential. In this work, we propose a deep learning approach
to KS-DFT. First, in contrast to the conventional SCF loop, we propose to
directly minimize the total energy by reparameterizing the orthogonal
constraint as a feed-forward computation. We prove that such an approach has
the same expressivity as the SCF method, yet reduces the computational
complexity from O(N^4) to O(N^3). Second, the numerical integration which
involves a summation over the quadrature grids can be amortized to the
optimization steps. At each step, stochastic gradient descent (SGD) is
performed with a sampled minibatch of the grids. Extensive experiments are
carried out to demonstrate the advantage of our approach in terms of efficiency
and stability. In addition, we show that our approach enables us to explore
more complex neural-based wave functions.
- Abstract(参考訳): コーン・シャム密度汎関数理論(KS-DFT)は、伝統的にSCF法によって解決されてきた。
SCFループの背後には、効果的なポテンシャルの下で非相互作用的な単一電子波動関数の系を解く物理直観がある。
本研究では,KS-DFTに対する深層学習手法を提案する。
まず,従来のscfループとは対照的に,直交制約をフィードフォワード計算として再パラメータ化することにより,全エネルギーを直接最小化する手法を提案する。
このような手法はSCF法と同じ表現性を持つが、計算複雑性は O(N^4) から O(N^3) に減少する。
第二に、二次格子上の和を含む数値積分は最適化ステップに補正することができる。
各ステップでは、グリッドのサンプル化されたミニバッチを用いて確率勾配降下(sgd)を行う。
効率と安定性の観点から,本手法の利点を実証するために大規模な実験を行った。
さらに,本手法により,より複雑な神経系波動関数を探索できることを示した。
関連論文リスト
- Harmonic Path Integral Diffusion [0.4527270266697462]
本稿では,連続多変量確率分布から抽出する新しい手法を提案する。
本手法では,状態空間の起点を中心とするデルタ関数を$t=0$とし,ターゲット分布に$t=1$で変換する。
これらのアルゴリズムは他のサンプリング手法、特にシミュレートおよびパス積分サンプリングと対比し、解析制御、精度、計算効率の点でそれらの利点を強調した。
論文 参考訳(メタデータ) (2024-09-23T16:20:21Z) - Convergence of Implicit Gradient Descent for Training Two-Layer Physics-Informed Neural Networks [3.680127959836384]
暗黙の勾配降下(IGD)は、ある種のマルチスケール問題を扱う場合、共通勾配降下(GD)よりも優れる。
IGDは線形収束速度で大域的に最適解を収束することを示す。
論文 参考訳(メタデータ) (2024-07-03T06:10:41Z) - Adaptive Federated Learning Over the Air [108.62635460744109]
オーバー・ザ・エア・モデル・トレーニングの枠組みの中で,適応勾配法,特にAdaGradとAdamの連合バージョンを提案する。
解析の結果,AdaGrad に基づくトレーニングアルゴリズムは $mathcalO(ln(T) / T 1 - frac1alpha の速度で定常点に収束することがわかった。
論文 参考訳(メタデータ) (2024-03-11T09:10:37Z) - Adaptive function approximation based on the Discrete Cosine Transform
(DCT) [2.2713084727838115]
本稿では,離散コサイン変換(DCT)の代わりに近似係数を求める教師あり学習について検討する。
余弦基底関数の有限ダイナミクスと勾配性により、正規化リースト平均正方形 (NLMS) のような単純なアルゴリズムはその恩恵を受けることができる。
この論文は、1973年にNasir Ahmed氏によるDCT出版50周年を記念している。
論文 参考訳(メタデータ) (2023-09-01T15:31:26Z) - Entropic Neural Optimal Transport via Diffusion Processes [105.34822201378763]
本稿では,連続確率分布間のエントロピー最適輸送(EOT)計画を計算するための新しいアルゴリズムを提案する。
提案アルゴリズムは,シュリンガーブリッジ問題(Schr"odinger Bridge problem)として知られるEOTの動的バージョンのサドル点再構成に基づく。
大規模EOTの従来の手法とは対照的に,我々のアルゴリズムはエンドツーエンドであり,単一の学習ステップで構成されている。
論文 参考訳(メタデータ) (2022-11-02T14:35:13Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - Feedback Gradient Descent: Efficient and Stable Optimization with
Orthogonality for DNNs [3.42658286826597]
本稿では,FGD(Feedback Gradient Descent)という新しい手法を提案する。
画像分類実験において、FGDは精度、効率、安定性の点で既存の最先端手法を総合的に上回っている。
論文 参考訳(メタデータ) (2022-05-12T03:47:27Z) - Machine Learning Universal Bosonic Functionals [0.0]
ボゾン基底状態の汎函数理論は、量子相関を正確に回復する普遍汎函数 $mathcalF[gamma]$ の存在を確立する。
Bose-Hubbardモデルに対しては、我々のアプローチとQuantum Monte Carloとの比較を示す。
論文 参考訳(メタデータ) (2021-04-07T15:53:10Z) - Sinkhorn Natural Gradient for Generative Models [125.89871274202439]
本研究では,シンクホーンの発散による確率空間上の最も急降下法として機能するシンクホーン自然勾配(SiNG)アルゴリズムを提案する。
本稿では,SiNG の主要成分であるシンクホーン情報行列 (SIM) が明示的な表現を持ち,対数的スケールの複雑さを正確に評価できることを示す。
本実験では,SiNGと最先端のSGD型解法を定量的に比較し,その有効性と有効性を示す。
論文 参考訳(メタデータ) (2020-11-09T02:51:17Z) - A Near-Optimal Gradient Flow for Learning Neural Energy-Based Models [93.24030378630175]
学習エネルギーベースモデル(EBM)の勾配流を最適化する新しい数値スキームを提案する。
フォッカー・プランク方程式から大域相対エントロピーの2階ワッサーシュタイン勾配流を導出する。
既存のスキームと比較して、ワッサーシュタイン勾配流は実データ密度を近似するより滑らかで近似的な数値スキームである。
論文 参考訳(メタデータ) (2019-10-31T02:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。