論文の概要: On Representing Electronic Wave Functions with Sign Equivariant Neural
Networks
- arxiv url: http://arxiv.org/abs/2403.05249v1
- Date: Fri, 8 Mar 2024 12:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 19:56:25.984094
- Title: On Representing Electronic Wave Functions with Sign Equivariant Neural
Networks
- Title(参考訳): 符号同変ニューラルネットワークを用いた電子波動関数の表現について
- Authors: Nicholas Gao, Stephan G\"unnemann
- Abstract要約: 最近のニューラルネットワークは、電子基底波関数の驚くほど正確な近似を示した。
これらのニューラルネットワークは通常、置換同変ニューラルネットワークと置換反対称演算からなる。
正確性はあるものの、そのようなニューラルネットワークは計算コストが高い。
- 参考スコア(独自算出の注目度): 10.80375466357108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent neural networks demonstrated impressively accurate approximations of
electronic ground-state wave functions. Such neural networks typically consist
of a permutation-equivariant neural network followed by a
permutation-antisymmetric operation to enforce the electronic exchange
symmetry. While accurate, such neural networks are computationally expensive.
In this work, we explore the flipped approach, where we first compute
antisymmetric quantities based on the electronic coordinates and then apply
sign equivariant neural networks to preserve the antisymmetry. While this
approach promises acceleration thanks to the lower-dimensional representation,
we demonstrate that it reduces to a Jastrow factor, a commonly used
permutation-invariant multiplicative factor in the wave function. Our empirical
results support this further, finding little to no improvements over baselines.
We conclude with neither theoretical nor empirical advantages of sign
equivariant functions for representing electronic wave functions within the
evaluation of this work.
- Abstract(参考訳): 最近のニューラルネットワークは、電子基底波関数の驚くほど正確な近似を示した。
このようなニューラルネットワークは通常、置換同変ニューラルネットワークと、電子交換対称性を強制する置換反対称演算からなる。
正確ではあるが、そのようなニューラルネットワークは計算コストが高い。
本研究では,まず電子座標に基づいて非対称量の計算を行い,その反対称性を維持するために符号同変ニューラルネットワークを適用する。
このアプローチは低次元表現による加速を約束するが、波関数における一般的な置換不変乗算係数であるジャストロー因子に還元できることを実証する。
私たちの経験的な結果はこれをさらにサポートし、ベースラインよりもほとんど、あるいは全く改善していません。
本研究の評価において, 電子波動関数を表す符号同変関数の理論的・経験的優位性は認められない。
関連論文リスト
- Equivariant neural networks and piecewise linear representation theory [0.0]
等価ニューラルネットワークは対称性を持つニューラルネットワークである。
群表現の理論により、同変ニューラルネットワークの層を単純な表現に分解する。
論文 参考訳(メタデータ) (2024-08-01T23:08:37Z) - Neural Pfaffians: Solving Many Many-Electron Schrödinger Equations [58.130170155147205]
神経波関数は、計算コストが高いにもかかわらず、多電子系の基底状態の近似において前例のない精度を達成した。
近年の研究では、個々の問題を個別に解くのではなく、様々な構造や化合物にまたがる一般化波動関数を学習することでコストを下げることが提案されている。
この研究は、分子間の一般化に適した過度にパラメータ化され、完全に学習可能なニューラルウェーブ関数を定義することで、この問題に取り組む。
論文 参考訳(メタデータ) (2024-05-23T16:30:51Z) - Non Commutative Convolutional Signal Models in Neural Networks:
Stability to Small Deformations [111.27636893711055]
非可換畳み込みフィルタのフィルタ特性と安定性について検討する。
この結果は,グループニューラルネットワーク,マルチグラフニューラルネットワーク,四元系ニューラルネットワークに直接影響する。
論文 参考訳(メタデータ) (2023-10-05T20:27:22Z) - A Lifted Bregman Formulation for the Inversion of Deep Neural Networks [28.03724379169264]
本稿では,ディープニューラルネットワークの正規化インバージョンのための新しいフレームワークを提案する。
このフレームワークは、補助変数を導入することにより、パラメータ空間を高次元空間に引き上げる。
理論的結果を提示し,その実用的応用を数値的な例で支援する。
論文 参考訳(メタデータ) (2023-03-01T20:30:22Z) - Permutation Equivariant Neural Functionals [92.0667671999604]
この研究は、他のニューラルネットワークの重みや勾配を処理できるニューラルネットワークの設計を研究する。
隠れた層状ニューロンには固有の順序がないため, 深いフィードフォワードネットワークの重みに生じる置換対称性に着目する。
実験の結果, 置換同変ニューラル関数は多種多様なタスクに対して有効であることがわかった。
論文 参考訳(メタデータ) (2023-02-27T18:52:38Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Determinant-free fermionic wave function using feed-forward neural
networks [0.0]
本稿では,フィードフォワードニューラルネットワークを用いて,多体フェルミオン系の基底状態を検出する枠組みを提案する。
エネルギーの「ばらつき」をエネルギーそのものと同時に最適化することにより近似の精度を向上させることができることを示す。
これらの改善は、変分モンテカルロ法に基づく他の手法にも適用できる。
論文 参考訳(メタデータ) (2021-08-19T11:51:36Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。