論文の概要: Diagonal Symmetrization of Neural Network Solvers for the Many-Electron Schrödinger Equation
- arxiv url: http://arxiv.org/abs/2502.05318v1
- Date: Fri, 07 Feb 2025 20:37:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:29:42.876917
- Title: Diagonal Symmetrization of Neural Network Solvers for the Many-Electron Schrödinger Equation
- Title(参考訳): 多電子シュレーディンガー方程式に対するニューラルネットワーク解の対角対称性
- Authors: Kevin Han Huang, Ni Zhan, Elif Ertekin, Peter Orbanz, Ryan P. Adams,
- Abstract要約: 我々は,モンテカルロ変分法を用いて学習したニューラルネットワークアンスに,対角的不変性を導入する様々な方法について検討した。
標準のMLセットアップとは対照的に、トレーニング中の対称性はトレーニングを不安定にし、パフォーマンスを悪化させる可能性があることを示す。
我々の理論的および数値的な結果は、この予期せぬ挙動は、シンメトリゼーションの標準ML解析では見つからないユニークな計算統計的トレードオフから生じる可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 11.202098800341096
- License:
- Abstract: Incorporating group symmetries into neural networks has been a cornerstone of success in many AI-for-science applications. Diagonal groups of isometries, which describe the invariance under a simultaneous movement of multiple objects, arise naturally in many-body quantum problems. Despite their importance, diagonal groups have received relatively little attention, as they lack a natural choice of invariant maps except in special cases. We study different ways of incorporating diagonal invariance in neural network ans\"atze trained via variational Monte Carlo methods, and consider specifically data augmentation, group averaging and canonicalization. We show that, contrary to standard ML setups, in-training symmetrization destabilizes training and can lead to worse performance. Our theoretical and numerical results indicate that this unexpected behavior may arise from a unique computational-statistical tradeoff not found in standard ML analyses of symmetrization. Meanwhile, we demonstrate that post hoc averaging is less sensitive to such tradeoffs and emerges as a simple, flexible and effective method for improving neural network solvers.
- Abstract(参考訳): ニューラルネットワークにグループ対称性を組み込むことは、多くのAI/科学応用において成功の基盤となっている。
複数の物体の同時運動の下での不変性を記述する等距離群の対角群は、自然に多体量子問題に現れる。
その重要性にもかかわらず、対角群は特別な場合を除いて不変写像の自然な選択を欠いているため、比較的ほとんど注目されていない。
本研究では,モンテカルロ法を用いて学習したニューラルネットワークAns\atzeにおける対角的不変性の導入方法について検討し,データ拡張,グループ平均化,正準化について検討した。
標準のMLセットアップとは対照的に、トレーニング中の対称性はトレーニングを不安定にし、パフォーマンスを悪化させる可能性があることを示す。
我々の理論的および数値的な結果は、この予期せぬ挙動は、シンメトリゼーションの標準ML解析では見つからないユニークな計算統計的トレードオフから生じる可能性があることを示唆している。
一方、ポストホック平均化はそのようなトレードオフに敏感ではなく、ニューラルネットワークの解法を改善するための単純で柔軟で効果的な方法として現れることを実証する。
関連論文リスト
- Symmetry Discovery for Different Data Types [52.2614860099811]
等価ニューラルネットワークは、そのアーキテクチャに対称性を取り入れ、より高度な一般化性能を実現する。
本稿では,タスクの入出力マッピングを近似したトレーニングニューラルネットワークによる対称性発見手法であるLieSDを提案する。
我々は,2体問題,慣性行列予測のモーメント,トップクォークタグ付けといった課題におけるLieSDの性能を検証した。
論文 参考訳(メタデータ) (2024-10-13T13:39:39Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Trade-Offs of Diagonal Fisher Information Matrix Estimators [53.35448232352667]
Fisher情報行列は、ニューラルネットワークのパラメータ空間の局所幾何学を特徴付けるのに使うことができる。
精度とサンプルの複雑さが関連する分散に依存する2つの人気推定器について検討する。
分散のバウンダリを導出し、回帰と分類のためにニューラルネットワークでそれらをインスタンス化する。
論文 参考訳(メタデータ) (2024-02-08T03:29:10Z) - On the hardness of learning under symmetries [31.961154082757798]
勾配勾配勾配を用いた同変ニューラルネットワークの学習問題について検討する。
対称性による帰納バイアスにもかかわらず、実際には勾配降下を通じて同変ニューラルネットワークで表される関数の完全なクラスを学習することは難しいままである。
論文 参考訳(メタデータ) (2024-01-03T18:24:18Z) - Symmetry Breaking and Equivariant Neural Networks [17.740760773905986]
我々は「緩和された同注入」という新しい概念を導入する。
我々は、この緩和を同変多層パーセプトロン(E-MLP)に組み込む方法を示す。
対称性の破れの関連性は、様々な応用領域で議論される。
論文 参考訳(メタデータ) (2023-12-14T15:06:48Z) - Revisiting Gaussian Neurons for Online Clustering with Unknown Number of
Clusters [0.0]
参照するクラスタ数の最大限のオンラインクラスタリングを行う、新しいローカルラーニングルールが提示される。
実験結果は,学習パラメータの安定性を多数のトレーニングサンプルで実証した。
論文 参考訳(メタデータ) (2022-05-02T14:01:40Z) - Learning Invariant Weights in Neural Networks [16.127299898156203]
機械学習でよく使われるモデルの多くは、データ内の特定の対称性を尊重することを制約している。
本稿では,ニューラルネットワークにおける不変性学習の限界値の最小化により,このアプローチに準ずる重み空間を提案する。
論文 参考訳(メタデータ) (2022-02-25T00:17:09Z) - Lattice gauge symmetry in neural networks [0.0]
格子ゲージ同変畳み込みニューラルネットワーク(L-CNN)と呼ばれる新しいニューラルネットワークアーキテクチャについてレビューする。
我々は、ゲージ同変畳み込み層と双線型層を明示的に構築するために使用するゲージ同値の概念について議論する。
L-CNNと等価でないCNNの性能は、一見単純な非線形回帰タスクを用いて比較する。
論文 参考訳(メタデータ) (2021-11-08T11:20:11Z) - Convolutional Filtering and Neural Networks with Non Commutative
Algebras [153.20329791008095]
本研究では,非可換畳み込みニューラルネットワークの一般化について検討する。
非可換畳み込み構造は作用素空間上の変形に対して安定であることを示す。
論文 参考訳(メタデータ) (2021-08-23T04:22:58Z) - Learning Invariances in Neural Networks [51.20867785006147]
ネットワークパラメータや拡張パラメータに関して,拡張性よりも分布をパラメータ化し,トレーニング損失を同時に最適化する方法を示す。
画像分類,回帰,セグメンテーション,分子特性予測における不均一性の正確なセットと範囲を,拡張の広い空間から復元することができる。
論文 参考訳(メタデータ) (2020-10-22T17:18:48Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。