論文の概要: Efficient Prediction of SO(3)-Equivariant Hamiltonian Matrices via SO(2) Local Frames
- arxiv url: http://arxiv.org/abs/2506.09398v1
- Date: Wed, 11 Jun 2025 05:04:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.492908
- Title: Efficient Prediction of SO(3)-Equivariant Hamiltonian Matrices via SO(2) Local Frames
- Title(参考訳): SO(2)局所フレームによるSO(3)-等変ハミルトン行列の効率的な予測
- Authors: Haiyang Yu, Yuchao Lin, Xuan Zhang, Xiaofeng Qian, Shuiwang Ji,
- Abstract要約: 我々は、電子構造計算を高速化するためにハミルトン行列を予測することを考える。
ハミルトン行列の対角線外ブロックとSO(2)局所フレームの関係から、QHNetV2を提案する。
- 参考スコア(独自算出の注目度): 59.87385171177885
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We consider the task of predicting Hamiltonian matrices to accelerate electronic structure calculations, which plays an important role in physics, chemistry, and materials science. Motivated by the inherent relationship between the off-diagonal blocks of the Hamiltonian matrix and the SO(2) local frame, we propose a novel and efficient network, called QHNetV2, that achieves global SO(3) equivariance without the costly SO(3) Clebsch-Gordan tensor products. This is achieved by introducing a set of new efficient and powerful SO(2)-equivariant operations and performing all off-diagonal feature updates and message passing within SO(2) local frames, thereby eliminating the need of SO(3) tensor products. Moreover, a continuous SO(2) tensor product is performed within the SO(2) local frame at each node to fuse node features, mimicking the symmetric contraction operation. Extensive experiments on the large QH9 and MD17 datasets demonstrate that our model achieves superior performance across a wide range of molecular structures and trajectories, highlighting its strong generalization capability. The proposed SO(2) operations on SO(2) local frames offer a promising direction for scalable and symmetry-aware learning of electronic structures. Our code will be released as part of the AIRS library https://github.com/divelab/AIRS.
- Abstract(参考訳): 本研究では, 物理, 化学, 材料科学において重要な役割を担う電子構造計算を加速するために, ハミルトン行列を予測することを考える。
ハミルトン行列の非対角ブロックとSO(2)局所フレームの固有な関係により、コストのかかるSO(3)クレブシュ・ゴルダンテンソル積を使わずに大域的にSO(3)同値性を実現する、QHNetV2と呼ばれる新規で効率的なネットワークを提案する。
これは、新しい効率的で強力なSO(2)-同変演算のセットを導入し、SO(2)局所フレーム内で全ての非対角的特徴更新とメッセージパッシングを行い、SO(3)テンソル生成物の必要性をなくすことによって達成される。
さらに、各ノードのSO(2)局所フレーム内で連続的なSO(2)テンソル積を行い、ノード特徴を融合させ、対称収縮操作を模倣する。
大規模なQH9データセットとMD17データセットの大規模な実験により、我々のモデルは幅広い分子構造や軌道において優れた性能を達成し、その強力な一般化能力を強調している。
提案したSO(2)局所フレーム上のSO(2)演算は、電子構造のスケーラブルで対称性を考慮した学習に有望な方向を提供する。
私たちのコードはAIRSライブラリhttps://github.com/divelab/AIRSの一部としてリリースされます。
関連論文リスト
- Optimal Symbolic Construction of Matrix Product Operators and Tree Tensor Network Operators [0.0]
本研究では,行列積演算子(MPO)とツリーテンソルネットワーク演算子(TTNO)を構築するための改良されたフレームワークを提案する。
与えられた(ハミルトニアン)作用素は典型的には、テンソルネットワーク構造に変換できる「作用素弦の和」形式の既知の記号を持つ。
論文 参考訳(メタデータ) (2025-02-25T20:33:30Z) - Efficient and Scalable Density Functional Theory Hamiltonian Prediction through Adaptive Sparsity [11.415146682472127]
ハミルトン行列予測は計算化学において重要である。
SPHNetは、適応SParsityをハミルトン予測に組み込んだ、効率的でスケーラブルな同変ネットワークである。
SPHNetは最先端の精度を実現し、既存のモデルよりも最大7倍のスピードアップを実現している。
論文 参考訳(メタデータ) (2025-02-03T09:04:47Z) - Incorporating Arbitrary Matrix Group Equivariance into KANs [69.30866522377694]
我々は任意の行列群同変をkanに組み込む方法であるEquivariant Kolmogorov-Arnold Networks (EKAN)を提案する。
EKANは、粒子散乱や3体問題といった対称性に関連したタスクにおいて、より小さなデータセットやより少ないパラメータで高い精度を達成する。
論文 参考訳(メタデータ) (2024-10-01T06:34:58Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - FAENet: Frame Averaging Equivariant GNN for Materials Modeling [123.19473575281357]
データ変換による任意のモデルE(3)-同変や不変化を実現するために,フレームアラグリング(SFA)に依存したフレキシブルなフレームワークを導入する。
本手法の有効性を理論的および実験的に証明し, 材料モデリングにおける精度と計算スケーラビリティを実証する。
論文 参考訳(メタデータ) (2023-04-28T21:48:31Z) - Tensor Factorized Hamiltonian Downfolding To Optimize The Scaling Complexity Of The Electronic Correlations Problem on Classical and Quantum Computers [0.3613661942047476]
我々は、テンソル分解ハミルトンダウンフォールディング(TFHD)とその量子アナログ、量子化ダウンフォールディング(QD)を導入する。
TFHDは、ディープ最適ブロック符号化回路で実行されるランク2ネットワークに、すべての上位オブジェクトを崩壊させる。
古典計算機と量子コンピュータの両方で高価な量子化学アルゴリズムの超クアッドレート高速化を実証する。
論文 参考訳(メタデータ) (2023-03-13T12:15:54Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。