論文の概要: Shoot from the HIP: Hessian Interatomic Potentials without derivatives
- arxiv url: http://arxiv.org/abs/2509.21624v1
- Date: Thu, 25 Sep 2025 21:43:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.035668
- Title: Shoot from the HIP: Hessian Interatomic Potentials without derivatives
- Title(参考訳): HIPからのシュート:微分を持たないヘッセン原子間ポテンシャル
- Authors: Andreas Burger, Luca Thiede, Nikolaj Rønne, Varinia Bernales, Nandita Vijaykumar, Tejs Vegge, Arghya Bhowmik, Alan Aspuru-Guzik,
- Abstract要約: ヘッセンは、システムサイズで計算し、スケールするのが高価である。
深層学習モデルから直接ヘッセンを予測できることを実証する。
これにより、HIP Hessianは、桁違いに高速で、より正確で、よりメモリ効率が良く、トレーニングが容易になり、システムサイズでより好ましいスケーリングを可能にします。
- 参考スコア(独自算出の注目度): 2.406669016462152
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Fundamental tasks in computational chemistry, from transition state search to vibrational analysis, rely on molecular Hessians, which are the second derivatives of the potential energy. Yet, Hessians are computationally expensive to calculate and scale poorly with system size, with both quantum mechanical methods and neural networks. In this work, we demonstrate that Hessians can be predicted directly from a deep learning model, without relying on automatic differentiation or finite differences. We observe that one can construct SE(3)-equivariant, symmetric Hessians from irreducible representations (irrep) features up to degree $l$=2 computed during message passing in graph neural networks. This makes HIP Hessians one to two orders of magnitude faster, more accurate, more memory efficient, easier to train, and enables more favorable scaling with system size. We validate our predictions across a wide range of downstream tasks, demonstrating consistently superior performance for transition state search, accelerated geometry optimization, zero-point energy corrections, and vibrational analysis benchmarks. We open-source the HIP codebase and model weights to enable further development of the direct prediction of Hessians at https://github.com/BurgerAndreas/hip
- Abstract(参考訳): 遷移状態探索から振動解析まで、計算化学における基本的なタスクは、ポテンシャルエネルギーの第2の微分である分子ヘッセンに依存する。
しかし、Hessianは計算コストが高く、量子力学的手法とニューラルネットワークの両方で、システムサイズを低く計算し、スケールする。
本研究では,深層学習モデルからHessianを自動微分や有限差分に頼ることなく直接予測できることを実証する。
グラフニューラルネットワークにおけるメッセージパッシング時に最大$l$=2まで計算された既約表現 (irrep) からSE(3)-同変対称ヘッセンを構築することができる。
これにより、HIP Hessianは、桁違いに高速で、より正確で、よりメモリ効率が良く、トレーニングが容易になり、システムサイズでより好ましいスケーリングを可能にします。
そこで我々は,遷移状態探索,高速化された幾何最適化,ゼロ点エネルギー補正,振動解析ベンチマークなど,幅広い下流タスクの予測を検証し,一貫した性能を示す。
私たちはHIPコードベースとモデルウェイトをオープンソースにして、https://github.com/BurgerAndreas/hipでHessianの直接予測のさらなる開発を可能にしました。
関連論文リスト
- Facet: highly efficient E(3)-equivariant networks for interatomic potentials [6.741915610607818]
計算材料発見は、第一原理計算の高コストによって制限される。
結晶構造からエネルギーを予測する機械学習のポテンシャルは有望だが、既存の手法では計算のボトルネックに直面している。
効率的なMLポテンシャルのためのGNNアーキテクチャであるFacetを提案する。
論文 参考訳(メタデータ) (2025-09-10T09:06:24Z) - Data-Efficient Time-Dependent PDE Surrogates: Graph Neural Simulators vs. Neural Operators [0.0]
時間依存偏微分方程式(PDE)の原理的代理モデルとしてニューラルグラフシミュレータ(GNS)を提案する。
GNSは、メッセージパッシングと数値的なタイムステッピングスキームを組み合わせて、瞬時微分をモデル化してPDEダイナミクスを学習する。
その結果, GNSはデータ効率が著しく高く, 比較的L2誤差が1%未満であり, 利用可能な軌道は3%に過ぎなかった。
論文 参考訳(メタデータ) (2025-09-07T17:54:23Z) - Enabling Automatic Differentiation with Mollified Graph Neural Operators [75.3183193262225]
本稿では,任意の測地上での自動微分とエンフェクサクタクティック勾配を計算するための最初の手法であるモリファイドグラフニューラル演算子 (mGNO) を提案する。
正規格子上のPDEの例では、mGNOとオートグレードの組み合わせにより、L2相対データの誤差は有限差に比べて20倍減少した。
また、物理損失のみを使用し、有限差分に必要な分解能よりもはるかに低い精度で、非構造化点雲上のPDEをシームレスに解くことができる。
論文 参考訳(メタデータ) (2025-04-11T06:16:30Z) - How Feature Learning Can Improve Neural Scaling Laws [79.59705237659547]
我々は,カーネル限界を超えたニューラルスケーリング法則の解法モデルを開発する。
モデルのサイズ、トレーニング時間、利用可能なデータの総量によるパフォーマンスのスケールアップ方法を示す。
論文 参考訳(メタデータ) (2024-09-26T14:05:32Z) - Neural Quantum States and Peaked Molecular Wave Functions: Curse or Blessing? [0.5530212768657544]
本研究では, 局所エネルギーに対する計算コストの低いサロゲートを計算する手順を置き換えることなく, 自己回帰サンプリングのための新しいアルゴリズムを提案する。
我々の計算は資源を著しく少なくし、以前の計算よりも桁違いのスピードアップを示す。
論文 参考訳(メタデータ) (2024-08-14T15:49:04Z) - Reduced-Order Neural Operators: Learning Lagrangian Dynamics on Highly Sparse Graphs [19.1312659245072]
我々は,データ駆動型離散化不変フレームワークであるGIOROMについて,低次モデリング(ROM)によるラグランジアンシミュレーションを高速化する。
我々は、PDEソリューション演算子のデータ駆動グラフに基づくニューラル近似を利用する。
GIOROMは6.6$times$-32$times$の入力次元の縮小を実現し、多様なラグランジアン体制における高忠実度再構成を維持している。
論文 参考訳(メタデータ) (2024-07-04T13:37:26Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Directed Graph Attention Neural Network Utilizing 3D Coordinates for
Molecular Property Prediction [11.726245297344418]
カーネル法とグラフニューラルネットワークは、プロパティ予測の2つの主流手法として広く研究されている。
この研究では、化学結合のみをエッジとして扱うDirected Graph Attention Neural Network(DGANN)に光を当てた。
我々のモデルは、QM9データセット上で、ほとんどのベースライングラフニューラルネットワークにマッチするか、より優れています。
論文 参考訳(メタデータ) (2020-12-01T11:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。