論文の概要: Facet: highly efficient E(3)-equivariant networks for interatomic potentials
- arxiv url: http://arxiv.org/abs/2509.08418v1
- Date: Wed, 10 Sep 2025 09:06:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.369175
- Title: Facet: highly efficient E(3)-equivariant networks for interatomic potentials
- Title(参考訳): Facet: 原子間ポテンシャルに対する高効率E(3)-同変ネットワーク
- Authors: Nicholas Miklaucic, Lai Wei, Rongzhi Dong, Nihang Fu, Sadman Sadeed Omee, Qingyang Li, Sourin Dey, Victor Fung, Jianjun Hu,
- Abstract要約: 計算材料発見は、第一原理計算の高コストによって制限される。
結晶構造からエネルギーを予測する機械学習のポテンシャルは有望だが、既存の手法では計算のボトルネックに直面している。
効率的なMLポテンシャルのためのGNNアーキテクチャであるFacetを提案する。
- 参考スコア(独自算出の注目度): 6.741915610607818
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computational materials discovery is limited by the high cost of first-principles calculations. Machine learning (ML) potentials that predict energies from crystal structures are promising, but existing methods face computational bottlenecks. Steerable graph neural networks (GNNs) encode geometry with spherical harmonics, respecting atomic symmetries -- permutation, rotation, and translation -- for physically realistic predictions. Yet maintaining equivariance is difficult: activation functions must be modified, and each layer must handle multiple data types for different harmonic orders. We present Facet, a GNN architecture for efficient ML potentials, developed through systematic analysis of steerable GNNs. Our innovations include replacing expensive multi-layer perceptrons (MLPs) for interatomic distances with splines, which match performance while cutting computational and memory demands. We also introduce a general-purpose equivariant layer that mixes node information via spherical grid projection followed by standard MLPs -- faster than tensor products and more expressive than linear or gate layers. On the MPTrj dataset, Facet matches leading models with far fewer parameters and under 10% of their training compute. On a crystal relaxation task, it runs twice as fast as MACE models. We further show SevenNet-0's parameters can be reduced by over 25% with no accuracy loss. These techniques enable more than 10x faster training of large-scale foundation models for ML potentials, potentially reshaping computational materials discovery.
- Abstract(参考訳): 計算材料発見は、第一原理計算の高コストによって制限される。
結晶構造からエネルギーを予測する機械学習(ML)ポテンシャルは有望だが、既存の手法では計算ボトルネックに直面している。
静的グラフニューラルネットワーク(GNN)は、物理的に現実的な予測のために、球面調和を使って幾何学を符号化し、原子対称性(置換、回転、翻訳)を尊重する。
アクティベーション関数は変更されなければならないし、各層は異なる調和順序のために複数のデータ型を扱わなければならない。
本稿では,効率的なMLポテンシャルを持つGNNアーキテクチャであるFacetについて,ステアブルGNNの系統的解析を通して述べる。
我々の革新は、高価な多層パーセプトロン(MLP)を原子間距離に置き換えることである。
また、球面格子投影によるノード情報と標準MPPとを混合する汎用同変層を導入し、テンソル積よりも高速で、線形層やゲート層よりも表現性が高い。
MPTrjデータセットでは、Facetはトレーニング計算の10%未満のパラメータで、主要なモデルとマッチする。
結晶緩和タスクでは、MACEモデルの2倍の速度で動作する。
さらに,SevenNet-0のパラメータを25%以上削減できることを示す。
これらの技術は、MLポテンシャルのための大規模基盤モデルの10倍以上の高速なトレーニングを可能にし、潜在的に計算材料発見を再構築する可能性がある。
関連論文リスト
- Reparameterized LLM Training via Orthogonal Equivalence Transformation [54.80172809738605]
直交同値変換を用いてニューロンを最適化する新しいトレーニングアルゴリズムPOETを提案する。
POETは、目的関数を安定して最適化し、一般化を改善する。
我々は、大規模ニューラルネットワークのトレーニングにおいて、POETを柔軟かつスケーラブルにするための効率的な近似を開発する。
論文 参考訳(メタデータ) (2025-06-09T17:59:34Z) - chemtrain: Learning Deep Potential Models via Automatic Differentiation and Statistical Physics [0.0]
ニューラルネットワーク(NN)は、分子動力学の精度を向上し、新しい応用分野を開拓する有効なモデルである。
本稿では、カスタマイズ可能なトレーニングルーチンと高度なトレーニングアルゴリズムを用いて、洗練されたNNポテンシャルモデルを学ぶためのフレームワークケミストレインを紹介する。
論文 参考訳(メタデータ) (2024-08-28T15:14:58Z) - Similarity Equivariant Graph Neural Networks for Homogenization of Metamaterials [3.6443770850509423]
ソフトで多孔質なメカニカルメタマテリアルは、ソフトロボティクス、音の低減、バイオメディシンに重要な応用をもたらすパターン変換を示す。
我々は、代理モデルとして機能するために好意的にスケールする機械学習ベースのアプローチを開発する。
このネットワークは、対称性の少ないグラフニューラルネットワークよりも正確で、データ効率が高いことを示す。
論文 参考訳(メタデータ) (2024-04-26T12:30:32Z) - Geometry-Informed Neural Operator for Large-Scale 3D PDEs [76.06115572844882]
大規模偏微分方程式の解演算子を学習するために,幾何インフォームド・ニューラル演算子(GINO)を提案する。
我々はGINOを訓練し、わずか500点のデータポイントで車両表面の圧力を予測することに成功した。
論文 参考訳(メタデータ) (2023-09-01T16:59:21Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - NeuralNEB -- Neural Networks can find Reaction Paths Fast [7.7365628406567675]
密度汎関数理論 (DFT) のような量子力学的手法は、反応系の運動学を研究するための効率的な探索アルゴリズムと共に大きな成功を収めている。
機械学習(ML)モデルは、小さな分子DFT計算の優れたエミュレータであることが判明し、そのようなタスクでDFTを置き換える可能性がある。
本稿では、Transition1xデータセットから約10万の初等反応に基づいて、アート同変グラフニューラルネットワーク(GNN)に基づくモデルの状態を訓練する。
論文 参考訳(メタデータ) (2022-07-20T15:29:45Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。