論文の概要: Broadening the Scope of Neural Network Potentials through Direct Inclusion of Additional Molecular Attributes
- arxiv url: http://arxiv.org/abs/2403.15073v2
- Date: Fri, 07 Feb 2025 08:58:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:52:49.738091
- Title: Broadening the Scope of Neural Network Potentials through Direct Inclusion of Additional Molecular Attributes
- Title(参考訳): 付加的な分子属性の直接包摂によるニューラルネットワーク電位のスコープの拡大
- Authors: Guillem Simeon, Antonio Mirarchi, Raul P. Pelaez, Raimondas Galvelis, Gianni De Fabritiis,
- Abstract要約: ニューラルネットワークのポテンシャル表現に追加の電子属性を含めることの重要性を実証する。
この修正によって、原子番号と位置のみの使用に起因する入力縮退が解決されることを示す。
これは、適切な戦略や物理学に基づくエネルギー用語を含めることなく達成される。
- 参考スコア(独自算出の注目度): 2.679689033125693
- License:
- Abstract: Most state-of-the-art neural network potentials do not account for molecular attributes other than atomic numbers and positions, which limits its range of applicability by design. In this work, we demonstrate the importance of including additional electronic attributes in neural network potential representations with a minimal architectural change to TensorNet, a state-of-the-art equivariant model based on Cartesian rank-2 tensor representations. By performing experiments on both custom-made and public benchmarking datasets, we show that this modification resolves the input degeneracy issues stemming from the use of atomic numbers and positions alone, while enhancing the model's predictive accuracy across diverse chemical systems with different charge or spin states. This is accomplished without tailored strategies or the inclusion of physics-based energy terms, while maintaining efficiency and accuracy. These findings should furthermore encourage researchers to train and use models incorporating these additional representations.
- Abstract(参考訳): ほとんどの最先端のニューラルネットワーク電位は、原子番号や位置以外の分子特性を考慮せず、設計による適用範囲を制限する。
本研究では、カルテシアン階数2テンソル表現に基づく最先端同変モデルであるTensorNetに対して、最小限のアーキテクチャ変更を伴うニューラルネットワークポテンシャル表現に電子的属性を加えることの重要性を示す。
この修正により、原子番号と位置だけで発生する入力縮退問題を解消し、異なる電荷やスピン状態を持つ様々な化学系の予測精度を高めながら、カスタムメイドおよびパブリックベンチマークデータセットの両方で実験を行うことで、モデルの予測精度を向上させる。
これは、効率と精度を維持しながら、適切な戦略や物理学に基づくエネルギー用語を含めることなく達成される。
これらの発見は、さらに研究者に、これらの追加表現を取り入れたモデルを訓練し、使用するよう促すだろう。
関連論文リスト
- Tensor Network Computations That Capture Strict Variationality, Volume Law Behavior, and the Efficient Representation of Neural Network States [0.6148049086034199]
本稿では,振幅の収縮の計算グラフによって定義されるテンソルネットワーク状態の視点変化を紹介する。
結果として得られる状態のクラスはテンソルネットワーク関数と呼ばれ、テンソルネットワーク状態の概念上の利点を継承し、近似された収縮を収束させる必要から生じる計算的制約を除去する。
テンソルネットワーク関数を用いて、ループグラフ上のエネルギーの厳密な変動推定を計算し、基底状態の表現力を解析し、体積法則の時間進化の側面を捉え、一般的なフィードフォワードニューラルネットワークの効率的なテンソルネットワーク関数へのマッピングを提供する。
論文 参考訳(メタデータ) (2024-05-06T19:04:13Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Deep Neural Networks as Variational Solutions for Correlated Open
Quantum Systems [0.0]
より強力なモデルで直接密度行列をパラメータ化することで、より良い変分アンザッツ関数が得られることを示す。
本稿では, 散逸的一次元逆場イジングモデルと2次元散逸的ハイゼンベルクモデルについて述べる。
論文 参考訳(メタデータ) (2024-01-25T13:41:34Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - TensorNet: Cartesian Tensor Representations for Efficient Learning of
Molecular Potentials [4.169915659794567]
我々は、革新的なO(3)等価メッセージパッシングニューラルネットワークアーキテクチャであるNetを紹介する。
テンソル原子埋め込みを用いることで、機能混合は行列積演算により単純化される。
ポテンシャルエネルギーと力の上のベクトルとテンソル分子量の正確な予測が可能である。
論文 参考訳(メタデータ) (2023-06-10T16:41:18Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Neural network enhanced measurement efficiency for molecular
groundstates [63.36515347329037]
いくつかの分子量子ハミルトニアンの複雑な基底状態波動関数を学習するために、一般的なニューラルネットワークモデルを適用する。
ニューラルネットワークモデルを使用することで、単一コピー計測結果だけで観測対象を再構築するよりも堅牢な改善が得られます。
論文 参考訳(メタデータ) (2022-06-30T17:45:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Deep Neural Networks and PIDE discretizations [2.4063592468412276]
畳み込みニューラルネットワーク(CNN)の安定性と視野問題に対処するニューラルネットワークを提案する。
本稿では,大域重み付きラプラス作用素,分数ラプラス作用素,分数逆ラプラス作用素に関連する積分型空間非局所作用素を提案する。
自律運転における画像分類データセットとセマンティックセグメンテーションタスクのベンチマーク上で,提案したニューラルネットワークの有効性を検証した。
論文 参考訳(メタデータ) (2021-08-05T08:03:01Z) - On the Stability of Graph Convolutional Neural Networks under Edge
Rewiring [22.58110328955473]
グラフニューラルネットワークは、機械学習コミュニティ内で人気が高まっている。
しかし、その安定性、すなわち入力中の小さな摂動に対する頑健さは、まだよく理解されていない。
我々は,グラフニューラルネットワークが高次ノード間の切り換えに安定であることを示す,解釈可能な上界モデルを開発した。
論文 参考訳(メタデータ) (2020-10-26T17:37:58Z) - Molecule Property Prediction and Classification with Graph Hypernetworks [113.38181979662288]
ネットワークをハイパーネットワークに置き換えることで性能が向上することを示す。
ハイパーネットワークの適用において大きな困難は、安定性の欠如である。
最近の研究は、エラー訂正コードのコンテキストにおいて、ハイパーネットワークのトレーニング不安定性に取り組んでいる。
論文 参考訳(メタデータ) (2020-02-01T16:44:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。