論文の概要: Implicit Neural Representations for Chemical Reaction Paths
- arxiv url: http://arxiv.org/abs/2502.15843v1
- Date: Thu, 20 Feb 2025 19:44:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:52:12.984147
- Title: Implicit Neural Representations for Chemical Reaction Paths
- Title(参考訳): 化学反応経路の入射神経表現
- Authors: Kalyan Ramakrishnan, Lars L. Schaaf, Chen Lin, Guangrun Wang, Philip Torr,
- Abstract要約: ニューラルネットワークは最小エネルギー経路を連続関数として表現できることを示す。
低次元の環境では、1つのニューラルネットワークが既存の経路から学習し、目に見えないシステムに一般化できることを実証する。
- 参考スコア(独自算出の注目度): 20.776507172563697
- License:
- Abstract: We show that neural networks can be optimized to represent minimum energy paths as continuous functions, offering a flexible alternative to discrete path-search methods like Nudged Elastic Band (NEB). Our approach parameterizes reaction paths with a network trained on a loss function that discards tangential energy gradients and enables instant estimation of the transition state. We first validate the method on two-dimensional potentials and then demonstrate its advantages over NEB on challenging atomistic systems where (i) poor initial guesses yield unphysical paths, (ii) multiple competing paths exist, or (iii) the reaction follows a complex multi-step mechanism. Results highlight the versatility of the method -- for instance, a simple adjustment to the sampling strategy during optimization can help escape local-minimum solutions. Finally, in a low-dimensional setting, we demonstrate that a single neural network can learn from existing paths and generalize to unseen systems, showing promise for a universal reaction path representation.
- Abstract(参考訳): ニューラルネットワークは最小エネルギー経路を連続関数として表現することができ、Nudged Elastic Band (NEB)のような離散経路探索法に代わる柔軟な代替手段を提供する。
提案手法は, 損失関数をトレーニングしたネットワークを用いて反応経路をパラメータ化することにより, エネルギー勾配を排除し, 遷移状態の即時推定を可能にする。
まず2次元ポテンシャルの手法を検証し,その利点を NEB よりも有益であることを示す。
(i)未熟な初期推定は非物理的経路をもたらす。
(二)複数の競合経路が存在すること、又は
三) 反応は複雑な多段階の機構に従う。
例えば、最適化中のサンプリング戦略への簡単な調整は、局所最小解の回避に役立つ。
最後に、低次元環境では、単一ニューラルネットワークが既存の経路から学習し、未知のシステムに一般化できることを示し、普遍的な反応経路表現の約束を示す。
関連論文リスト
- Gradients can train reward models: An Empirical Risk Minimization Approach for Offline Inverse RL and Dynamic Discrete Choice Model [9.531082746970286]
機械学習において、動的選択(DDC)モデル(オフライン最大エントロピー正規化逆強化学習(オフラインMaxEnt-IRL))を推定する問題について検討する。
目的は、オフラインの振舞いデータからエージェントの振舞いを管理する$Q*$関数をリカバリすることである。
線形パラメータ化報酬の制限的仮定を使わずにこれらの問題を解くための大域収束勾配法を提案する。
論文 参考訳(メタデータ) (2025-02-19T22:22:20Z) - A neural network approach for solving the Monge-Ampère equation with transport boundary condition [0.0]
本稿では,輸送境界条件でモンジュ・アンペア方程式を解くためのニューラルネットワークに基づく新しい手法を提案する。
我々は、方程式の残差、境界条件、凸性制約を含む損失関数を最小化することにより、多層パーセプトロンネットワークを利用して近似解を学習する。
論文 参考訳(メタデータ) (2024-10-25T11:54:00Z) - Generalized Flow Matching for Transition Dynamics Modeling [14.76793118877456]
局所力学から非線形性を学習することでシミュレーションをウォームアップするデータ駆動手法を提案する。
具体的には、局所力学データからポテンシャルエネルギー関数を推定し、2つの準安定状態間の可塑性経路を求める。
提案手法の有効性を検証するため, 合成分子系と実世界の分子系の両方において, 確率的経路をサンプリングする手法の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-19T15:03:39Z) - Hallmarks of Optimization Trajectories in Neural Networks: Directional Exploration and Redundancy [75.15685966213832]
最適化トラジェクトリのリッチな方向構造をポイントワイズパラメータで解析する。
トレーニング中のスカラーバッチノルムパラメータは,ネットワーク全体のトレーニング性能と一致していることを示す。
論文 参考訳(メタデータ) (2024-03-12T07:32:47Z) - Implicit Stochastic Gradient Descent for Training Physics-informed
Neural Networks [51.92362217307946]
物理インフォームドニューラルネットワーク(PINN)は、前方および逆微分方程式問題の解法として効果的に実証されている。
PINNは、近似すべきターゲット関数が高周波またはマルチスケールの特徴を示す場合、トレーニング障害に閉じ込められる。
本稿では,暗黙的勾配降下法(ISGD)を用いてPINNを訓練し,トレーニングプロセスの安定性を向上させることを提案する。
論文 参考訳(メタデータ) (2023-03-03T08:17:47Z) - Least-Squares ReLU Neural Network (LSNN) Method For Linear
Advection-Reaction Equation [3.6525914200522656]
本稿では,不連続解を用いた線形対流-反作用問題の解法として,最小二乗ReLUニューラルネットワーク法について検討する。
この方法は、ReLUニューラルネットワークの自由超平面を介して、基礎となる問題の不連続なインターフェースを自動で近似することができる。
論文 参考訳(メタデータ) (2021-05-25T03:13:15Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Optimizing Mode Connectivity via Neuron Alignment [84.26606622400423]
経験的に、損失関数の局所ミニマは、損失がほぼ一定であるようなモデル空間の学習曲線で接続することができる。
本稿では,ネットワークの重み変化を考慮し,対称性がランドスケープ・コネクティビティに与える影響を明らかにするための,より一般的な枠組みを提案する。
論文 参考訳(メタデータ) (2020-09-05T02:25:23Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - On Sparsity in Overparametrised Shallow ReLU Networks [42.33056643582297]
無限に広い状態であっても、限られた数のニューロンしか必要としない解を捉えるための異なる正規化戦略の能力について検討する。
オーバーパラメトリゼーションの量に関係なく、両方のスキームは、有限個のニューロンしか持たない関数によって最小化される。
論文 参考訳(メタデータ) (2020-06-18T01:35:26Z) - Parallelization Techniques for Verifying Neural Networks [52.917845265248744]
検証問題に基づくアルゴリズムを反復的に導入し、2つの分割戦略を探索する。
また、ニューラルネットワークの検証問題を単純化するために、ニューロンアクティベーションフェーズを利用する、高度に並列化可能な前処理アルゴリズムも導入する。
論文 参考訳(メタデータ) (2020-04-17T20:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。