論文の概要: Active Learning for Transition State Calculation
- arxiv url: http://arxiv.org/abs/2108.04698v1
- Date: Tue, 10 Aug 2021 13:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-11 14:31:01.078762
- Title: Active Learning for Transition State Calculation
- Title(参考訳): 遷移状態計算のためのアクティブラーニング
- Authors: Shuting Gu, Hongqiao Wang, Xiang Zhou
- Abstract要約: 遷移状態 (TS) の計算は、計算集約エネルギー関数にとって大きな課題である。
真の勾配の高価な計算量を減らすために,能動的学習フレームワークを提案する。
提案手法は, 原モデルの必要エネルギー数や力量評価を著しく削減することを示す。
- 参考スコア(独自算出の注目度): 3.399187058548169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transition state (TS) calculation is a grand challenge for computational
intensive energy function. The traditional methods need to evaluate the
gradients of the energy function at a very large number of locations. To reduce
the number of expensive computations of the true gradients, we propose an
active learning framework consisting of a statistical surrogate model, Gaussian
process regression (GPR) for the energy function, and a single-walker dynamics
method, gentle accent dynamics (GAD), for the saddle-type transition states. TS
is detected by the GAD applied to the GPR surrogate for the gradient vector and
the Hessian matrix. Our key ingredient for efficiency improvements is an active
learning method which sequentially designs the most informative locations and
takes evaluations of the original model at these locations to train GPR. We
formulate this active learning task as the optimal experimental design problem
and propose a very efficient sample-based sub-optimal criterion to construct
the optimal locations. We show that the new method significantly decreases the
required number of energy or force evaluations of the original model.
- Abstract(参考訳): 遷移状態(TS)計算は、計算集約エネルギー関数にとって大きな課題である。
従来の手法では、非常に多くの場所でエネルギー関数の勾配を評価する必要がある。
真の勾配の高価な計算量を削減するため,エネルギー関数に対する統計代用モデル,ガウス過程回帰(GPR),サドル型遷移状態に対するアクセント・アクセント・ダイナミクス(GAD)の単一ウォーカー・ダイナミックス法からなる能動的学習フレームワークを提案する。
TSは勾配ベクトルとヘッセン行列のGPR代理に適用されるGADによって検出される。
効率改善の鍵となる要素は,最も有意義な位置を逐次設計し,これらの地点で元のモデルの評価を受け,gprを訓練するアクティブラーニング手法である。
我々は,このアクティブラーニングタスクを最適実験設計問題として定式化し,最適な位置を構築するためのサンプルベースサブ最適基準を提案する。
提案手法は, 原モデルの必要エネルギー数や力量評価を大幅に削減することを示す。
関連論文リスト
- Dynamic Decoupling of Placid Terminal Attractor-based Gradient Descent Algorithm [56.06235614890066]
勾配降下(GD)と勾配降下(SGD)は多くのアプリケーションドメインで広く使われている。
本稿では, 勾配流の異なる段階における終端アトラクタに基づくGDのダイナミクスを慎重に解析する。
論文 参考訳(メタデータ) (2024-09-10T14:15:56Z) - Minimizing Energy Costs in Deep Learning Model Training: The Gaussian Sampling Approach [11.878350833222711]
ガウス分布からの勾配更新をサンプリングするために, em GradSamp という手法を提案する。
Em GradSampは、勾配の合理化だけでなく、エポック全体のスキップを可能にし、全体的な効率を向上させる。
我々は、標準CNNとトランスフォーマーベースモデルの多種多様なセットにまたがって、我々の仮説を厳格に検証する。
論文 参考訳(メタデータ) (2024-06-11T15:01:20Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - An Adaptive Gradient Method with Energy and Momentum [0.0]
目的関数の勾配に基づく最適化のための新しいアルゴリズムを提案する。
この方法は実装が簡単で、計算効率が良く、大規模機械学習問題に適している。
論文 参考訳(メタデータ) (2022-03-23T04:48:38Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Learning to Reweight Imaginary Transitions for Model-Based Reinforcement
Learning [58.66067369294337]
モデルが不正確または偏りがある場合、虚構軌跡はアクション値とポリシー関数を訓練するために欠落する可能性がある。
虚構遷移を適応的に再重み付けし, 未生成軌跡の負の効果を低減させる。
提案手法は,複数のタスクにおいて,最先端のモデルベースおよびモデルフリーなRLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2021-04-09T03:13:35Z) - Directed particle swarm optimization with Gaussian-process-based
function forecasting [15.733136147164032]
パーティクルスワム最適化 (PSO) は、探索空間を囲む一組の候補解を、ランダム化されたステップ長を持つ最もよく知られたグローバルおよびローカルな解へ移動させる反復探索法である。
本アルゴリズムは探索的・搾取的行動に対して望ましい特性が得られることを示す。
論文 参考訳(メタデータ) (2021-02-08T13:02:57Z) - Zeroth-Order Hybrid Gradient Descent: Towards A Principled Black-Box
Optimization Framework [100.36569795440889]
この作業は、一階情報を必要としない零次最適化(ZO)の反復である。
座標重要度サンプリングにおける優雅な設計により,ZO最適化法は複雑度と関数クエリコストの両面において効率的であることを示す。
論文 参考訳(メタデータ) (2020-12-21T17:29:58Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z) - AEGD: Adaptive Gradient Descent with Energy [0.0]
本研究では, 1次勾配非エネルギー目的関数変数に対する新しいアルゴリズムである AEGD を提案する。
非エネルギー収束と所望の小さなステップサイズの両方に対してエネルギー依存型AEGDを示す。
論文 参考訳(メタデータ) (2020-10-10T22:17:27Z) - Weighted Aggregating Stochastic Gradient Descent for Parallel Deep
Learning [8.366415386275557]
解決策には、ニューラルネットワークモデルにおける最適化のための目的関数の修正が含まれる。
本稿では,地方労働者のパフォーマンスに基づく分散型重み付けアグリゲーション方式を提案する。
提案手法を検証するため,提案手法をいくつかの一般的なアルゴリズムと比較した。
論文 参考訳(メタデータ) (2020-04-07T23:38:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。