論文の概要: HOAX: A Hyperparameter Optimization Algorithm Explorer for Neural
Networks
- arxiv url: http://arxiv.org/abs/2302.00374v1
- Date: Wed, 1 Feb 2023 11:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 17:32:48.139431
- Title: HOAX: A Hyperparameter Optimization Algorithm Explorer for Neural
Networks
- Title(参考訳): HOAX:ニューラルネットワークのためのハイパーパラメータ最適化アルゴリズムエクスプローラ
- Authors: Albert Thie, Maximilian F. S. J. Menger, Shirin Faraji
- Abstract要約: 光誘起過程を研究するための軌道に基づく手法のボトルネックは、今でも膨大な数の電子構造計算である。
本稿では,人工知能の領域から借用した機械学習アルゴリズムと手法を用いることにより,電子構造計算の量を劇的に削減する革新的なソリューションを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computational chemistry has become an important tool to predict and
understand molecular properties and reactions. Even though recent years have
seen a significant growth in new algorithms and computational methods that
speed up quantum chemical calculations, the bottleneck for trajectory-based
methods to study photoinduced processes is still the huge number of electronic
structure calculations. In this work, we present an innovative solution, in
which the amount of electronic structure calculations is drastically reduced,
by employing machine learning algorithms and methods borrowed from the realm of
artificial intelligence. However, applying these algorithms effectively
requires finding optimal hyperparameters, which remains a challenge itself.
Here we present an automated user-friendly framework, HOAX, to perform the
hyperparameter optimization for neural networks, which bypasses the need for a
lengthy manual process. The neural network generated potential energy surfaces
(PESs) reduces the computational costs compared to the ab initio-based PESs. We
perform a comparative investigation on the performance of different
hyperparameter optimiziation algorithms, namely grid search, simulated
annealing, genetic algorithm, and bayesian optimizer in finding the optimal
hyperparameters necessary for constructing the well-performing neural network
in order to fit the PESs of small organic molecules. Our results show that this
automated toolkit not only facilitate a straightforward way to perform the
hyperparameter optimization but also the resulting neural networks-based
generated PESs are in reasonable agreement with the ab initio-based PESs.
- Abstract(参考訳): 計算化学は分子の性質と反応を予測し理解するための重要なツールとなっている。
近年、量子化学計算を高速化する新しいアルゴリズムや計算手法が急速に伸びているが、光誘起過程を研究する軌道ベースの方法のボトルネックは依然として膨大な数の電子構造計算である。
本研究では,人工知能の領域から借用された機械学習アルゴリズムと手法を用いることで,電子構造計算の量を劇的に削減する革新的なソリューションを提案する。
しかし、これらのアルゴリズムを適用するには最適なハイパーパラメータを見つける必要がある。
本稿では,ニューラルネットワークのハイパーパラメータ最適化を実現するための,ユーザフレンドリな自動フレームワークHOAXを提案する。
ニューラルネットワークが生成するポテンシャルエネルギー面(PES)は、ab initioベースのPSSと比較して計算コストを削減します。
本研究では,様々なハイパーパラメータオプティミジエーションアルゴリズム(グリッド探索,シミュレーションアニーリング,遺伝的アルゴリズム,ベイズ最適化など)の性能比較を行い,小型有機分子のpesに適合するためにニューラルネットワークを構築するのに必要な最適なハイパーパラメータを求める。
以上の結果から,この自動ツールキットは,ハイパーパラメータ最適化を行うための簡単な方法であるだけでなく,ニューラルネットワークに基づく生成されたPSSも,b initioベースのPSSと合理的に一致していることがわかった。
関連論文リスト
- NN-AE-VQE: Neural network parameter prediction on autoencoded variational quantum eigensolvers [1.7400502482492273]
近年、量子コンピューティングの分野は大幅に成熟している。
NN-AE-VQEというニューラルネットワークを用いた自動符号化VQEを提案する。
我々はこれらの手法を、化学的精度を達成するために、$H$分子上で実証する。
論文 参考訳(メタデータ) (2024-11-23T23:09:22Z) - Gradual Optimization Learning for Conformational Energy Minimization [69.36925478047682]
ニューラルネットワークによるエネルギー最小化のためのGradual Optimization Learning Framework(GOLF)は、必要な追加データを大幅に削減する。
GOLFでトレーニングしたニューラルネットワークは,種々の薬物様分子のベンチマークにおいて,オラクルと同等に動作することを示す。
論文 参考訳(メタデータ) (2023-11-05T11:48:08Z) - Exploring accurate potential energy surfaces via integrating variational
quantum eigensovler with machine learning [8.19234058079321]
この研究で、変分量子アルゴリズムは機械学習(ML)技術と統合可能であることを示す。
変分量子固有解法(VQE)のパラメータを表すために,分子幾何学情報をディープニューラルネットワーク(DNN)に符号化する。
論文 参考訳(メタデータ) (2022-06-08T01:43:56Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - Genealogical Population-Based Training for Hyperparameter Optimization [1.0514231683620516]
本研究では,計算コストの2倍から3倍に削減できることを実験的に実証した。
本手法は探索アルゴリズムであり,内部探索ルーチンをTPE,GP,CMA,ランダム探索などの任意の探索アルゴリズムにすることができる。
論文 参考訳(メタデータ) (2021-09-30T08:49:41Z) - Ps and Qs: Quantization-aware pruning for efficient low latency neural
network inference [56.24109486973292]
超低遅延アプリケーションのためのニューラルネットワークのトレーニング中の分級と量子化の相互作用を研究します。
量子化アウェアプルーニングは,タスクのプルーニングや量子化のみよりも計算効率のよいモデルであることが判明した。
論文 参考訳(メタデータ) (2021-02-22T19:00:05Z) - Online hyperparameter optimization by real-time recurrent learning [57.01871583756586]
ニューラルネットワーク(rnn)におけるハイパーパラメータ最適化とパラメータ学習の類似性を活用した。
RNNのための学習済みのオンライン学習アルゴリズムのファミリーを適応させ、ハイパーパラメータとネットワークパラメータを同時に調整します。
この手順は、通常の方法に比べて、ウォールクロック時間のほんの少しで、体系的に一般化性能が向上する。
論文 参考訳(メタデータ) (2021-02-15T19:36:18Z) - Adaptive pruning-based optimization of parameterized quantum circuits [62.997667081978825]
Variisyハイブリッド量子古典アルゴリズムは、ノイズ中間量子デバイスの使用を最大化する強力なツールである。
我々は、変分量子アルゴリズムで使用されるそのようなアンサーゼを「効率的な回路訓練」(PECT)と呼ぶ戦略を提案する。
すべてのアンサッツパラメータを一度に最適化する代わりに、PECTは一連の変分アルゴリズムを起動する。
論文 参考訳(メタデータ) (2020-10-01T18:14:11Z) - A Study of Genetic Algorithms for Hyperparameter Optimization of Neural
Networks in Machine Translation [0.0]
遺伝的アルゴリズムを用いて,ダーウィンのファイトテスト理論の生存をモデルとした自動チューニング手法を提案する。
研究結果は,提案手法であるGAがハイパーパラメータのランダムな選択よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-15T02:24:16Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。