論文の概要: Neural Network Matrix Product Operator: A Multi-Dimensionally Integrable Machine Learning Potential
- arxiv url: http://arxiv.org/abs/2410.23858v1
- Date: Thu, 31 Oct 2024 12:07:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 16:58:11.565011
- Title: Neural Network Matrix Product Operator: A Multi-Dimensionally Integrable Machine Learning Potential
- Title(参考訳): ニューラルネットワーク行列型製品演算子:多次元統合型機械学習の可能性
- Authors: Kentaro Hino, Yuki Kurashige,
- Abstract要約: 行列積演算子(NN-MPO)で表されるニューラルネットワークに基づく機械学習ポテンシャルエネルギー面(PES)を提案する。
MPO形式は、時間に依存しないシュリンガー方程式を解く際に生じる高次元積分の効率的な評価を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: A neural network-based machine learning potential energy surface (PES) expressed in a matrix product operator (NN-MPO) is proposed. The MPO form enables efficient evaluation of high-dimensional integrals that arise in solving the time-dependent and time-independent Schr\"odinger equation and effectively overcomes the so-called curse of dimensionality. This starkly contrasts with other neural network-based machine learning PES methods, such as multi-layer perceptrons (MLPs), where evaluating high-dimensional integrals is not straightforward due to the fully connected topology in their backbone architecture. Nevertheless, the NN-MPO retains the high representational capacity of neural networks. NN-MPO can achieve spectroscopic accuracy with a test mean absolute error (MAE) of 3.03 cm$^{-1}$ for a fully coupled six-dimensional ab initio PES, using only 625 training points distributed across a 0 to 17,000 cm$^{-1}$ energy range. Our Python implementation is available at https://github.com/KenHino/Pompon.
- Abstract(参考訳): 行列積演算子(NN-MPO)で表されるニューラルネットワークに基づく機械学習ポテンシャルエネルギー面(PES)を提案する。
MPO形式は、時間に依存し、時間に依存しないシュリンガー方程式を解く際に生じる高次元積分の効率的な評価を可能にし、次元性の呪いを効果的に克服する。
これは、多層パーセプトロン(MLP)のような他のニューラルネットワークベースの機械学習 PES 手法とは対照的である。
それでも、NN-MPOはニューラルネットワークの高表現能力を維持している。
NN-MPOは、0から17,000 cm$^{-1}のエネルギー範囲に分布する625個のトレーニングポイントのみを用いて、完全に結合した6次元のab initio PESに対して、テスト平均絶対誤差(MAE)3.03 cm$^{-1}$で分光精度を達成できる。
Pythonの実装はhttps://github.com/KenHino/Pompon.comで公開しています。
関連論文リスト
- DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [63.5925701087252]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Efficient SGD Neural Network Training via Sublinear Activated Neuron
Identification [22.361338848134025]
本稿では,ReLUの活性化をシフトする2層ニューラルネットワークについて,幾何学的探索によるサブ線形時間における活性化ニューロンの同定を可能にする。
また、我々のアルゴリズムは、係数ノルム上界$M$とエラー項$epsilon$の2次ネットワークサイズで$O(M2/epsilon2)$時間に収束できることを示す。
論文 参考訳(メタデータ) (2023-07-13T05:33:44Z) - Unlocking the potential of two-point cells for energy-efficient training
of deep nets [4.544752600181175]
変換型L5PC駆動型ディープニューラルネットワーク(DNN)が、大量の異種実世界のオーディオ視覚(AV)データを効果的に処理できることを示す。
Xilinx UltraScale+ MPSoC デバイス上の新しい高分散並列実装は、最大で245759 × 50000$$mu$Jと見積もっている。
教師付き学習装置では、省エネはベースラインモデルよりも最大1250倍少ない(フィードフォワード送信)。
論文 参考訳(メタデータ) (2022-10-24T13:33:15Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Sampling-free Inference for Ab-Initio Potential Energy Surface Networks [2.088583843514496]
多くの測地に対してシュリンガー方程式を同時に解くことにより、トレーニング時間を短縮するために、ポテンシャルエネルギー表面ネットワーク(PESNet)が提案されている。
本稿では,モンテカルロの高コスト統合を回避するために,Ab-initio Networks (PlaNet) フレームワークから潜在的学習を同時にトレーニングすることで,推論の欠点に対処する。
このようにして、これまでニューラルウェーブ関数で観測できなかったような高分解能多次元エネルギー曲面を正確にモデル化することができる。
論文 参考訳(メタデータ) (2022-05-30T10:00:59Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - Training of Quantized Deep Neural Networks using a Magnetic Tunnel
Junction-Based Synapse [23.08163992580639]
深層ニューラルネットワークの計算複雑性とメモリ強度のソリューションとして、量子ニューラルネットワーク(QNN)が積極的に研究されている。
磁気トンネル接合(MTJ)デバイスがQNNトレーニングにどのように役立つかを示す。
本稿では,MTJ動作を用いた新しいシナプス回路を導入し,量子化更新をサポートする。
論文 参考訳(メタデータ) (2019-12-29T11:36:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。