論文の概要: Predicting impurity spectral functions using machine learning
- arxiv url: http://arxiv.org/abs/2011.10719v1
- Date: Sat, 21 Nov 2020 04:28:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-23 12:58:39.150340
- Title: Predicting impurity spectral functions using machine learning
- Title(参考訳): 機械学習による不純物スペクトル関数の予測
- Authors: Erica J. Sturm, Matthew R. Carbone, Deyu Lu, Andreas Weichselbaum,
Robert M. Konik
- Abstract要約: ニューラルネットワーク(NN)とカーネルリッジ回帰(KRR)の両方の機械学習モデルがアンダーソン不純物モデルスペクトル関数を正確に予測できるかどうかを検討する。
NNモデルでは,標準単位の点平均絶対誤差を0.003まで下げることで,AIMスペクトル関数を正確に予測できることが示されている。
トレーニングされたNNモデルは、KRRに基づくモデルよりも優れており、従来のAIMソルバよりも105ドルのオーダーで高速化されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Anderson Impurity Model (AIM) is a canonical model of quantum many-body
physics. Here we investigate whether machine learning models, both neural
networks (NN) and kernel ridge regression (KRR), can accurately predict the AIM
spectral function in all of its regimes, from empty orbital, to mixed valence,
to Kondo. To tackle this question, we construct two large spectral databases
containing approximately 410k and 600k spectral functions of the single-channel
impurity problem. We show that the NN models can accurately predict the AIM
spectral function in all of its regimes, with point-wise mean absolute errors
down to 0.003 in normalized units. We find that the trained NN models
outperform models based on KRR and enjoy a speedup on the order of $10^5$ over
traditional AIM solvers. The required size of the training set of our model can
be significantly reduced using furthest point sampling in the AIM parameter
space, which is important for generalizing our method to more complicated
multi-channel impurity problems of relevance to predicting the properties of
real materials.
- Abstract(参考訳): Anderson Impurity Model (AIM) は、量子多体物理学の標準モデルである。
本稿では、ニューラルネットワーク(NN)とカーネルリッジ回帰(KRR)の両方の機械学習モデルが、空軌道から混合原子価まで、すべての状態におけるAIMスペクトル関数を正確に予測できるかどうかを検討する。
この問題に対処するため、単一チャネル不純物問題の約410kと600kのスペクトル関数を含む2つの大きなスペクトルデータベースを構築した。
NNモデルでは,標準単位の点平均絶対誤差を0.003まで下げることで,AIMスペクトル関数を正確に予測できることが示されている。
トレーニングされたnnモデルはkrrに基づくモデルよりも優れており、従来のaimソルバよりも10^5$のスピードアップを享受できる。
AIMパラメータ空間のファテスト点サンプリングを用いて,本モデルのトレーニングセットの要求サイズを著しく削減することが可能であり,本手法を実物の特性を予測するために,より複雑なマルチチャネル不純物問題に一般化することが重要である。
関連論文リスト
- SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Universal replication of chaotic characteristics by classical and quantum machine learning [0.0]
変動量子回路は、長期記憶よりも高い精度で長期特性を再現できることを示す。
以上の結果から,量子回路モデルは過適合を緩和し,高い精度と安定性を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-14T10:12:47Z) - Learning Controllable Adaptive Simulation for Multi-resolution Physics [86.8993558124143]
完全深層学習に基づくサロゲートモデルとして,LAMP(Learning Controllable Adaptive Simulation for Multi- resolution Physics)を導入した。
LAMPは、前方進化を学習するためのグラフニューラルネットワーク(GNN)と、空間的洗練と粗大化のポリシーを学ぶためのGNNベースのアクター批判で構成されている。
我々は,LAMPが最先端のディープラーニングサロゲートモデルより優れており,長期予測誤差を改善するために,適応的なトレードオフ計算が可能であることを実証した。
論文 参考訳(メタデータ) (2023-05-01T23:20:27Z) - Capturing dynamical correlations using implicit neural representations [85.66456606776552]
実験データから未知のパラメータを復元するために、モデルハミルトンのシミュレーションデータを模倣するために訓練されたニューラルネットワークと自動微分を組み合わせた人工知能フレームワークを開発する。
そこで本研究では, 実時間から多次元散乱データに適用可能な微分可能なモデルを1回だけ構築し, 訓練する能力について述べる。
論文 参考訳(メタデータ) (2023-04-08T07:55:36Z) - Physics Simulation Via Quantum Graph Neural Network [0.0]
量子グラフニューラルネットワーク(QGNN)の2つの実現法を開発し,実装する。
最初のQGNNは、古典的な情報として重ね合わせ状態を直接実装する能力に依存する投機的量子古典的ハイブリッド学習モデルである。
2つ目は量子古典的ハイブリッド学習モデルで、RX$回転ゲートのパラメータを通して直接粒子情報を伝播する。
論文 参考訳(メタデータ) (2023-01-11T20:21:10Z) - A Probabilistic Autoencoder for Type Ia Supernovae Spectral Time Series [1.3316902142331577]
我々は、スペクトル時系列のスパース集合からIa型超新星(SNe Ia)の固有多様性を学習するために確率論的自己エンコーダを構築する。
PAEは低次元の潜伏空間を学習し、人口内に存在する非線形な特徴を捉えていることを示す。
次に、SNe Ia上の多くの下流タスクにPAEを使用し、より正確に宇宙論的な分析を行う。
論文 参考訳(メタデータ) (2022-07-15T17:58:27Z) - Momentum Diminishes the Effect of Spectral Bias in Physics-Informed
Neural Networks [72.09574528342732]
物理インフォームドニューラルネットワーク(PINN)アルゴリズムは、偏微分方程式(PDE)を含む幅広い問題を解く上で有望な結果を示している。
彼らはしばしば、スペクトルバイアスと呼ばれる現象のために、ターゲット関数が高周波の特徴を含むとき、望ましい解に収束しない。
本研究は, 運動量による勾配降下下で進化するPINNのトレーニングダイナミクスを, NTK(Neural Tangent kernel)を用いて研究するものである。
論文 参考訳(メタデータ) (2022-06-29T19:03:10Z) - MoEfication: Conditional Computation of Transformer Models for Efficient
Inference [66.56994436947441]
トランスフォーマーベースの事前学習言語モデルは、パラメータ容量が大きいため、ほとんどのNLPタスクにおいて優れた性能を実現することができるが、計算コストも大きい。
スパースアクティベーション現象に基づく条件計算により,大規模モデル推論を高速化する。
そこで本研究では,モデルサイズが等しいMoE(Mix-of-experts)バージョン,すなわちMoEficationに変換することを提案する。
論文 参考訳(メタデータ) (2021-10-05T02:14:38Z) - Post-mortem on a deep learning contest: a Simpson's paradox and the
complementary roles of scale metrics versus shape metrics [61.49826776409194]
我々は、ニューラルネットワーク(NN)モデルの一般化精度を予測するために、コンテストで公に利用可能にされたモデルのコーパスを分析する。
メトリクスが全体としてよく機能するが、データのサブパーティションではあまり機能しない。
本稿では,データに依存しない2つの新しい形状指標と,一連のNNのテスト精度の傾向を予測できるデータ依存指標を提案する。
論文 参考訳(メタデータ) (2021-06-01T19:19:49Z) - Deep learning and high harmonic generation [0.0]
我々は,高調波発生(hhg)シナリオに適用する場合に,様々な深層ニューラルネットワーク(nns)の有用性を検討する。
まず,二原子系および三原子系の低次元モデルから時間依存双極子およびhhg放出スペクトルを予測するためにnnsを訓練する。
次に,ネットワークに適用可能性の範囲を広げるために,転送学習をネットワークに適用できることを実証する。
論文 参考訳(メタデータ) (2020-12-18T16:13:17Z) - Random Sampling Neural Network for Quantum Many-Body Problems [0.0]
本稿では,対話型多体システムのランダムサンプリング行列要素に対して,自己教師型学習手法を用いてパターン認識手法を用いたランダムサンプリングニューラルネットワーク(Random Smpling Neural Networks, RNN)を提案する。
RSNNの適用性をテストするために、横フィールドを持つIsingモデル、Fermi-Hubbardモデル、Spin-$1/2$$XXZ$モデルなど、正確に解決可能ないくつかの1Dモデルが使用されている。
論文 参考訳(メタデータ) (2020-11-10T15:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。