論文の概要: Supervised Training of Neural-Network Quantum States for the Next
Nearest Neighbor Ising model
- arxiv url: http://arxiv.org/abs/2305.03394v1
- Date: Fri, 5 May 2023 09:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 14:42:27.369924
- Title: Supervised Training of Neural-Network Quantum States for the Next
Nearest Neighbor Ising model
- Title(参考訳): 次の近接イジングモデルにおけるニューラルネットワーク量子状態の教師付きトレーニング
- Authors: Zheyu Wu, Remmy Zen, Heitor P. Casagrande, St\'ephane Bressan, Dario
Poletti
- Abstract要約: 平均二乗誤差と重複という2つの異なる損失関数を考える。
トレーニングでは,バッチサイズ,サンプル数,ニューラルネットワークのサイズなどについて検討する。
重なり合う損失関数は、ニューラルネットワークを再スケールした場合に、すべてのフェーズにわたってモデルをより良くトレーニングすることができることを観察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks can be used to represent quantum states. Here we explore and
compare different strategies for supervised learning of multilayer perceptrons.
In particular, we consider two different loss functions which we refer to as
mean-squared error and overlap, and we test their performance for the wave
function in different phases of matter. For this, we consider the next-nearest
neighbor Ising model because its ground state can be in various different
phases. Of these phases, we focus on the paramagnetic, ferromagnetic, and
pair-antiferromagnetic phases, while for the training we study the role of
batch size, number of samples, and size of the neural network. We observe that
the overlap loss function allows us to train the model better across all
phases, provided one rescales the neural network.
- Abstract(参考訳): ニューラルネットワークは量子状態を表現するために使用できる。
本稿では,多層パーセプトロンの教師あり学習戦略について検討・比較する。
特に、平均二乗誤差と重なりと呼ばれる2つの異なる損失関数を考察し、異なる位相における波動関数の性能をテストする。
そこで本研究では,その基底状態が相異なるため,次のアレスト近傍のIsingモデルを考える。
これらの相のうち, 常磁性, 強磁性, 対反強磁性相に焦点をあてる一方, 訓練では, バッチサイズ, サンプル数, ニューラルネットワークのサイズについて検討した。
重なり損失関数によって、ニューラルネットワークをリスケールすれば、すべてのフェーズでモデルをよりよくトレーニングすることができます。
関連論文リスト
- Paths towards time evolution with larger neural-network quantum states [17.826631514127012]
我々は、傾斜したイジングモデルにおいて、常磁性から反強磁性相への量子クエンチを考える。
両タイプのネットワークに対して、予測時間依存変動モンテカルロ法(p-tVMC)は、非計画的手法よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-06-05T15:32:38Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Post-variational quantum neural networks [0.9208007322096533]
可変後の戦略」は、可変パラメータを量子コンピュータから古典コンピュータにシフトさせる。
アーキテクチャ設計を用いた変分後の量子ニューラルネットワークは、変分アルゴリズムよりも優れた結果をもたらす可能性があることを示す。
論文 参考訳(メタデータ) (2023-07-20T03:55:53Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Quantum HyperNetworks: Training Binary Neural Networks in Quantum
Superposition [16.1356415877484]
量子コンピュータ上でバイナリニューラルネットワークをトレーニングするメカニズムとして量子ハイパーネットを導入する。
提案手法は, 最適パラメータ, ハイパーパラメータ, アーキテクチャ選択を, 分類問題に対する高い確率で効果的に発見できることを示す。
私たちの統合されたアプローチは、機械学習の分野における他のアプリケーションにとって大きなスコープを提供します。
論文 参考訳(メタデータ) (2023-01-19T20:06:48Z) - Solving the nuclear pairing model with neural network quantum states [58.720142291102135]
本稿では,職業数形式論における核多体問題の解法としてモンテカルロ法を提案する。
リコンフィグレーションアルゴリズムのメモリ効率向上版を開発し,ハミルトニアンの期待値を最小限に抑えてネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-11-09T00:18:01Z) - A Functional-Space Mean-Field Theory of Partially-Trained Three-Layer
Neural Networks [49.870593940818715]
本稿では,第1層がランダムで固定された3層NNモデルの無限幅限界について検討する。
我々の理論はモデルの異なるスケーリング選択に対応しており、結果としてMF制限の2つの条件が顕著な振舞いを示す。
論文 参考訳(メタデータ) (2022-10-28T17:26:27Z) - Learning the ground state of a non-stoquastic quantum Hamiltonian in a
rugged neural network landscape [0.0]
ニューラルネットワークに基づく普遍的変動波動関数のクラスについて検討する。
特に,本稿では,ニューラルネットワークの表現率とモンテカルロサンプリングが一次制限因子ではないことを示す。
論文 参考訳(メタデータ) (2020-11-23T05:25:47Z) - Probing Criticality in Quantum Spin Chains with Neural Networks [0.0]
隠れた層を持たないニューラルネットワークでさえ、磁気秩序と乱れ相の区別を効果的に訓練できることが示される。
我々の結果は、相互作用する量子多体系の幅広いクラスに拡張され、多体量子物理学へのニューラルネットワークの広範な適用性を示す。
論文 参考訳(メタデータ) (2020-05-05T12:34:50Z) - Optimal Gradient Quantization Condition for Communication-Efficient
Distributed Training [99.42912552638168]
勾配の通信は、コンピュータビジョンアプリケーションで複数のデバイスでディープニューラルネットワークをトレーニングするのに費用がかかる。
本研究は,textbfANY勾配分布に対する二値および多値勾配量子化の最適条件を導出する。
最適条件に基づいて, 偏差BinGradと非偏差ORQの2値勾配量子化と多値勾配量子化の2つの新しい量子化手法を開発した。
論文 参考訳(メタデータ) (2020-02-25T18:28:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。