論文の概要: Transformer Wave Function for Quantum Long-Range models
- arxiv url: http://arxiv.org/abs/2407.04773v1
- Date: Fri, 5 Jul 2024 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 22:36:40.243121
- Title: Transformer Wave Function for Quantum Long-Range models
- Title(参考訳): 量子ロングランジモデルに対する変圧器波動関数
- Authors: Sebastián Roca-Jerat, Manuel Gallego, Fernando Luis, Jesús Carrete, David Zueco,
- Abstract要約: 我々は、ビジョントランスフォーマー(ViT)アーキテクチャに基づくニューラルネットワークアーキテクチャを用いて、量子長距離モデルの基底状態を検出する。
強磁性および反強磁性の両方の場合において、モデルの全位相図と臨界特性を計算する。
- 参考スコア(独自算出の注目度): 39.58317527488534
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We employ a neural-network architecture based on the Vision Transformer (ViT) architecture to find the ground states of quantum long-range models, specifically the transverse-field Ising model for spin-1/2 chains across different interaction regimes. Harnessing the transformer's capacity to capture long-range correlations, we compute the full phase diagram and critical properties of the model, in both the ferromagnetic and antiferromagnetic cases. Our findings show that the ViT maintains high accuracy across the full phase diagram. We compare these results with previous numerical studies in the literature and, in particular, show that the ViT has a superior performance than a restricted-Boltzmann-machine-like ansatz.
- Abstract(参考訳): 我々は、視覚変換器(ViT)アーキテクチャに基づくニューラルネットワークアーキテクチャを用いて、量子長範囲モデルの基底状態、特に異なる相互作用状態におけるスピン-1/2鎖の逆場イジングモデルを見つける。
長距離相関を捕捉する変換器の容量を考慮し、強磁性および反強磁性の両方の場合において、モデルの全位相図と臨界特性を計算する。
以上の結果から,ViTは全位相図全体にわたって高い精度を維持していることが明らかとなった。
これらの結果と文献における過去の数値研究を比較し、特に、VTが制限ボルツマン機械的なアンサッツよりも優れた性能を示すことを示す。
関連論文リスト
- Universal replication of chaotic characteristics by classical and quantum machine learning [0.0]
変動量子回路は、長期記憶よりも高い精度で長期特性を再現できることを示す。
以上の結果から,量子回路モデルは過適合を緩和し,高い精度と安定性を達成できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-14T10:12:47Z) - tsGT: Stochastic Time Series Modeling With Transformer [0.12905935507312413]
本稿では,汎用トランスアーキテクチャ上に構築された時系列モデルであるtsGTを紹介する。
tsGT は MAD と RMSE の最先端モデルより優れており、QL と CRPS のピアよりも 4 つの一般的なデータセットで優れていることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:59:41Z) - First-Order Phase Transition of the Schwinger Model with a Quantum Computer [0.0]
格子シュウィンガーモデルにおける一階位相遷移を位相的$theta$-termの存在下で検討する。
本研究では, モデルの位相構造を明らかにする観測可能な電場密度と粒子数が, 量子ハードウェアから確実に得られることを示す。
論文 参考訳(メタデータ) (2023-12-20T08:27:49Z) - Variational Monte Carlo with Large Patched Transformers [0.0]
トランスフォーマーのような大規模な言語モデルは、最近、テキストと画像生成に大きな力を示している。
ここでは2次元Rydberg原子配列を考察し、変分基底状態探索のための従来のリカレントニューラルネットワークよりもトランスフォーマーの精度が高いことを示す。
論文 参考訳(メタデータ) (2023-06-06T18:00:02Z) - Transformer variational wave functions for frustrated quantum spin
systems [0.0]
本稿では,ニューラルネットワーク状態の新たなクラスを定義するために,複雑なパラメータを持つViTアーキテクチャの適応を提案する。
ViT波動関数の成功は、局所演算と大域演算の混合に依存する。
論文 参考訳(メタデータ) (2022-11-10T11:56:44Z) - Photoinduced prethermal order parameter dynamics in the two-dimensional
large-$N$ Hubbard-Heisenberg model [77.34726150561087]
2次元相関電子モデルにおいて、競合する秩序相の微視的ダイナミクスについて検討する。
2つの競合する位相間の光誘起遷移をシミュレートする。
論文 参考訳(メタデータ) (2022-05-13T13:13:31Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z) - Benchmarking quantum annealing dynamics: the spin-vector Langevin model [58.720142291102135]
本稿では,スピンベクトルLangevin(SVL)モデルを,時間進化をLangevin dynamicsによって記述した代替ベンチマークとして紹介する。
SVLモデルは、量子シグネチャの同定のためのSVMCモデルよりも厳密なテストを提供する。
論文 参考訳(メタデータ) (2021-09-20T18:00:01Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Entanglement generation via power-of-SWAP operations between dynamic
electron-spin qubits [62.997667081978825]
表面音響波(SAW)は、圧電材料内で動く量子ドットを生成することができる。
動的量子ドット上の電子スピン量子ビットがどのように絡み合うかを示す。
論文 参考訳(メタデータ) (2020-01-15T19:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。