論文の概要: Variational Monte Carlo with Large Patched Transformers
- arxiv url: http://arxiv.org/abs/2306.03921v1
- Date: Tue, 6 Jun 2023 18:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:47:37.233714
- Title: Variational Monte Carlo with Large Patched Transformers
- Title(参考訳): 大型パッチ変換器を用いた変分モンテカルロ
- Authors: Kyle Sprague and Stefanie Czischek
- Abstract要約: トランスフォーマーのような大規模な言語モデルは、最近、テキストと画像生成に大きな力を示している。
2次元のRydberg原子配列を考察し、変分基底状態探索のための従来のリカレントニューラルネットワークよりもトランスフォーマーの精度が高いことを示す。
妥当な計算コストでの高精度基底状態表現は、一般的な大規模量子多体系に対する新たな洞察を約束する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models, like transformers, have recently demonstrated immense
powers in text and image generation. This success is driven by the ability to
capture long-range correlations between elements in a sequence. The same
feature makes the transformer a powerful wavefunction ansatz that addresses the
challenge of describing correlations in simulations of qubit systems. We
consider two-dimensional Rydberg atom arrays to demonstrate that transformers
reach higher accuracies than conventional recurrent neural networks for
variational ground state searches. We further introduce large, patched
transformer models, which consider a sequence of large atom patches, and show
that this architecture significantly accelerates the simulations. The proposed
architectures reconstruct ground states with accuracies beyond state-of-the-art
quantum Monte Carlo methods, allowing for the study of large Rydberg systems in
different phases of matter and at phase transitions. Our high-accuracy ground
state representations at reasonable computational costs promise new insights
into general large-scale quantum many-body systems.
- Abstract(参考訳): トランスフォーマーのような大規模な言語モデルは、最近、テキストと画像生成に大きな力を示している。
この成功は、配列内の要素間の長距離相関をキャプチャする能力によって引き起こされる。
同じ特徴により、トランスフォーマーは量子ビット系のシミュレーションにおける相関を記述するという課題に対処する強力な波動関数 ansatz となる。
2次元のRydberg原子配列を考察し、変分基底状態探索のための従来のリカレントニューラルネットワークよりもトランスフォーマーの精度が高いことを示す。
さらに,大きなアトムパッチのシーケンスを考慮した大規模パッチトランスモデルを導入し,このアーキテクチャがシミュレーションを著しく高速化することを示す。
提案されたアーキテクチャは、最先端の量子モンテカルロ法を超える精度で基底状態を再構築し、物質の異なる相と相転移における大きなライドバーグ系の研究を可能にする。
妥当な計算コストでの高精度基底状態表現は、一般的な大規模量子多体系に対する新たな洞察を約束する。
関連論文リスト
- Physics-informed Transformers for Electronic Quantum States [0.0]
ニューラル量子状態表現のための変分モンテカルロフレームワークを提案する。
Transformerは、参照状態に対する修正をパラメトリズし、自己回帰的にサンプリングするために使用される。
この研究は、より効率的で解釈可能な神経量子状態表現の道を開く。
論文 参考訳(メタデータ) (2024-12-16T19:00:00Z) - Learning with SASQuaTCh: a Novel Variational Quantum Transformer Architecture with Kernel-Based Self-Attention [0.464982780843177]
本稿では、SASQuaT(Self-Attention Sequential Quantum Transformer Channel)という変分量子回路アーキテクチャを提案する。
提案手法は、単純なゲート演算と多次元量子フーリエ変換を用いたビジョントランスフォーマーネットワークの予測におけるカーネルベース演算子学習の最近の知見を活用する。
提案手法の有効性を検証するため,9量子ビットと少数のパラメータしか持たず,手書き桁のグレースケール画像を高い精度で同時に埋め込み,分類することが可能な画像分類タスクをシミュレーションおよびハードウェアで検討した。
論文 参考訳(メタデータ) (2024-03-21T18:00:04Z) - Repeat After Me: Transformers are Better than State Space Models at Copying [53.47717661441142]
一般化された状態空間モデルは、推論時間効率の観点からは有望であるが、入力コンテキストからのコピーを必要とするタスクのトランスフォーマーモデルと比較して限定的であることを示す。
論文 参考訳(メタデータ) (2024-02-01T21:44:11Z) - Coherent-State Ladder Time-Dependent Variational Principle for Open
Quantum Systems [0.0]
相互作用するボゾン系の力学シミュレーションのための新しいパラダイムを提案する。
この方法は、光子付加コヒーレント状態の重畳という観点から、$n$-ボソン密度行列の変分アンザッツに依存する。
本手法をいくつかの例で検証し,相互作用するボゾン系と猫量子ビットの予測シミュレーションへの応用を実証した。
論文 参考訳(メタデータ) (2023-06-23T18:00:00Z) - Onset of scrambling as a dynamical transition in tunable-range quantum
circuits [0.0]
長距離接続の異なる量子回路におけるスクランブルの開始を示す動的遷移を同定する。
異なる構造の回路の相互作用範囲の関数として、三部構造相互情報はスケーリング崩壊を示すことを示す。
従来のパワー-ロー相互作用を持つシステムに加えて、決定論的、スパース回路における同じ現象を同定する。
論文 参考訳(メタデータ) (2023-04-19T17:37:10Z) - Transformer variational wave functions for frustrated quantum spin
systems [0.0]
本稿では,ニューラルネットワーク状態の新たなクラスを定義するために,複雑なパラメータを持つViTアーキテクチャの適応を提案する。
ViT波動関数の成功は、局所演算と大域演算の混合に依存する。
論文 参考訳(メタデータ) (2022-11-10T11:56:44Z) - Mega: Moving Average Equipped Gated Attention [150.3124713793503]
メガ (Mega) は、(予備的な)移動平均を備えた単純で理論上は接地された単頭誘導式アテンション機構である。
我々はMegaがトランスフォーマーの変種や最近の状態空間モデルを含む他のシーケンスモデルよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2022-09-21T20:52:17Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Neural-Network Quantum States for Periodic Systems in Continuous Space [66.03977113919439]
我々は、周期性の存在下での強い相互作用を持つシステムのシミュレーションのために、神経量子状態の族を紹介する。
一次元系では、基底状態エネルギーと粒子の放射分布関数を非常に正確に推定する。
二つの次元において基底状態エネルギーの優れた推定値を得るが、これはより伝統的な手法から得られる結果に匹敵する。
論文 参考訳(メタデータ) (2021-12-22T15:27:30Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Quantum Markov Chain Monte Carlo with Digital Dissipative Dynamics on
Quantum Computers [52.77024349608834]
少数のアンシラ量子ビットを用いて環境との相互作用をシミュレートするデジタル量子アルゴリズムを開発した。
逆イジングモデルの熱状態のシミュレーションによるアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2021-03-04T18:21:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。