論文の概要: Optimal fermionic swap networks for Hubbard models
- arxiv url: http://arxiv.org/abs/2001.08324v4
- Date: Fri, 12 Aug 2022 20:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 05:11:56.145176
- Title: Optimal fermionic swap networks for Hubbard models
- Title(参考訳): ハバードモデルに対する最適フェルミオンスワップネットワーク
- Authors: Tobias Hagge
- Abstract要約: 我々の選択は、スワップ深さとハミルトン相互作用層の数を最小限に抑えることを示す。
機械は、他の種類の格子のスワップネットワーク効率を最大化するために拡張される可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an efficient variation of the fermionic swap network scheme used
to efficiently simulate n-dimensional Fermi-Hubbard-model Hamiltonians encoded
using the Jordan-Wigner transform. For the two-dimensional versions, we show
that our choices minimize swap depth and number of Hamiltonian interaction
layers. The proofs, along with the choice of swap network, rely on
isoperimetric inequality results from the combinatorics literature, and are
closely related to graph bandwidth problems. The machinery has the potential to
be extended to maximize swap network efficiency for other types of lattices.
- Abstract(参考訳): ヨルダン・ウィグナー変換を用いて符号化されたn次元フェルミ・ハバード模型のハミルトニアンを効率的にシミュレートするために用いられるフェルミイオンスワップネットワークスキームの効率的なバリエーションを提案する。
2次元バージョンでは、スワップ深さとハミルトニアン相互作用層数を最小限に抑えることができる。
証明はスワップネットワークの選択とともに、組合せ論の文献から得られる等尺不等式に依存し、グラフ帯域幅問題と密接に関連している。
機械は、他の種類の格子のスワップネットワーク効率を最大化するために拡張される可能性がある。
関連論文リスト
- Optimizing Temperature Distributions for Training Neural Quantum States using Parallel Tempering [0.0]
温度最適化は変分アルゴリズムの成功率を大幅に向上させることができることを示す。
我々はこれを、制限されたボルツマンマシンとフィードフォワードネットワークという2つの異なるニューラルネットワークを用いて実証する。
論文 参考訳(メタデータ) (2024-10-30T13:48:35Z) - Shot-noise reduction for lattice Hamiltonians [0.7852714805965528]
格子ハミルトンのエネルギー期待値を量子コンピュータ上で効率的に推定することは深刻な課題である。
拡張性のある代替手段として幾何学的分割を導入する。
サンプリング数の改善が不完全な固有状態の改善にどのように寄与するかを示す。
論文 参考訳(メタデータ) (2024-10-28T17:50:28Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Towards Efficient Quantum Hybrid Diffusion Models [68.43405413443175]
本稿では,量子ハイブリッド拡散モデルの設計手法を提案する。
量子コンピューティングの優れた一般化と古典的ネットワークのモジュラリティを組み合わせた2つのハイブリダイゼーション手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T16:57:51Z) - Deep Neural Networks as Variational Solutions for Correlated Open
Quantum Systems [0.0]
より強力なモデルで直接密度行列をパラメータ化することで、より良い変分アンザッツ関数が得られることを示す。
本稿では, 散逸的一次元逆場イジングモデルと2次元散逸的ハイゼンベルクモデルについて述べる。
論文 参考訳(メタデータ) (2024-01-25T13:41:34Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Going Deeper into Permutation-Sensitive Graph Neural Networks [6.685139672294716]
置換群を経由した効率的な置換感応アグリゲーション機構を考案した。
我々は、我々のアプローチが2次元ワイスフェイラー・リーマン(英語版)(2-WL)グラフ同型テストよりも厳密に強力であることを証明した。
論文 参考訳(メタデータ) (2022-05-28T08:22:10Z) - Twisted hybrid algorithms for combinatorial optimization [68.8204255655161]
提案されたハイブリッドアルゴリズムは、コスト関数をハミルトニアン問題にエンコードし、回路の複雑さの低い一連の状態によってエネルギーを最適化する。
レベル$p=2,ldots, 6$の場合、予想される近似比をほぼ維持しながら、レベル$p$を1に減らすことができる。
論文 参考訳(メタデータ) (2022-03-01T19:47:16Z) - Differentiable Programming of Isometric Tensor Networks [0.0]
微分プログラミングは、自動微分(auto-differentiation)として知られる勾配の自動計算による大規模最適化を可能にする新しいプログラミングパラダイムである。
ここでは、多スケールエンタングルメント再正規化アンサッツ(MERA)やテンソルネットワーク再正規化(TNR)に応用した等尺制約のあるテンソルネットワークに微分可能プログラミングを拡張した。
我々は1次元臨界量子イジングスピンチェーンと2次元古典イジングモデルを用いて数値解析を行った。
古典的モデルの1次元量子モデルと内部エネルギーの基底状態エネルギーを計算し、スケーリング作用素のスケーリング次元を計算し、それらがすべて一致することを確かめる。
論文 参考訳(メタデータ) (2021-10-08T05:29:41Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。