論文の概要: Time evolution of an infinite projected entangled pair state: a
neighborhood tensor update
- arxiv url: http://arxiv.org/abs/2107.06635v1
- Date: Wed, 14 Jul 2021 12:21:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 07:31:33.078219
- Title: Time evolution of an infinite projected entangled pair state: a
neighborhood tensor update
- Title(参考訳): 無限射影絡み合った対状態の時間発展:近傍テンソル更新
- Authors: Jacek Dziarmaga
- Abstract要約: 単純更新 (SU) と完全更新 (FU) は、無限射影対状態 (iPEPS) として知られるテンソルネットワークのための2つのパラダイム的時間進化アルゴリズムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The simple update (SU) and full update (FU) are the two paradigmatic time
evolution algorithms for a tensor network known as the infinite projected
entangled pair state (iPEPS). They differ by an error measure that is either,
respectively, local or takes into account full infinite tensor environment. In
this paper we test an intermediate neighborhood tensor update (NTU) accounting
for the nearest neighbor environment. This small environment can be contracted
exactly in a parallelizable way. It provides an error measure that is Hermitian
and non-negative down to machine precision. In the 2D quantum Ising model NTU
is shown to yield stable unitary time evolution following a sudden quench. It
also yields accurate thermal states despite correlation lengths that reach up
to 20 lattice sites. The latter simulations were performed with a manifestly
Hermitian purification of a thermal state. Both were performed with reduced
tensors that do not include physical (and ancilla) indices. This modification
naturally leads to two other schemes: a local SVD update (SVDU) and a full
tensor update (FTU) being a variant of FU.
- Abstract(参考訳): 単純更新 (SU) と完全更新 (FU) は、無限射影対状態 (iPEPS) として知られるテンソルネットワークのための2つのパラダイム的時間進化アルゴリズムである。
これらは、それぞれ局所的あるいは完全な無限テンソル環境を考慮した誤差測度によって異なる。
本稿では,近接環境を考慮した中間近傍テンソル更新(NTU)を検証した。
この小さな環境は、正確に並列化できる方法で収縮することができる。
誤差測度はHermitianであり、非負の精度で機械の精度を下げる。
2次元量子イジングモデルにおいて、NTUは突然のクエンチの後、安定なユニタリ時間進化をもたらす。
また、最大20の格子点に達する相関長にもかかわらず、正確な熱状態が得られる。
後者のシミュレーションは熱状態の顕著なハーミタン浄化によって行われた。
どちらも物理的(およびアンシラ)の指標を含まないテンソルを減らして行われた。
ローカルSVD更新 (SVDU) とフルテンソル更新 (FTU) はFUの変種である。
関連論文リスト
- Self-Ensembling Gaussian Splatting for Few-Shot Novel View Synthesis [55.561961365113554]
3D Gaussian Splatting (3DGS) は新規ビュー合成(NVS)に顕著な効果を示した
しかし、3DGSモデルはスパースポーズビューで訓練すると過度に適合する傾向にあり、その一般化能力は新規ビューに制限される。
オーバーフィッティング問題を緩和するために,Self-Ensembling Gaussian Splatting (SE-GS) アプローチを提案する。
提案手法は,NVSの品質向上に寄与し,既存の最先端手法よりも優れる。
論文 参考訳(メタデータ) (2024-10-31T18:43:48Z) - Positive bias makes tensor-network contraction tractable [0.5437298646956507]
テンソルネットワークの収縮は、量子多体物理学、量子情報、量子化学において強力な計算ツールである。
ここでは、テンソル-ネットワークの収縮の複雑さが、量子性、すなわちそのエントリの符号構造の違いにどのように依存するかを研究する。
論文 参考訳(メタデータ) (2024-10-07T18:27:23Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Machine learning in and out of equilibrium [58.88325379746631]
我々の研究は、統計物理学から適応したフォッカー・プランク法を用いて、これらの平行線を探索する。
我々は特に、従来のSGDでは平衡が切れている長期的限界におけるシステムの定常状態に焦点を当てる。
本稿では,ミニバッチの置き換えを伴わない新しいランゲヴィンダイナミクス(SGLD)を提案する。
論文 参考訳(メタデータ) (2023-06-06T09:12:49Z) - Renormalization group for measurement and entanglement phase transitions [0.0]
2つの有効ラグランジアンの再正規化群(RG)の流れを解析する。
ランダムテンソルネットワークの理論は、ランダムフィールドイジングモデルに類似した次元還元特性を持つことを示す。
論文 参考訳(メタデータ) (2023-03-14T12:40:03Z) - Consistent Diffusion Models: Mitigating Sampling Drift by Learning to be
Consistent [97.64313409741614]
本稿では, モデルが生成したデータ上での予測が時間とともに一定であることを示す, 両立性特性を強制することを提案する。
CIFAR-10の条件および非条件生成とAFHQとFFHQのベースライン改良について,本研究の新たな訓練目標が得られた。
論文 参考訳(メタデータ) (2023-02-17T18:45:04Z) - Time evolution of an infinite projected entangled pair state: a gradient
tensor update in the tangent space [0.0]
無限射影絡み合った対状態(iPEPS)に応用した鈴木・トラッター分解
本論文は,完全な更新(FU)で使用されるような,単純なエラー対策以上のものだ。
これは、結合次元が増大した正確なiPEPSと、切り裂かれた新しいiPEPSとの重なりを直接的に最大化する。
論文 参考訳(メタデータ) (2022-05-23T06:18:28Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - Multi-version Tensor Completion for Time-delayed Spatio-temporal Data [50.762087239885936]
実世界の時間データは、様々なデータ読み込み遅延のために不完全または不正確な場合が多い。
経時的に更新を予測するための低ランクテンソルモデルを提案する。
最良基準法に比べて最大27.2%低いルート平均二乗誤差が得られる。
論文 参考訳(メタデータ) (2021-05-11T19:55:56Z) - Optimization at the boundary of the tensor network variety [2.1839191255085995]
テンソルネットワーク状態は、量子多体系の研究で広く用いられる変分アンザッツ類を形成する。
最近の研究により、この多様体の境界上の状態は、物理的興味のある状態に対するより効率的な表現をもたらすことが示されている。
局所ハミルトンの基底状態を見つけるために、このクラスを最適化する方法を示す。
論文 参考訳(メタデータ) (2020-06-30T16:58:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。