論文の概要: The Augmented Tree Tensor Network Cookbook
- arxiv url: http://arxiv.org/abs/2507.21236v1
- Date: Mon, 28 Jul 2025 18:00:39 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-07-30 13:41:58.383824
- Title: The Augmented Tree Tensor Network Cookbook
- Title(参考訳): Augmented Tree Tensor Network Cookbook
- Authors: Nora Reinić, Luka Pavešić, Daniel Jaschke, Simone Montangero,
- Abstract要約: 拡張木テンソルネットワーク(aTTN)は、木テンソルネットワークにユニタリディスタングルの層を適用したテンソルネットワークアンサッツである。
これらの講義ノートは、ATTNアルゴリズムを実装するための詳細なガイドとなる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: An augmented tree tensor network (aTTN) is a tensor network ansatz constructed by applying a layer of unitary disentanglers to a tree tensor network. The disentanglers absorb a part of the system's entanglement. This makes aTTNs suitable for simulating higher-dimensional lattices, where the entanglement increases with the lattice size even for states that obey the area law. These lecture notes serve as a detailed guide for implementing the aTTN algorithms. We present a variational algorithm for ground state search and discuss the measurement of observables, and offer an open-source implementation within the Quantum TEA library. We benchmark the performance of the ground state search for different parameters and hyperparameters in the square lattice quantum Ising model and the triangular lattice Heisenberg model for up to $32 \times 32$ spins. The benchmarks identify the regimes where the aTTNs offer advantages in accuracy relative to computational cost compared to matrix product states and tree tensor networks.
- Abstract(参考訳): 拡張木テンソルネットワーク(aTTN)は、木テンソルネットワークにユニタリディスタングルの層を適用したテンソルネットワークアンサッツである。
アンタングルはシステムのアンタングルの一部を吸収する。
これにより、ATTNは高次元格子をシミュレートするのに適しており、そこでは領域法則に従う状態であっても格子の大きさとともに絡み合いが増加する。
これらの講義ノートは、ATTNアルゴリズムを実装するための詳細なガイドとなる。
本稿では,地上状態探索のための変分アルゴリズムを提案し,観測値の測定を議論し,Quantum TEAライブラリ内にオープンソース実装を提供する。
正方形格子量子イジングモデルと三角形格子ハイゼンベルクモデルにおいて,各パラメータとハイパーパラメータの基底状態探索の性能を最大32$スピンでベンチマークした。
ベンチマークでは、ATTNが行列積状態やツリーテンソルネットワークと比較して計算コストに比較して精度の優位性を提供する。
関連論文リスト
- Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [63.945006006152035]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - TTNOpt: Tree tensor network package for high-rank tensor compression [0.0]
TTNOptは、量子スピンシステムと高次元データ解析にツリーテンソルネットワーク(TTN)を利用するソフトウェアパッケージである。
量子スピン系では、TTNOptは双線型スピン相互作用と磁場を持つハミルトンの基底状態を求める。
高次元データ解析では、TTNOptは複素テンソルをTTN状態に分解し、元のテンソルへの忠実度を最大化する。
論文 参考訳(メタデータ) (2025-05-09T09:28:38Z) - Enhancing lattice kinetic schemes for fluid dynamics with Lattice-Equivariant Neural Networks [79.16635054977068]
我々はLattice-Equivariant Neural Networks (LENNs)と呼ばれる新しい同変ニューラルネットワークのクラスを提案する。
我々の手法は、ニューラルネットワークに基づく代理モデルLattice Boltzmann衝突作用素の学習を目的とした、最近導入されたフレームワーク内で開発されている。
本研究は,実世界のシミュレーションにおける機械学習強化Lattice Boltzmann CFDの実用化に向けて展開する。
論文 参考訳(メタデータ) (2024-05-22T17:23:15Z) - Tensor Ring Optimized Quantum-Enhanced Tensor Neural Networks [32.76948546010625]
量子機械学習の研究者は、しばしばディープニューラルネットワーク(DNN)にネットワーク(TN)を組み込むことに頼っている。
この問題に対処するために、リング最適化変分量子学習分類器(Quan-TR)の多層設計を提案する。
リング最適化量子強化ニューラルネットワーク(TR-QNet)と呼ばれる。
量子シミュレーションにおいて、提案されたTR-QNetは、それぞれIris、MNIST、CIFAR-10データセット上で、9,4.5%、8,6.16%、および83.54%の有望な精度を達成している。
論文 参考訳(メタデータ) (2023-10-02T18:07:10Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Entanglement bipartitioning and tree tensor networks [0.0]
本稿では,量子多体システムのためのツリーテンソルネットワーク(TTN)の最適ネットワーク構造を設計するための絡み合い分割手法を提案する。
最大16個のサイトの絡み合い分割は、1次元と2次元で$S=1/2$ハイゼンベルクモデルに対して非自明なツリーネットワーク構造をもたらすことを示した。
論文 参考訳(メタデータ) (2022-10-21T05:36:03Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Tensor Network States with Low-Rank Tensors [6.385624548310884]
テンソルネットワークを構成するテンソルに低ランク制約を課すという考え方を導入する。
この修正により、ネットワーク最適化の時間と複雑さを大幅に削減できる。
テンソル階数 $r$ を$m$ の順序で選ぶことは、高い精度の基底状態近似を得るのに十分である。
論文 参考訳(メタデータ) (2022-05-30T17:58:16Z) - On the Neural Tangent Kernel Analysis of Randomly Pruned Neural Networks [91.3755431537592]
ニューラルネットワークのニューラルカーネル(NTK)に重みのランダムプルーニングが及ぼす影響について検討する。
特に、この研究は、完全に接続されたニューラルネットワークとそのランダムに切断されたバージョン間のNTKの等価性を確立する。
論文 参考訳(メタデータ) (2022-03-27T15:22:19Z) - Efficient Simulation of Dynamics in Two-Dimensional Quantum Spin Systems
with Isometric Tensor Networks [0.0]
最近導入された等尺テンソルネットワーク状態(isoTNS)の計算能力について検討する。
アイソTNSに基づくアルゴリズムの実装に関する技術的詳細を議論し、異なるアンタングルの比較を行う。
2次元量子スピン系の動的スピン構造係数を2つのパラダイムモデルに対して計算する。
論文 参考訳(メタデータ) (2021-12-15T19:00:05Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。