論文の概要: Optimal Symbolic Construction of Matrix Product Operators and Tree Tensor Network Operators
- arxiv url: http://arxiv.org/abs/2502.18630v2
- Date: Thu, 13 Mar 2025 10:04:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-14 15:49:00.819664
- Title: Optimal Symbolic Construction of Matrix Product Operators and Tree Tensor Network Operators
- Title(参考訳): マトリックス製品オペレータとツリーテンソルネットワークオペレータの最適シンボリック構築
- Authors: Hazar Çakır, Richard M. Milbradt, Christian B. Mendl,
- Abstract要約: 本研究では,行列積演算子(MPO)とツリーテンソルネットワーク演算子(TTNO)を構築するための改良されたフレームワークを提案する。
与えられた(ハミルトニアン)作用素は典型的には、テンソルネットワーク構造に変換できる「作用素弦の和」形式の既知の記号を持つ。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This research introduces an improved framework for constructing matrix product operators (MPOs) and tree tensor network operators (TTNOs), crucial tools in quantum simulations. A given (Hamiltonian) operator typically has a known symbolic "sum of operator strings" form that can be translated into a tensor network structure. Combining the existing bipartite-graph-based approach and a newly introduced symbolic Gaussian elimination preprocessing step, our proposed method improves upon earlier algorithms in cases when Hamiltonian terms share the same prefactors. We test the performance of our method against established ones for benchmarking purposes. Finally, we apply our methodology to the model of a cavity filled with molecules in a solvent. This open quantum system is cast into the hierarchical equation of motion (HEOM) setting to obtain an effective Hamiltonian. Construction of the corresponding TTNO demonstrates a sub-linear increase of the maximum bond dimension.
- Abstract(参考訳): 本研究では,行列積演算子 (MPOs) とツリーテンソルネットワーク演算子 (TTNOs) を構築するための改良されたフレームワークを導入する。
与えられた(ハミルトニアン)作用素は典型的には、テンソルネットワーク構造に変換できる「作用素弦の和」形式の既知の記号を持つ。
既存の二部グラフに基づくアプローチと新たに導入されたシンボリックガウシアン除去前処理のステップを組み合わせることで、ハミルトン項が同じプレファクタを共有する場合に、提案手法は以前のアルゴリズムを改善する。
ベンチマーク目的の確立した手法に対して,本手法の性能を検証した。
最後に,本手法を溶媒中の分子で満たされた空洞モデルに適用する。
この開量子系は、実効ハミルトニアンを得るために階層運動方程式(HEOM)にキャストされる。
対応するTTNOの構成は、最大結合次元のサブ線形増加を示す。
関連論文リスト
- A Scalable Quantum Neural Network for Approximate SRBB-Based Unitary Synthesis [1.3108652488669736]
この研究は、SRBB(Standard Recursive Block Basis)によるユニタリ進化を近似するためのスケーラブルな量子ニューラルネットワークを導入している。
CNOTの数を減少させるアルゴリズムが提案され、単一の近似層を必要とする新しい実装可能なスケーリングスキームが導出される。
近似の有効性は、2つの勾配法と異なるメトリクスで測定される。
論文 参考訳(メタデータ) (2024-12-04T07:21:23Z) - QuOp: A Quantum Operator Representation for Nodes [0.0]
量子演算子を持つグラフ内のノードを表現するための直感的で斬新な手法を導出する。
この方法はパラメータトレーニングを必要とせず、ノード間の類似性を評価する古典的な手法と競合する。
論文 参考訳(メタデータ) (2024-07-19T13:10:04Z) - Quantization of Large Language Models with an Overdetermined Basis [73.79368761182998]
本稿では,嘉心表現の原理に基づくデータ量子化アルゴリズムを提案する。
以上の結果から, カシ量子化はモデル性能の競争力や優れた品質を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-04-15T12:38:46Z) - Pymablock: an algorithm and a package for quasi-degenerate perturbation theory [0.0]
我々は、それを実装するPythonパッケージであるPymablockとともに、同等の効果的なHミルトニアンを紹介します。
我々のアルゴリズムは最適なスケーリングと、任意のサブスペースを処理できる能力と、他の様々な改善を組み合わせている。
我々は、パッケージがk.pモデルの構築をどのように処理し、超伝導量子ビットを解析し、大きな強結合モデルの低エネルギースペクトルを計算するかを実証する。
論文 参考訳(メタデータ) (2024-04-04T18:00:08Z) - The Parametric Complexity of Operator Learning [6.800286371280922]
「本論は、Cr$-またはLipschitz-regularityのみによって特徴づけられる作用素の一般クラスに対して、演算子学習がパラメトリック複雑性の呪いに苦しむことを証明することを目的としている。」
この論文の第二の貢献は、ハミルトン・ヤコビ方程式で定義される解作用素に対して、この一般的な呪いが克服可能であることを証明することである。
HJ-Netと呼ばれる新しいニューラル演算子アーキテクチャが導入され、基礎となるハミルトン系の特性情報を明示的に考慮している。
論文 参考訳(メタデータ) (2023-06-28T05:02:03Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Isotropic Gaussian Processes on Finite Spaces of Graphs [71.26737403006778]
種々の非重み付きグラフの集合上でガウス過程の先行を定義するための原理的手法を提案する。
さらに、未重み付きグラフの同値類の集合を検討し、それに対する事前の適切なバージョンを定義する。
化学の応用に触発されて、我々は、小データ構造における実際の分子特性予測タスクについて、提案手法を解説した。
論文 参考訳(メタデータ) (2022-11-03T10:18:17Z) - Connecting Weighted Automata, Tensor Networks and Recurrent Neural
Networks through Spectral Learning [58.14930566993063]
我々は、形式言語と言語学からの重み付き有限オートマトン(WFA)、機械学習で使用されるリカレントニューラルネットワーク、テンソルネットワークの3つのモデル間の接続を提示する。
本稿では,連続ベクトル入力の列上に定義された線形2-RNNに対する最初の証明可能な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-19T15:28:00Z) - Provably Efficient Neural Estimation of Structural Equation Model: An
Adversarial Approach [144.21892195917758]
一般化構造方程式モデル(SEM)のクラスにおける推定について検討する。
線形作用素方程式をmin-maxゲームとして定式化し、ニューラルネットワーク(NN)でパラメータ化し、勾配勾配を用いてニューラルネットワークのパラメータを学習する。
提案手法は,サンプル分割を必要とせず,確固とした収束性を持つNNをベースとしたSEMの抽出可能な推定手順を初めて提供する。
論文 参考訳(メタデータ) (2020-07-02T17:55:47Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。