論文の概要: Efficient Application of Tensor Network Operators to Tensor Network States
- arxiv url: http://arxiv.org/abs/2601.19650v1
- Date: Tue, 27 Jan 2026 14:26:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.347784
- Title: Efficient Application of Tensor Network Operators to Tensor Network States
- Title(参考訳): テンソルネットワークオペレーターのテンソルネットワーク状態への応用
- Authors: Richard M. Milbradt, Shuo Sun, Christian B. Mendl, Johnnie Gray, Garnet K. -L. Chan,
- Abstract要約: 本稿では,木テンソルネットワークの演算子を効率的にツリーテンソルネットワーク状態に適用するアルゴリズムを提案する。
この文脈でよく使われるメソッドを一般的な木構造に拡張する方法を示す。
- 参考スコア(独自算出の注目度): 8.515845526820852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The performance of tensor network methods has seen constant improvements over the last few years. We add to this effort by introducing a new algorithm that efficiently applies tree tensor network operators to tree tensor network states inspired by the density matrix method and the Cholesky decomposition. This application procedure is a common subroutine in tensor network methods. We explicitly include the special case of tensor train structures and demonstrate how to extend methods commonly used in this context to general tree structures. We compare our newly developed method with the existing ones in a benchmark scenario with random tensor network states and operators. We find our Cholesky-based compression (CBC) performs equivalently to the current state-of-the-art method, while outperforming most established methods by at least an order of magnitude in runtime. We then apply our knowledge to perform circuit simulation of tree-like circuits, in order to test our method in a more realistic scenario. Here, we find that more complex tree structures can outperform simple linear structures and achieve lower errors than those possible with the simple structures. Additionally, our CBC still performs among the most successful methods, showing less dependence on the different bond dimensions of the operator.
- Abstract(参考訳): テンソルネットワーク方式の性能はここ数年で常に改善されてきた。
さらに,木テンソルネットワーク演算子を密度行列法とチョレスキー分解にインスパイアされた木テンソルネットワーク状態に効率的に適用するアルゴリズムを導入する。
この応用法はテンソルネットワーク法において一般的なサブルーチンである。
テンソルトレイン構造の特殊なケースを明示的に含み、この文脈でよく使われるメソッドを一般的なツリー構造に拡張する方法を実証する。
本稿では,提案手法と既存手法を比較し,ランダムなテンソルネットワーク状態と演算子との比較を行った。
Cholesky-based compression (CBC) は現在の最先端の手法と同等に動作し、実行時に少なくとも1桁の精度で確立された手法よりも優れています。
次に,木状回路の回路シミュレーションに知識を適用し,本手法をより現実的なシナリオで検証する。
ここでは、より複雑な木構造が単純な線形構造より優れ、単純な構造で可能なものよりも低い誤差を達成できることが分かる。
さらに、我々のCBCは依然として最も成功した方法の1つであり、演算子の異なる結合次元への依存度が低いことを示している。
関連論文リスト
- Compute Better Spent: Replacing Dense Layers with Structured Matrices [77.61728033234233]
画像領域における畳み込みネットワークの成功が示すように、高密度行列に対するより効率的な代替手段を同定する。
異なる構造は、しばしばパフォーマンスに不可欠な、非常に異なる初期化尺度と学習率を必要とする。
本稿では,モナール行列を含む新しい行列族Block-Trainを提案する。
論文 参考訳(メタデータ) (2024-06-10T13:25:43Z) - Gauging tensor networks with belief propagation [0.0]
本稿では,信仰伝播を用いたテンソルネットワークのゲージ化アルゴリズムを提案する。
本研究では,この手法が既知のテンソルネットワークゲージ法と密接に関連していることを示す。
我々は,このアルゴリズムが既存のガウグアルゴリズムよりも高速であることを示す数値的証拠とスケーリング論を提示する。
論文 参考訳(メタデータ) (2023-06-30T17:56:15Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Structural Optimization Makes Graph Classification Simpler and Better [5.770986723520119]
モデル学習プロセスを簡素化しつつ,グラフ分類性能の向上の可能性を検討する。
構造情報アセスメントの進歩に触発されて、グラフから木をコードするデータサンプルを最適化する。
本稿では,木カーネルと畳み込みネットワークにこのスキームを実装し,グラフ分類を行う。
論文 参考訳(メタデータ) (2021-09-05T08:54:38Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - Structured Convolutions for Efficient Neural Network Design [65.36569572213027]
畳み込みニューラルネットワーク構築ブロックのテクスト単純構造における冗長性を利用してモデル効率に取り組む。
この分解が2Dカーネルや3Dカーネルだけでなく、完全に接続されたレイヤにも適用可能であることを示す。
論文 参考訳(メタデータ) (2020-08-06T04:38:38Z) - On Lipschitz Regularization of Convolutional Layers using Toeplitz
Matrix Theory [77.18089185140767]
リプシッツ正則性は現代のディープラーニングの重要な性質として確立されている。
ニューラルネットワークのリプシッツ定数の正確な値を計算することはNPハードであることが知られている。
より厳密で計算が容易な畳み込み層に対する新しい上限を導入する。
論文 参考訳(メタデータ) (2020-06-15T13:23:34Z) - The Tree Ensemble Layer: Differentiability meets Conditional Computation [8.40843862024745]
我々は、異なる決定木(ソフトツリー)のアンサンブルからなるニューラルネットワークのための新しいレイヤを導入する。
異なる木は文学において有望な結果を示すが、典型的には条件計算をサポートしないため、訓練と推論が遅い。
我々は、空間性を利用する特殊前方及び後方伝播アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-02-18T18:05:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。