論文の概要: Partitioned Expansions for Approximate Tensor Network Contractions
- arxiv url: http://arxiv.org/abs/2512.10910v1
- Date: Thu, 11 Dec 2025 18:39:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.536402
- Title: Partitioned Expansions for Approximate Tensor Network Contractions
- Title(参考訳): 近似テンソルネットワーク収縮のための分割展開
- Authors: Glen Evenbly, Johnnie Gray, Garnet Kin-Lic Chan,
- Abstract要約: 本稿では,ネットワークをより安価なネットワークの和に分割することで,テンソルネットワークの収縮を近似する手法を提案する。
このアプローチの柔軟性は、さまざまなサンプルネットワークへのアプリケーションを通して実証されます。
Ising、AKLT、ランダムテンソルで構成されるネットワークのベンチマーク数値は、BPよりも数桁精度が向上している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method for approximating the contraction of a tensor network by partitioning the network into a sum of computationally cheaper networks. This method, which we call a partitioned network expansion (PNE), builds upon recent work that systematically improves belief propagation (BP) approximations using loop corrections. However, in contrast to previous approaches, our expansion does not require a known BP fixed point to be implemented and can still yield accurate results even in cases where BP fails entirely. The flexibility of our approach is demonstrated through applications to a variety of example networks, including finite 2D and 3D networks, infinite networks, networks with open indices, and networks with degenerate BP fixed points. Benchmark numerical results for networks composed of Ising, AKLT, and random tensors typically show an improvement in accuracy over BP by several orders of magnitude (when BP solutions are obtainable) and also demonstrate improved performance over traditional network approximations based on singular value decomposition (SVD) for certain tasks.
- Abstract(参考訳): 本稿では, テンソルネットワークの縮約を, 計算コストの低いネットワークの和に分割して近似する手法を提案する。
分割ネットワーク展開(PNE)と呼ばれるこの手法は,ループ補正を用いた信念伝播(BP)近似を体系的に改善する最近の研究に基づいている。
しかし、従来の手法とは対照的に、我々の拡張は実装すべき既知のBP固定点を必要とせず、BPが完全に失敗しても正確な結果が得られる。
提案手法の柔軟性は, 有限2次元および3次元ネットワーク, 無限ネットワーク, オープンインデックス付きネットワーク, 退化BP固定点付きネットワークなど, 様々な実例ネットワークに適用することによって実証される。
Ising, AKLT, ランダムテンソルからなるネットワークのベンチマーク計算の結果は, BP の精度を数桁向上させる(BP の解が得られれば, BP の解が得られる)のが一般的であり, 特定のタスクに対する特異値分解(SVD)に基づく従来のネットワーク近似よりも高い性能を示す。
関連論文リスト
- Beyond Belief Propagation: Cluster-Corrected Tensor Network Contraction with Exponential Convergence [0.0]
我々は,テンソルネットワークにおけるBPの厳密な理論的枠組みを開発し,統計力学からの洞察を活用している。
電子ループ寄与と呼ばれる物体がループサイズで十分に早く崩壊した場合、クラスターの膨張が指数関数的に速く収束することが証明される。
我々の研究は、テンソルネットワークのためのBPの体系的理論への扉を開き、古典的および量子的誤り訂正符号の復号化や量子システムシミュレーションへの応用に応用する。
論文 参考訳(メタデータ) (2025-10-02T17:58:30Z) - Belief propagation for general graphical models with loops [45.29832252085144]
ループを持つ任意のグラフィカルモデルをとる統一フレームワークを開発する。
本研究では,テンソルネットワークBPよりも10桁以上の精度向上が可能であることを示す。
論文 参考訳(メタデータ) (2024-11-07T18:32:42Z) - Loop Series Expansions for Tensor Networks [0.2796197251957244]
本稿では,テンソルネットワークの収縮に対するBP近似の精度を向上させるために,ループ列展開を適用する方法について述べる。
我々は、AKLTモデルの基底状態を表すiPEPSの縮約に関するこの提案を、ランダムに定義されたテンソルでベンチマークする。
論文 参考訳(メタデータ) (2024-09-04T22:22:35Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Binarizing Sparse Convolutional Networks for Efficient Point Cloud
Analysis [93.55896765176414]
我々は,効率的な点群解析のためのBSC-Netと呼ばれるバイナリスパース畳み込みネットワークを提案する。
我々は,移動したスパース畳み込みにおけるサイトマッチングに最適なオプションを見つけるために,異なる検索戦略を採用している。
我々のBSC-Netは、我々の厳格なベースラインを大幅に改善し、最先端のネットワーク双対化手法より優れています。
論文 参考訳(メタデータ) (2023-03-27T13:47:06Z) - Manifold Regularized Dynamic Network Pruning [102.24146031250034]
本稿では,全インスタンスの多様体情報をプルーンドネットワークの空間に埋め込むことにより,冗長フィルタを動的に除去する新しいパラダイムを提案する。
提案手法の有効性をいくつかのベンチマークで検証し,精度と計算コストの両面で優れた性能を示す。
論文 参考訳(メタデータ) (2021-03-10T03:59:03Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。