論文の概要: Truncating loopy tensor networks by zero-mode gauge fixing
- arxiv url: http://arxiv.org/abs/2508.00338v1
- Date: Fri, 01 Aug 2025 05:55:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.750185
- Title: Truncating loopy tensor networks by zero-mode gauge fixing
- Title(参考訳): ゼロモードゲージ固定によるトレンシングループテンソルネットワーク
- Authors: Ihor Sokolov, Yintai Zhang, Jacek Dziarmaga,
- Abstract要約: 局所的結合最適化でさえ、局所的に関連するループ相関に結びついている洞察をより有効に活用できることが示される。
結合を切断することで、結合次元を切り離すために線形依存を使用できる状態の集合を定義する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Loopy tensor networks have internal correlations that often make their compression inefficient. We show that even local bond optimization can make better use of the insight it has locally into relevant loop correlations. By cutting the bond, we define a set of states whose linear dependence can be used to truncate the bond dimension. The linear dependence is eliminated with zero modes of the states' metric tensor. The method is illustrated by a series of examples for the infinite pair entangled projected state (iPEPS) and for the periodic matrix product state (pMPS) that occurs in the tensor renormalization group (TRG) step. In all examples, it provides better initial truncation errors than standard initialization.
- Abstract(参考訳): ループテンソルネットワークは内部相関を持ち、圧縮を非効率にすることが多い。
局所的結合最適化でさえ、局所的に関連するループ相関に結びついている洞察をより有効に活用できることが示される。
結合を切断することで、結合次元を切り離すために線形依存を使用できる状態の集合を定義する。
線形依存は、状態のメートル法テンソルのゼロモードで排除される。
この方法は、無限対絡み合った射影状態(iPEPS)と、テンソル再正規化群(TRG)ステップで発生する周期行列積状態(pMPS)の一連の例によって説明される。
あらゆる例において、標準的な初期化よりも優れた初期化エラーを提供する。
関連論文リスト
- Tensor Decomposition Meets RKHS: Efficient Algorithms for Smooth and Misaligned Data [10.005398712684244]
多次元データアレイを有限次元ベクトルの外積の和に分解する。
無限次元モードを持つテンソルを準テンソルと呼ぶ。
テンソルを連続RKHSモードで分解するアプローチはCP-HiFiと呼ばれる。
論文 参考訳(メタデータ) (2024-08-11T02:58:28Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - The Implicit Bias of Batch Normalization in Linear Models and Two-layer
Linear Convolutional Neural Networks [117.93273337740442]
勾配勾配勾配は、exp(-Omega(log2 t))$収束率でトレーニングデータ上の一様マージン分類器に収束することを示す。
また、バッチ正規化はパッチワイドの均一なマージンに対して暗黙の偏りを持つことを示す。
論文 参考訳(メタデータ) (2023-06-20T16:58:00Z) - Convergent Data-driven Regularizations for CT Reconstruction [41.791026380947685]
本研究では,データから線形正則化法を学習する上で,単純だが相変わらず収束するアプローチについて検討する。
このような手法が収束正則化手法となること、およびそれらが提供する再構成が訓練されたトレーニングデータよりも典型的にスムーズであることを証明する。
論文 参考訳(メタデータ) (2022-12-14T17:34:03Z) - Efficiently Computing Local Lipschitz Constants of Neural Networks via
Bound Propagation [79.13041340708395]
リプシッツ定数は、堅牢性、公正性、一般化など、ニューラルネットワークの多くの性質と結びついている。
既存のリプシッツ定数の計算法は、相対的に緩い上界を生成するか、小さなネットワークに制限される。
ニューラルネットワークの局所リプシッツ定数$ell_infty$をクラーク・ヤコビアンのノルムを強く上向きに上向きに計算する効率的なフレームワークを開発する。
論文 参考訳(メタデータ) (2022-10-13T22:23:22Z) - Error Analysis of Tensor-Train Cross Approximation [88.83467216606778]
我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2022-07-09T19:33:59Z) - Canonical convolutional neural networks [5.803855889358524]
畳み込みニューラルネットワークの標準重み正規化を提案する。
標準テンソル分解にインスパイアされ、外ベクトル積のスケールした和として重みテンソルを表現する。
論文 参考訳(メタデータ) (2022-06-03T11:19:38Z) - Solving the time-independent Schr\"odinger equation for chains of
coupled excitons and phonons using tensor trains [0.0]
テンソルトレイン形式を適用して時間に依存しないシュリンガー方程式を解く方法を示す。
また、(半)分析結果が存在する未結合問題についても検討する。
論文 参考訳(メタデータ) (2021-09-30T13:08:19Z) - Pruning Redundant Mappings in Transformer Models via Spectral-Normalized
Identity Prior [54.629850694790036]
スペクトル正規化アイデンティティ事前 (SNIP) は、トランスフォーマーモデルにおける残余モジュール全体をアイデンティティマッピングに向けてペナライズする構造化プルーニング手法である。
5つのGLUEベンチマークタスクでBERTを用いて実験を行い、SNIPが同等の性能を維持しながら効率的な刈り取り結果が得られることを示した。
論文 参考訳(メタデータ) (2020-10-05T05:40:56Z) - Optimization at the boundary of the tensor network variety [2.1839191255085995]
テンソルネットワーク状態は、量子多体系の研究で広く用いられる変分アンザッツ類を形成する。
最近の研究により、この多様体の境界上の状態は、物理的興味のある状態に対するより効率的な表現をもたらすことが示されている。
局所ハミルトンの基底状態を見つけるために、このクラスを最適化する方法を示す。
論文 参考訳(メタデータ) (2020-06-30T16:58:55Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z) - Matrix Product Density Operators: Renormalization Fixed Points and Boundary Theories [0.0]
スピン鎖内の行列積状態と密度作用素を生成するテンソルを考える。
純粋な状態に対しては、2005年にF. Verstraeteらによって導入された再正規化手順を改訂する。
混合状態に対しては、再正規化固定点の概念を導入し、対応するテンソルを特徴づける。
論文 参考訳(メタデータ) (2016-06-02T10:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。