論文の概要: How to Square Tensor Networks and Circuits Without Squaring Them
- arxiv url: http://arxiv.org/abs/2512.17090v1
- Date: Thu, 18 Dec 2025 21:36:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.182558
- Title: How to Square Tensor Networks and Circuits Without Squaring Them
- Title(参考訳): アクアリングを使わずにテンソルネットワークと回路を正方形にする方法
- Authors: Lorenzo Loconte, Adrián Javaloy, Antonio Vergari,
- Abstract要約: 極小化のオーバーヘッドを克服するために、正方形回路をパラメータ化する方法を示す。
また、より効率的な学習を可能にするとともに、正方形回路の条件が損なわれないことを示す。
- 参考スコア(独自算出の注目度): 18.229583996292146
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Squared tensor networks (TNs) and their extension as computational graphs--squared circuits--have been used as expressive distribution estimators, yet supporting closed-form marginalization. However, the squaring operation introduces additional complexity when computing the partition function or marginalizing variables, which hinders their applicability in ML. To solve this issue, canonical forms of TNs are parameterized via unitary matrices to simplify the computation of marginals. However, these canonical forms do not apply to circuits, as they can represent factorizations that do not directly map to a known TN. Inspired by the ideas of orthogonality in canonical forms and determinism in circuits enabling tractable maximization, we show how to parameterize squared circuits to overcome their marginalization overhead. Our parameterizations unlock efficient marginalization even in factorizations different from TNs, but encoded as circuits, whose structure would otherwise make marginalization computationally hard. Finally, our experiments on distribution estimation show how our proposed conditions in squared circuits come with no expressiveness loss, while enabling more efficient learning.
- Abstract(参考訳): 正方形テンソルネットワーク(TN)と、その拡張を計算グラフとして拡張した2乗回路は、表現的分布推定器として使われてきたが、閉形式境界化をサポートしている。
しかし、スクアリング演算はパーティション関数の計算や限界化変数の計算においてさらなる複雑さをもたらすため、MLにおける適用性が妨げられる。
この問題を解決するために、TNの標準形式はユニタリ行列を介してパラメータ化され、辺の計算を単純化する。
しかし、これらの正準形式は、既知のTNに直接写像しない因子化を表現することができるため、回路には適用されない。
正準形式における直交性の概念と、トラクタブルな最大化を可能にする回路における決定性に着想を得て、正方形回路をパラメータ化してその限界化オーバーヘッドを克服する方法を示す。
我々のパラメータ化は、TNと異なる因子化であっても効率的な辺化を解放するが、回路として符号化され、その構造が計算的に辺化を難しくする。
最後に、分布推定実験により、より効率的な学習を可能にしながら、正方形回路の条件が表現力損失を伴わないことを示す。
関連論文リスト
- Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - Scaling Probabilistic Circuits via Monarch Matrices [109.65822339230853]
確率回路(PC)は確率分布の抽出可能な表現である。
そこで本研究では,PCの和ブロックに対する新しいスパースパラメータと構造化パラメータ化を提案する。
論文 参考訳(メタデータ) (2025-06-14T07:39:15Z) - On Faster Marginalization with Squared Circuits via Orthonormalization [5.211074429497916]
既に正規化されている分布を符号化するために、正方形回路をパラメータ化する方法を示す。
次に、このパラメータ化を用いて、既知の回路よりも効率的な正方形回路の残差を計算するアルゴリズムを考案する。
論文 参考訳(メタデータ) (2024-12-10T19:37:03Z) - Diagonalization without Diagonalization: A Direct Optimization Approach for Solid-State Density Functional Theory [8.922374095111797]
本稿では,密度汎関数論の直接最適化における変数占有数の問題に対処する新しい手法を提案する。
本手法は固有関数と職業の両方の物理的制約をパラメータ化に組み込む。
これは、占有数の正しいフェルミ・ディラック分布を生成し、量子エスプレッソのSCF法で得られたバンド構造と一致する。
論文 参考訳(メタデータ) (2024-11-06T11:03:40Z) - Refined Risk Bounds for Unbounded Losses via Transductive Priors [67.12679195076387]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - Cons-training Tensor Networks: Embedding and Optimization Over Discrete Linear Constraints [2.8834278113855896]
我々は,制約行列積状態(MPS)と呼ばれるテンソルネットワークの新たなファミリーを導入する。
MPSは、不等式を含む正確に任意の離散線型制約をスパースブロック構造に組み込む。
これらのネットワークは、特に、可能空間上で厳密にサポートされた分散をモデル化するために調整されている。
論文 参考訳(メタデータ) (2024-05-15T00:13:18Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。