論文の概要: On Faster Marginalization with Squared Circuits via Orthonormalization
- arxiv url: http://arxiv.org/abs/2412.07883v1
- Date: Tue, 10 Dec 2024 19:37:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:45.610878
- Title: On Faster Marginalization with Squared Circuits via Orthonormalization
- Title(参考訳): 直交正規化による正方形回路によるより高速な行列化について
- Authors: Lorenzo Loconte, Antonio Vergari,
- Abstract要約: 既に正規化されている分布を符号化するために、正方形回路をパラメータ化する方法を示す。
次に、このパラメータ化を用いて、既知の回路よりも効率的な正方形回路の残差を計算するアルゴリズムを考案する。
- 参考スコア(独自算出の注目度): 5.211074429497916
- License:
- Abstract: Squared tensor networks (TNs) and their generalization as parameterized computational graphs -- squared circuits -- have been recently used as expressive distribution estimators in high dimensions. However, the squaring operation introduces additional complexity when marginalizing variables or computing the partition function, which hinders their usage in machine learning applications. Canonical forms of popular TNs are parameterized via unitary matrices as to simplify the computation of particular marginals, but cannot be mapped to general circuits since these might not correspond to a known TN. Inspired by TN canonical forms, we show how to parameterize squared circuits to ensure they encode already normalized distributions. We then use this parameterization to devise an algorithm to compute any marginal of squared circuits that is more efficient than a previously known one. We conclude by formally showing the proposed parameterization comes with no expressiveness loss for many circuit classes.
- Abstract(参考訳): 正方形テンソルネットワーク(TN)とそのパラメータ化計算グラフ(正方形回路)としての一般化は、近年、高次元の表現的分布推定器として使われている。
しかし、スクアリング操作は、変数を余剰化したり、パーティション関数を計算する際にさらに複雑になるため、機械学習アプリケーションでの使用が妨げられる。
一般的なTNの標準形式は、特定の辺の計算を単純化するためにユニタリ行列を介してパラメータ化されるが、既知のTNに対応していないため、一般的な回路にマッピングすることはできない。
TN標準形式に着想を得て、正方形回路をパラメータ化して、既に正規化されている分布を符号化する方法を示す。
次に、このパラメータ化を用いて、既知の回路よりも効率的な正方形回路の残差を計算するアルゴリズムを考案する。
提案したパラメータ化は、多くの回路クラスに対して表現性損失を伴わないことを正式に示すことで結論付ける。
関連論文リスト
- Refined Risk Bounds for Unbounded Losses via Transductive Priors [58.967816314671296]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - Path-metrics, pruning, and generalization [13.894485461969772]
本稿では,パラメータのパスメトリックス(path-metrics)という用語で関数の新たなバウンダリを証明した。
これは、ResNets、VGGs、U-netsなど、現代のネットワークに広く適用される最初の境界である。
論文 参考訳(メタデータ) (2024-05-23T19:23:09Z) - Here comes the SU(N): multivariate quantum gates and gradients [1.7809113449965783]
変分量子アルゴリズムは非可換最適化法を用いてパラメタライズド量子回路の最適パラメータを求める。
ここでは、特殊ユニタリ群 $mathrm(N) ゲートを完全にパラメータ化するゲートを提案する。
提案したゲートとその最適化がユニタリ群の量子極限を満たすことを示す。
論文 参考訳(メタデータ) (2023-03-20T18:00:04Z) - Symmetric Tensor Networks for Generative Modeling and Constrained
Combinatorial Optimization [72.41480594026815]
ポートフォリオ最適化からロジスティクスに至るまで、制約付き最適化問題は業界に多い。
これらの問題の解決における主要な障害の1つは、有効な検索空間を制限する非自明なハード制約の存在である。
本研究では、Ax=bという形の任意の整数値等式制約をU(1)対称ネットワーク(TN)に直接エンコードし、それらの適用性を量子に着想を得た生成モデルとして活用する。
論文 参考訳(メタデータ) (2022-11-16T18:59:54Z) - Instance-Dependent Generalization Bounds via Optimal Transport [51.71650746285469]
既存の一般化境界は、現代のニューラルネットワークの一般化を促進する重要な要因を説明することができない。
データ空間における学習予測関数の局所リプシッツ正則性に依存するインスタンス依存の一般化境界を導出する。
ニューラルネットワークに対する一般化境界を実験的に解析し、有界値が有意義であることを示し、トレーニング中の一般的な正規化方法の効果を捉える。
論文 参考訳(メタデータ) (2022-11-02T16:39:42Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Training Recurrent Neural Networks by Sequential Least Squares and the
Alternating Direction Method of Multipliers [0.20305676256390928]
本稿では、最適隠れネットワークパラメータを決定するために凸と2倍の差分損失と正規化項を用いることを提案する。
逐次最小二乗と交互方向乗算器を組み合わせる。
このアルゴリズムの性能は非線形システム同定ベンチマークで検証される。
論文 参考訳(メタデータ) (2021-12-31T08:43:04Z) - General parameter-shift rules for quantum gradients [0.03823356975862005]
変分量子アルゴリズムは、ノイズの多い中間スケール量子コンピュータの応用においてユビキタスである。
一般的なパラメータシフト規則は回路評価の回数を大幅に削減できることを示す。
提案手法は,評価関数の再構成を選択順序まで再現し,ロトゾルデアルゴリズムの既知一般化に繋がる。
論文 参考訳(メタデータ) (2021-07-26T18:00:02Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。