論文の概要: Numerical Optimization for Tensor Disentanglement
- arxiv url: http://arxiv.org/abs/2508.19409v1
- Date: Tue, 26 Aug 2025 20:17:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.417138
- Title: Numerical Optimization for Tensor Disentanglement
- Title(参考訳): テンソルディスタングルの数値最適化
- Authors: Julia Wei, Alec Dektor, Chungen Shen, Zaiwen Wen, Chao Yang,
- Abstract要約: 本稿では,ネットワーク内のゲージ自由度を利用して結合次元を小さくする変換を同定するテンソルディエンタングリングについて論じる。
我々は、この問題を、1つのテンソルの指標に作用する直交行列に対する最適化問題として定式化し、その行列化形式のランクを最小化する。
しばしば未知の最適ランクを求めるために,二元探索戦略を導入する。
- 参考スコア(独自算出の注目度): 7.88541926763416
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensor networks provide compact and scalable representations of high-dimensional data, enabling efficient computation in fields such as quantum physics, numerical partial differential equations (PDEs), and machine learning. This paper focuses on tensor disentangling, the task of identifying transformations that reduce bond dimensions by exploiting gauge freedom in the network. We formulate this task as an optimization problem over orthogonal matrices acting on a single tensor's indices, aiming to minimize the rank of its matricized form. We present Riemannian optimization methods and a joint optimization framework that alternates between optimizing the orthogonal transformation for a fixed low-rank approximation and optimizing the low-rank approximation for a fixed orthogonal transformation, offering a competitive alternative when the target rank is known. To seek the often unknown optimal rank, we introduce a binary search strategy integrated with the disentangling procedure. Numerical experiments on random tensors and tensors in an approximate isometric tensor network state are performed to compare different optimization methods and explore the possibility of combining different methods in a hybrid approach.
- Abstract(参考訳): テンソルネットワークは高次元データのコンパクトでスケーラブルな表現を提供し、量子物理学、数値偏微分方程式(PDE)、機械学習などの分野における効率的な計算を可能にしている。
本稿では, ネットワーク内のゲージ自由度を利用して, 結合次元を小さくする変換を同定するテンソルディエンタングリングについて論じる。
我々は、このタスクを、1つのテンソルの指標に作用する直交行列に対する最適化問題として定式化し、その行列化形式のランクを最小化する。
固定された低ランク近似に対する直交変換の最適化と、固定された直交変換に対する低ランク近似の最適化を交互に行い、目標ランクが知られている場合に競合する代替手段を提供する。
しばしば未知の最適ランクを求めるために,解離手順と統合された二元探索戦略を導入する。
近似等尺テンソルネットワーク状態におけるランダムテンソルとテンソルの数値実験を行い、異なる最適化手法を比較し、ハイブリッドアプローチで異なる手法を組み合わせる可能性を探る。
関連論文リスト
- Verification of Geometric Robustness of Neural Networks via Piecewise Linear Approximation and Lipschitz Optimisation [57.10353686244835]
我々は、回転、スケーリング、せん断、翻訳を含む入力画像の幾何学的変換に対するニューラルネットワークの検証の問題に対処する。
提案手法は, 分枝・分枝リプシッツと組み合わせたサンプリングおよび線形近似を用いて, 画素値に対する楽音線形制約を求める。
提案手法では,既存の手法よりも最大32%の検証ケースが解決されている。
論文 参考訳(メタデータ) (2024-08-23T15:02:09Z) - Composite Optimization Algorithms for Sigmoid Networks [3.160070867400839]
線形化近位アルゴリズムと乗算器の交互方向に基づく合成最適化アルゴリズムを提案する。
フランク関数のフィッティングに関する数値実験により、提案アルゴリズムは十分堅牢に機能することを示した。
論文 参考訳(メタデータ) (2023-03-01T15:30:29Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Fast Computation of Optimal Transport via Entropy-Regularized Extragradient Methods [75.34939761152587]
2つの分布間の最適な輸送距離の効率的な計算は、様々な応用を促進するアルゴリズムとして機能する。
本稿では,$varepsilon$加法精度で最適な輸送を計算できるスケーラブルな一階最適化法を提案する。
論文 参考訳(メタデータ) (2023-01-30T15:46:39Z) - Adaptive Zeroth-Order Optimisation of Nonconvex Composite Objectives [1.7640556247739623]
ゼロ階エントロピー合成目的のためのアルゴリズムを解析し,次元依存性に着目した。
これは、ミラー降下法と推定類似関数を用いて、決定セットの低次元構造を利用して達成される。
勾配を改善するため、Rademacherに基づく古典的なサンプリング法を置き換え、ミニバッチ法が非ユークリ幾何学に対処することを示す。
論文 参考訳(メタデータ) (2022-08-09T07:36:25Z) - Jointly Modeling and Clustering Tensors in High Dimensions [6.072664839782975]
テンソルの合同ベンチマークとクラスタリングの問題を考察する。
本稿では,統計的精度の高い近傍に幾何的に収束する効率的な高速最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-15T21:06:16Z) - Optimization of Graph Total Variation via Active-Set-based Combinatorial
Reconditioning [48.42916680063503]
本稿では,この問題クラスにおける近位アルゴリズムの適応型事前条件付け手法を提案する。
不活性エッジのネスト・フォレスト分解により局所収束速度が保証されることを示す。
この結果から,局所収束解析は近似アルゴリズムにおける可変指標選択の指針となることが示唆された。
論文 参考訳(メタデータ) (2020-02-27T16:33:09Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。