論文の概要: Fast Tensor Disentangling Algorithm
- arxiv url: http://arxiv.org/abs/2104.08283v4
- Date: Sat, 22 Jan 2022 05:59:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 10:47:33.857682
- Title: Fast Tensor Disentangling Algorithm
- Title(参考訳): 高速テンソル分割アルゴリズム
- Authors: Kevin Slagle
- Abstract要約: 本稿では, 互いに絡み合うユニタリテンソルを最適化する近似的, 高速, 簡易なアルゴリズムを提案する。
我々のアルゴリズムは以前の反復アルゴリズムよりも高速であり、しばしば最小の10から40%以内の残絡エントロピーをもたらす。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many recent tensor network algorithms apply unitary operators to parts of a
tensor network in order to reduce entanglement. However, many of the previously
used iterative algorithms to minimize entanglement can be slow. We introduce an
approximate, fast, and simple algorithm to optimize disentangling unitary
tensors. Our algorithm is asymptotically faster than previous iterative
algorithms and often results in a residual entanglement entropy that is within
10 to 40% of the minimum. For certain input tensors, our algorithm returns an
optimal solution. When disentangling order-4 tensors with equal bond
dimensions, our algorithm achieves an entanglement spectrum where nearly half
of the singular values are zero. We further validate our algorithm by showing
that it can efficiently disentangle random 1D states of qubits.
- Abstract(参考訳): 最近のテンソルネットワークアルゴリズムの多くは、絡み合いを減らすためにテンソルネットワークの一部にユニタリ演算を適用する。
しかし, 絡み合いを最小化する反復アルゴリズムの多くは遅くなる可能性がある。
本稿では, 互いに絡み合うユニタリテンソルを最適化する近似的, 高速, 単純アルゴリズムを提案する。
我々のアルゴリズムは、従来の反復アルゴリズムよりも漸近的に高速であり、しばしば最小の10から40%以内の残絡エントロピーをもたらす。
ある入力テンソルに対して、アルゴリズムは最適な解を返す。
次数 4 のテンソルを等しい結合次元で分解すると、このアルゴリズムは特異値のほぼ半分がゼロとなるエンタングルメントスペクトルが得られる。
量子ビットのランダムな1D状態を効率的に解離できることを示し、アルゴリズムをさらに検証する。
関連論文リスト
- Accelerating Sinkhorn Algorithm with Sparse Newton Iterations [14.094908995798757]
本稿ではSinkhornアルゴリズムの拡張であるSinkhorn-Newton-Sparse(SNS)を提案する。
SNSは、広範囲の実践事例において、注文を桁違いに早く収束させる。
論文 参考訳(メタデータ) (2024-01-20T21:23:09Z) - Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Deterministic Nonsmooth Nonconvex Optimization [94.01526844386977]
次元自由な次元自由アルゴリズムを得るにはランダム化が必要であることを示す。
我々のアルゴリズムは、ReLUネットワークを最適化する最初の決定論的次元自由アルゴリズムを得る。
論文 参考訳(メタデータ) (2023-02-16T13:57:19Z) - Improved Rate of First Order Algorithms for Entropic Optimal Transport [2.1485350418225244]
本稿では,エントロピー正規化最適輸送を解くための1次アルゴリズムの最先端性を改善する。
そこで本研究では,差分低減による初期2次元ミラー降下アルゴリズムを提案する。
我々のアルゴリズムは、OTを解くために$widetildeO(n2/epsilon)$の速度を持つ加速された原始双対アルゴリズムを開発するためにより多くの研究を刺激するかもしれない。
論文 参考訳(メタデータ) (2023-01-23T19:13:25Z) - Near-Linear Time and Fixed-Parameter Tractable Algorithms for Tensor
Decompositions [51.19236668224547]
テンソルの低階近似について検討し,テンソルトレインとタッカー分解に着目した。
テンソル列車の分解には、小さなビクリテリアランクを持つビクリテリア$(1 + eps)$-approximationアルゴリズムと、O(q cdot nnz(A))$ランニングタイムを与える。
さらに、任意のグラフを持つテンソルネットワークにアルゴリズムを拡張します。
論文 参考訳(メタデータ) (2022-07-15T11:55:09Z) - A Robust Spectral Algorithm for Overcomplete Tensor Decomposition [10.742675209112623]
オーバーコンプリートオーダー4テンソルを分解するスペクトルアルゴリズムを提案する。
我々のアルゴリズムは、有界スペクトルノルムの逆摂動に対して頑健である。
本アルゴリズムは半定値プログラミングを回避し,一連の線形代数演算として実装することができる。
論文 参考訳(メタデータ) (2022-03-05T17:25:37Z) - Fast algorithm for overcomplete order-3 tensor decomposition [7.638467133689933]
我々は、O(d3/2/polylog(d))までのランクRd上のランダムな3階テンソルを分解する最初の高速スペクトルアルゴリズムを開発した。
我々のアルゴリズムは、現在の行列乗算時間の下で全成分を時間O(d6.05)で復元することができる。
論文 参考訳(メタデータ) (2022-02-14T00:31:34Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Streaming Coresets for Symmetric Tensor Factorization [9.181791777532608]
ストリーミング環境でテンソルを効率的に分解する方法を示す。
本稿では,オンラインフィルタリングとカーネル化という2つの新しいアルゴリズム手法を紹介する。
単一トピックモデリング学習におけるアルゴリズムの適用例を示す。
論文 参考訳(メタデータ) (2020-06-01T19:55:34Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。