論文の概要: Error Analysis of Tensor-Train Cross Approximation
- arxiv url: http://arxiv.org/abs/2207.04327v1
- Date: Sat, 9 Jul 2022 19:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 16:24:01.565304
- Title: Error Analysis of Tensor-Train Cross Approximation
- Title(参考訳): テンソル-トレインクロス近似の誤差解析
- Authors: Zhen Qin, Alexander Lidiak, Zhexuan Gong, Gongguo Tang, Michael B.
Wakin and Zhihui Zhu
- Abstract要約: 我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
- 参考スコア(独自算出の注目度): 88.83467216606778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor train decomposition is widely used in machine learning and quantum
physics due to its concise representation of high-dimensional tensors,
overcoming the curse of dimensionality. Cross approximation-originally
developed for representing a matrix from a set of selected rows and columns-is
an efficient method for constructing a tensor train decomposition of a tensor
from few of its entries. While tensor train cross approximation has achieved
remarkable performance in practical applications, its theoretical analysis, in
particular regarding the error of the approximation, is so far lacking. To our
knowledge, existing results only provide element-wise approximation accuracy
guarantees, which lead to a very loose bound when extended to the entire
tensor. In this paper, we bridge this gap by providing accuracy guarantees in
terms of the entire tensor for both exact and noisy measurements. Our results
illustrate how the choice of selected subtensors affects the quality of the
cross approximation and that the approximation error caused by model error
and/or measurement error may not grow exponentially with the order of the
tensor. These results are verified by numerical experiments, and may have
important implications for the usefulness of cross approximations for
high-order tensors, such as those encountered in the description of quantum
many-body states.
- Abstract(参考訳): テンソルトレイン分解は、高次元テンソルの簡潔な表現のため、機械学習や量子物理学で広く用いられている。
行列を選択された行と列の集合から表現するクロス近似は、テンソルのテンソルトレイン分解を構成する効率的な方法である。
テンソルトレインのクロス近似は実用上顕著な性能を達成しているが、その理論解析、特に近似の誤差についてはまだ不十分である。
我々の知る限り、既存の結果は要素ワイズ近似の精度を保証するだけであり、テンソル全体に拡張すると非常にゆるい境界となる。
本稿では, テンソル全体の精度保証を, 精度と雑音の両面において提供することにより, このギャップを埋める。
以上の結果から,選択したサブテンソルの選択がクロス近似の品質にどのように影響するかを示し,モデル誤差や測定誤差による近似誤差がテンソルの次数で指数関数的に増加することはないことを示した。
これらの結果は数値実験によって検証され、量子多体状態の記述に見られるような高次テンソルに対するクロス近似の有用性に重要な意味を持つ。
関連論文リスト
- Exact Tensor Completion Powered by Arbitrary Linear Transforms [10.698749077862747]
任意の線形変換による正確なテンソル完備化の新たな理論的保証が確立される。
変換テンソル完了プログラムを解くために,乗算器の交互方向に基づく効率的なアルゴリズムを設計する。
このモデルと証明はテンソル完成の柔軟性を大幅に向上させ,提案手法の優位性を検証した。
論文 参考訳(メタデータ) (2024-02-02T13:26:38Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - High-Order Tensor Recovery with A Tensor $U_1$ Norm [17.23648156109223]
テンソルデータの非滑らかな変化を効果的に処理するためのテンソル復元手法を提案する。
様々な次元にわたる高次テンソルデータの相関について,多数の変数や重みを導入することなく検討する。
結果のテンソル完備化モデルを解くために最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-23T12:16:33Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Optimizing Orthogonalized Tensor Deflation via Random Tensor Theory [5.124256074746721]
本稿では、ランダムノイズテンソルから相関成分を持つ低ランク信号テンソルを復元する問題に取り組む。
非直交成分はテンソルデフレレーション機構を変化させ、効率的に回復するのを防ぐことができる。
デフレレーション機構で導入されたパラメータを最適化することにより、効率的なテンソルデフレレーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-11T22:23:27Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。