論文の概要: Error Analysis of Tensor-Train Cross Approximation
- arxiv url: http://arxiv.org/abs/2207.04327v3
- Date: Sat, 24 Jun 2023 17:25:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 01:08:11.351711
- Title: Error Analysis of Tensor-Train Cross Approximation
- Title(参考訳): テンソル-トレインクロス近似の誤差解析
- Authors: Zhen Qin, Alexander Lidiak, Zhexuan Gong, Gongguo Tang, Michael B.
Wakin and Zhihui Zhu
- Abstract要約: 我々は, テンソル全体の精度保証を行う。
結果は数値実験により検証され、高次テンソルに対するクロス近似の有用性に重要な意味を持つ可能性がある。
- 参考スコア(独自算出の注目度): 88.83467216606778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor train decomposition is widely used in machine learning and quantum
physics due to its concise representation of high-dimensional tensors,
overcoming the curse of dimensionality. Cross approximation-originally
developed for representing a matrix from a set of selected rows and columns-is
an efficient method for constructing a tensor train decomposition of a tensor
from few of its entries. While tensor train cross approximation has achieved
remarkable performance in practical applications, its theoretical analysis, in
particular regarding the error of the approximation, is so far lacking. To our
knowledge, existing results only provide element-wise approximation accuracy
guarantees, which lead to a very loose bound when extended to the entire
tensor. In this paper, we bridge this gap by providing accuracy guarantees in
terms of the entire tensor for both exact and noisy measurements. Our results
illustrate how the choice of selected subtensors affects the quality of the
cross approximation and that the approximation error caused by model error
and/or measurement error may not grow exponentially with the order of the
tensor. These results are verified by numerical experiments, and may have
important implications for the usefulness of cross approximations for
high-order tensors, such as those encountered in the description of quantum
many-body states.
- Abstract(参考訳): テンソルトレイン分解は、高次元テンソルの簡潔な表現のため、機械学習や量子物理学で広く用いられている。
行列を選択された行と列の集合から表現するクロス近似は、テンソルのテンソルトレイン分解を構成する効率的な方法である。
テンソルトレインのクロス近似は実用上顕著な性能を達成しているが、その理論解析、特に近似の誤差についてはまだ不十分である。
我々の知る限り、既存の結果は要素ワイズ近似の精度を保証するだけであり、テンソル全体に拡張すると非常にゆるい境界となる。
本稿では, テンソル全体の精度保証を, 精度と雑音の両面において提供することにより, このギャップを埋める。
以上の結果から,選択したサブテンソルの選択がクロス近似の品質にどのように影響するかを示し,モデル誤差や測定誤差による近似誤差がテンソルの次数で指数関数的に増加することはないことを示した。
これらの結果は数値実験によって検証され、量子多体状態の記述に見られるような高次テンソルに対するクロス近似の有用性に重要な意味を持つ。
関連論文リスト
- High-Dimensional Tensor Discriminant Analysis with Incomplete Tensors [5.745276598549783]
本研究では,高次元線形判別分析における不完全データを用いたテンソル分類手法を提案する。
提案手法は,データ不足のかなりの割合であっても,シミュレーションや実データ解析において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-18T18:00:16Z) - Variance-Reducing Couplings for Random Features [57.73648780299374]
ランダム機能(RF)は、機械学習においてカーネルメソッドをスケールアップする一般的なテクニックである。
ユークリッド空間と離散入力空間の両方で定義されるRFを改善するための結合を求める。
パラダイムとしての分散還元の利点と限界について、驚くほどの結論に達した。
論文 参考訳(メタデータ) (2024-05-26T12:25:09Z) - TERM Model: Tensor Ring Mixture Model for Density Estimation [48.622060998018206]
本稿では,密度推定器のテンソルリング分解を行い,置換候補の数を著しく削減する。
適応重み付き複数の置換候補を組み込んだ混合モデルはさらに設計され、表現柔軟性が向上する。
このアプローチは、最適置換以外にも、最適置換が独特な情報を提供できることを認めている。
論文 参考訳(メタデータ) (2023-12-13T11:39:56Z) - Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Generative Modeling via Hierarchical Tensor Sketching [12.005736675688917]
経験的分布を用いた高次元確率密度近似のための階層的テンソルネットワーク手法を提案する。
結果のアルゴリズムの複雑さは高次元密度の次元で線形にスケールする。
論文 参考訳(メタデータ) (2023-04-11T15:55:13Z) - Optimizing Orthogonalized Tensor Deflation via Random Tensor Theory [5.124256074746721]
本稿では、ランダムノイズテンソルから相関成分を持つ低ランク信号テンソルを復元する問題に取り組む。
非直交成分はテンソルデフレレーション機構を変化させ、効率的に回復するのを防ぐことができる。
デフレレーション機構で導入されたパラメータを最適化することにより、効率的なテンソルデフレレーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-11T22:23:27Z) - On the Benefits of Large Learning Rates for Kernel Methods [110.03020563291788]
本稿では,カーネル手法のコンテキストにおいて,現象を正確に特徴付けることができることを示す。
分離可能なヒルベルト空間における2次対象の最小化を考慮し、早期停止の場合、学習速度の選択が得られた解のスペクトル分解に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2022-02-28T13:01:04Z) - Scaling and Scalability: Provable Nonconvex Low-Rank Tensor Estimation
from Incomplete Measurements [30.395874385570007]
基本的な課題は、高度に不完全な測定からテンソルを忠実に回収することである。
タッカー分解におけるテンソル因子を直接回復するアルゴリズムを開発した。
2つの正準問題に対する基底真理テンソルの線形独立率で確実に収束することを示す。
論文 参考訳(メタデータ) (2021-04-29T17:44:49Z) - Alternating linear scheme in a Bayesian framework for low-rank tensor
approximation [5.833272638548154]
ベイズ推論問題を解くことにより、与えられたテンソルの低ランク表現を見つける。
本稿では,テンソルトレイン方式で無音変換を行うアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-21T10:15:30Z) - Uncertainty quantification for nonconvex tensor completion: Confidence
intervals, heteroscedasticity and optimality [92.35257908210316]
本研究では,不完全かつ破損した観測によって与えられる低ランクテンソルを推定する問題について検討する。
改善不可能なレートをell-2$の精度で達成できることが分かりました。
論文 参考訳(メタデータ) (2020-06-15T17:47:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。