論文の概要: Normalized tensor train decomposition
- arxiv url: http://arxiv.org/abs/2511.04369v1
- Date: Thu, 06 Nov 2025 13:55:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.439354
- Title: Normalized tensor train decomposition
- Title(参考訳): 正規化テンソル列車分解
- Authors: Renfeng Peng, Chengkai Zhu, Bin Gao, Xin Wang, Ya-xiang Yuan,
- Abstract要約: 本稿では, テンソルを単位ノルムテンソルで近似することを目的とした, 正規化テンソルトレイン(NTT)分解を導入する。
NTT分解の低ランク構造は、記憶と計算コストを節約するだけでなく、基礎となる単位ノルム構造も維持する。
NTTを用いた低ランクテンソル復元法,高次元固有値問題,安定化器ランクの推定,量子チャネルの最小出力R'enyi2エントロピーの計算を提案する。
- 参考スコア(独自算出の注目度): 9.771283737093086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensors with unit Frobenius norm are fundamental objects in many fields, including scientific computing and quantum physics, which are able to represent normalized eigenvectors and pure quantum states. While the tensor train decomposition provides a powerful low-rank format for tackling high-dimensional problems, it does not intrinsically enforce the unit-norm constraint. To address this, we introduce the normalized tensor train (NTT) decomposition, which aims to approximate a tensor by unit-norm tensors in tensor train format. The low-rank structure of NTT decomposition not only saves storage and computational cost but also preserves the underlying unit-norm structure. We prove that the set of fixed-rank NTT tensors forms a smooth manifold, and the corresponding Riemannian geometry is derived, paving the way for geometric methods. We propose NTT-based methods for low-rank tensor recovery, high-dimensional eigenvalue problem, estimation of stabilizer rank, and calculation of the minimum output R\'enyi 2-entropy of quantum channels. Numerical experiments demonstrate the superior efficiency and scalability of the proposed NTT-based methods.
- Abstract(参考訳): 単位フロベニウスノルムを持つテンソルは、科学計算や量子物理学を含む多くの分野の基本対象であり、正規化された固有ベクトルや純粋量子状態を表現することができる。
テンソルトレイン分解は高次元問題に対処するための強力な低ランク形式を提供するが、本質的には単位ノルム制約を強制しない。
そこで本研究では, 単ノルムテンソルでテンソルを近似する正規化テンソルトレイン(NTT)をテンソルトレイン形式で導入する。
NTT分解の低ランク構造は、記憶と計算コストを節約するだけでなく、基礎となる単位ノルム構造も維持する。
我々は、固定ランクNTTテンソルの集合が滑らかな多様体を形成し、対応するリーマン幾何学が導出され、幾何学的方法の道が開かれたことを証明した。
我々は,NTTを用いた低ランクテンソル復元法,高次元固有値問題,安定化器ランクの推定,量子チャネルの最小出力R'enyi 2エントロピーの計算を提案する。
数値実験により提案手法の効率性と拡張性を実証した。
関連論文リスト
- Normalized Iterative Hard Thresholding for Tensor Recovery [7.5277782201584085]
低ランク回復は圧縮センシングの理論に基づく。
我々は、低ランクテンソルの回復のために、NIHTのテンソル拡張(TNIHT)を提案する。
論文 参考訳(メタデータ) (2025-07-06T03:36:50Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - MNT-TNN: Spatiotemporal Traffic Data Imputation via Compact Multimode Nonlinear Transform-based Tensor Nuclear Norm [45.59831141171801]
現代のコミュニケーション技術は、価値計算の欠如に新たな課題をもたらしている。
マルチモード変換核ノルム(MNSS-TNN)に基づく新しい計算法を提案する。
また,計算結果を改善するために,ATTNN(Augmented Transform-based Nuclear Norm Families)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-29T02:58:31Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Low-Rank Tensor Learning by Generalized Nonconvex Regularization [25.115066273660478]
低ランクテンソル学習の問題点について検討し, 基礎となるテンソルを観測するサンプルはごくわずかである。
非テンソル学習関数の族は、基礎となるテンソルの低ランク性を特徴づけるために用いられる。
結果の大量化最小化を解決するために設計されたアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T03:33:20Z) - On Model Compression for Neural Networks: Framework, Algorithm, and Convergence Guarantee [21.818773423324235]
本稿では,低ランク近似と重み近似の2つのモデル圧縮手法に焦点を当てた。
本稿では,非最適化の新たな視点から,モデル圧縮のための全体論的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-13T02:14:42Z) - Robust Tensor Principal Component Analysis: Exact Recovery via
Deterministic Model [5.414544833902815]
本稿では,ロバストテンソル主成分分析法(RTPCA)を提案する。
これは最近開発されたテンソルテンソル積とテンソル特異値分解(t-SVD)に基づいている。
論文 参考訳(メタデータ) (2020-08-05T16:26:10Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Multi-View Spectral Clustering Tailored Tensor Low-Rank Representation [105.33409035876691]
本稿では,テンソル低ランクモデルに基づくマルチビュースペクトルクラスタリング(MVSC)の問題について検討する。
MVSCに適合する新しい構造テンソル低ランクノルムを設計する。
提案手法は最先端の手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-04-30T11:52:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。