論文の概要: A New Tensor Network: Tubal Tensor Train and Its Applications
- arxiv url: http://arxiv.org/abs/2603.10503v1
- Date: Wed, 11 Mar 2026 07:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.836128
- Title: A New Tensor Network: Tubal Tensor Train and Its Applications
- Title(参考訳): 新しいテンソルネットワーク:ツバルテンソルトレインとその応用
- Authors: Salman Ahmadi-Asl, Valentin Leplat, Anh-Huy Phan, Andrzej Cichocki,
- Abstract要約: 本稿では、テンソル特異値分解(T-SVD)のt積代数とテンソルトレイン(TT)形式の低次コア構造を組み合わせたテンソルネットワークモデルを提案する。
チューブモードの異なるオーダー-$(N+1)$テンソルに対して、提案された表現は、2つの3階境界コアと、t積を介して連結された4階内コアからなる。
TTT-SVDと呼ばれる逐次固定ランク構成と、交互2つに基づくフーリエスライス交互方式の2つの計算戦略を提案する。
- 参考スコア(独自算出の注目度): 10.565025424588208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the tubal tensor train (TTT) decomposition, a tensor-network model that combines the t-product algebra of the tensor singular value decomposition (T-SVD) with the low-order core structure of the tensor train (TT) format. For an order-$(N+1)$ tensor with a distinguished tube mode, the proposed representation consists of two third-order boundary cores and $N-2$ fourth-order interior cores linked through the t-product. As a result, for bounded tubal ranks, the storage scales linearly with the number of modes, in contrast to direct high-order extensions of T-SVD. We present two computational strategies: a sequential fixed-rank construction, called TTT-SVD, and a Fourier-slice alternating scheme based on the alternating two-cores update (ATCU). We also state a TT-SVD-type error bound for TTT-SVD and illustrate the practical performance of the proposed model on image compression, video compression, tensor completion, and hyperspectral imaging.
- Abstract(参考訳): 本研究では、テンソル特異値分解(T-SVD)のt積代数とテンソルトレイン(TT)形式の低次コア構造を組み合わせたテンソル-ネットワークモデルであるTTT分解を導入する。
チューブモードの異なるオーダー-$(N+1)$テンソルに対して、提案された表現は、2つの3階境界コアと、t積を介して連結された4階内コアからなる。
その結果,T-SVDの直接的高次拡張とは対照的に,有界管位はモード数と線形にスケールする。
本稿では,TTT-SVDと呼ばれる逐次固定ランク構成と,2コア交互更新(ATCU)に基づくフーリエスライス方式の2つの計算手法を提案する。
また、TT-SVDのTT-SVD型誤差境界を記述し、画像圧縮、ビデオ圧縮、テンソル完了、ハイパースペクトル画像における提案モデルの実用的性能を示す。
関連論文リスト
- Normalized tensor train decomposition [9.771283737093086]
本稿では, テンソルを単位ノルムテンソルで近似することを目的とした, 正規化テンソルトレイン(NTT)分解を導入する。
NTT分解の低ランク構造は、記憶と計算コストを節約するだけでなく、基礎となる単位ノルム構造も維持する。
NTTを用いた低ランクテンソル復元法,高次元固有値問題,安定化器ランクの推定,量子チャネルの最小出力R'enyi2エントロピーの計算を提案する。
論文 参考訳(メタデータ) (2025-11-06T13:55:33Z) - Test time training enhances in-context learning of nonlinear functions [51.56484100374058]
テストタイムトレーニング(TTT)は、各予測に先立って指定されたパラメータを明示的に更新することで、モデル性能を向上させる。
本研究では,TTTとテキスト内学習(ICL)の組み合わせについて検討する。
論文 参考訳(メタデータ) (2025-09-30T03:56:44Z) - Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [48.46721044282335]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
その結果,TDNは計算処理の劇的な高速化と競合する性能を示した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Robust Low-rank Tensor Train Recovery [27.29463801531576]
train (TT) 分解は、小さな次元の行列を$O(N)$を使用する$N$のテンソルを表す。
そのコンパクトな表現のため、TT分解は信号処理や量子情報に広く応用されている。
論文 参考訳(メタデータ) (2024-10-19T21:59:50Z) - Tangent Transformers for Composition, Privacy and Removal [58.280295030852194]
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
TAFT(Tangent Attention Fine-Tuning)は、線形変換器の微調整方法である。
論文 参考訳(メタデータ) (2023-07-16T18:31:25Z) - Multi-mode Tensor Train Factorization with Spatial-spectral
Regularization for Remote Sensing Images Recovery [1.3272510644778104]
マルチモードTT因子化と空間スペクトルの滑らか度正規化による新しい低MTTランクテンソル完備化モデルを提案する。
MTTD3R法は,視覚的,定量的に比較した手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-05-05T07:36:08Z) - Exploiting Low-Rank Tensor-Train Deep Neural Networks Based on
Riemannian Gradient Descent With Illustrations of Speech Processing [74.31472195046099]
我々は、低ランクテンソルトレイン深層ニューラルネットワーク(TT-DNN)を用いて、エンドツーエンドのディープラーニングパイプライン、すなわちLR-TT-DNNを構築する。
LR-TT-DNNと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドモデルを構築し、性能を向上する。
我々の実証的な証拠は、モデルパラメータが少ないLR-TT-DNNとCNN+(LR-TT-DNN)モデルが、TT-DNNとCNN+(LR-TT-DNN)モデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-03-11T15:55:34Z) - Multi-Tensor Network Representation for High-Order Tensor Completion [25.759851542474447]
この研究は、部分的に観察されたサンプリングから高次元データ(テンソルを参照)の完備化の問題を研究する。
テンソルは複数の低ランク成分の重ね合わせであると考える。
本稿では,基本テンソル分解フレームワークであるMulti-Tensor Network decomposition (MTNR)を提案する。
論文 参考訳(メタデータ) (2021-09-09T03:50:19Z) - T-Basis: a Compact Representation for Neural Networks [89.86997385827055]
テンソルの集合をコンパクトに表現するための概念である T-Basis をニューラルネットワークでよく見られる任意の形状で導入する。
ニューラルネットワーク圧縮の課題に対する提案手法の評価を行い, 許容性能低下時に高い圧縮速度に達することを示す。
論文 参考訳(メタデータ) (2020-07-13T19:03:22Z) - Tensor train rank minimization with nonlocal self-similarity for tensor
completion [27.727973182796678]
テンソルトレイン(TT)のランクは、高次テンソルのグローバルな相関を捉える能力により、テンソルコンプリートにおいて注目されている。
3階の視覚データでは、TTランクの最小化は高階テンソルのTTランクの可能性を生かしていない。
視覚データにおける空間的・時間的・スペクトル的・非局所的冗長性を同時に探索することにより、テンソル完了のための非局所自己相似性を有するTTランク最小化を提案する。
論文 参考訳(メタデータ) (2020-04-29T15:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。