論文の概要: Recursive Sketched Interpolation: Efficient Hadamard Products of Tensor Trains
- arxiv url: http://arxiv.org/abs/2602.17974v1
- Date: Fri, 20 Feb 2026 04:07:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.222751
- Title: Recursive Sketched Interpolation: Efficient Hadamard Products of Tensor Trains
- Title(参考訳): Recursive Sketched Interpolation: テンソルトレインの効率的なアダマール製品
- Authors: Zhaonan Meng, Yuehaw Khoo, Jiajia Li, E. Miles Stoudenmire,
- Abstract要約: テンソルトレイン(TT)形式における2つのテンソルのアダマール積は、様々な応用における基本的な操作である。
本稿では,TTのアダマール積を計算コストで計算するスケール製品'アルゴリズムであるRecursive Sketched Interpolation (RSI)を紹介する。
- 参考スコア(独自算出の注目度): 3.1007879499686957
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The Hadamard product of two tensors in the tensor-train (TT) format is a fundamental operation across various applications, such as TT-based function multiplication for nonlinear differential equations or convolutions. However, conventional methods for computing this product typically scale as at least $\mathcal{O}(χ^4)$ with respect to the TT bond dimension (TT-rank) $χ$, creating a severe computational bottleneck in practice. By combining randomized tensor-train sketching with slice selection via interpolative decomposition, we introduce Recursive Sketched Interpolation (RSI), a ``scale product'' algorithm that computes the Hadamard product of TTs at a computational cost of $\mathcal{O}(χ^3)$. Benchmarks across various TT scenarios demonstrate that RSI offers superior scalability compared to traditional methods while maintaining comparable accuracy. We generalize RSI to compute more complex operations, including Hadamard products of multiple TTs and other element-wise nonlinear mappings, without increasing the complexity beyond $\mathcal{O}(χ^3)$.
- Abstract(参考訳): テンソルトレイン(TT)形式の2つのテンソルのアダマール積は、非線形微分方程式や畳み込みに対するTTベースの関数乗法など、様々な応用における基本的な演算である。
しかしながら、この製品の従来の計算方法は、TT結合次元(TT-rank)について、少なくとも$\mathcal{O}(a^4)$としてスケールし、実際は深刻な計算ボトルネックを生み出す。
乱数化テンソルトレインスケッチと補間分解によるスライス選択を組み合わせることで, TTのアダマール積を計算コスト$\mathcal{O}(a^3)$で計算する'スケール積'アルゴリズムであるRecursive Sketched Interpolation(RSI)を導入する。
様々なTTシナリオのベンチマークは、RSIが従来の手法に比べて優れたスケーラビリティを提供しながら、同等の精度を維持していることを示している。
我々は RSI を一般化してより複雑な演算を計算し、例えば複数のTTのアダマール積や、その他の要素ワイドな非線形写像は、$\mathcal{O}(a^3)$ 以上の複雑さを増すことなく計算する。
関連論文リスト
- Block encoding of sparse matrices with a periodic diagonal structure [67.45502291821956]
周期的な対角構造を持つスパース行列を符号化するための明示的な量子回路を提供する。
本手法の様々な応用は, 微分問題を解く文脈で論じる。
論文 参考訳(メタデータ) (2026-02-11T07:24:33Z) - Approximation and learning with compositional tensor trains [0.6089496237595778]
多変量関数の近似のための合成テンソルトレイン(CTT)を導入する。
CTTは合成モデルの表現率とテンソル代数のアルゴリズム的効率を結合する。
論文 参考訳(メタデータ) (2025-12-19T20:59:48Z) - Polar Separable Transform for Efficient Orthogonal Rotation-Invariant Image Representation [10.420952921069759]
極座標の非分離障壁を克服する分離直交変換であるtextbfPSepT (Polar Separable Transform) を導入する。
その結果、構造化データセット上での数値安定性、計算効率、および競合分類性能が向上した。
このフレームワークは従来の手法では実現不可能な高次モーメント解析を可能にし、ロバストな画像解析アプリケーションのための新たな可能性を開く。
論文 参考訳(メタデータ) (2025-10-10T08:26:09Z) - Tensor Decomposition Networks for Fast Machine Learning Interatomic Potential Computations [48.46721044282335]
テンソル分解ネットワーク(TDN)は、計算処理の劇的な高速化と競合する性能を実現する。
1億5500万のDFT計算スナップショットを含む分子緩和データセットPubChemQCRのTDNを評価した。
その結果,TDNは計算処理の劇的な高速化と競合する性能を示した。
論文 参考訳(メタデータ) (2025-07-01T18:46:27Z) - Tensor Train Multiplication [0.0]
TTMアルゴリズムの計算複雑性とメモリ要件はそれぞれ$chi3$と$chi2$である。
これは従来のアプローチに比べて大幅に改善されている。
TTMアルゴリズムは、大きな結合次元を持つ計算流体力学問題のGPU加速テンソルネットワークシミュレーションへの道を開く。
論文 参考訳(メタデータ) (2024-10-10T12:36:49Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Stochastic Optimization for Non-convex Problem with Inexact Hessian
Matrix, Gradient, and Function [99.31457740916815]
信頼領域(TR)と立方体を用いた適応正則化は、非常に魅力的な理論的性質を持つことが証明されている。
TR法とARC法はヘッセン関数,勾配関数,関数値の非コンパクトな計算を同時に行うことができることを示す。
論文 参考訳(メタデータ) (2023-10-18T10:29:58Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Complex-to-Real Sketches for Tensor Products with Applications to the
Polynomial Kernel [15.535749953841274]
p$ベクトルの積のランダム化されたスケッチは、統計効率と計算加速度のトレードオフに従う。
本稿では、実乱射影を複素射影に置き換える、よく知られたスケッチの単純な複素対Real (CtR) 修正を提案する。
本手法は,文献の他のランダム化近似と比較して,精度と速度の面で最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-02-04T09:15:43Z) - On Function Approximation in Reinforcement Learning: Optimism in the
Face of Large State Spaces [208.67848059021915]
強化学習のコアにおける探索・探索トレードオフについて検討する。
特に、関数クラス $mathcalF$ の複雑さが関数の複雑さを特徴づけていることを証明する。
私たちの後悔の限界はエピソードの数とは無関係です。
論文 参考訳(メタデータ) (2020-11-09T18:32:22Z) - Alternating minimization algorithms for graph regularized tensor
completion [8.26185178671935]
我々は、低ランクテンソル完備化(LRTC)に対するカノニカルポリアディック(CP)分解法を考える。
グラフ正規化の使用にはLRTCの学習精度のメリットが伴うが、同時に結合グラフラプラシア語を誘導する。
基礎となるCP分解モデルにおけるブロック構造を利用して, 効率の良い同期最小化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-28T23:20:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。