論文の概要: Reparameterized Tensor Ring Functional Decomposition for Multi-Dimensional Data Recovery
- arxiv url: http://arxiv.org/abs/2603.01034v2
- Date: Fri, 06 Mar 2026 06:24:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:43.870056
- Title: Reparameterized Tensor Ring Functional Decomposition for Multi-Dimensional Data Recovery
- Title(参考訳): 多次元データ復元のための再パラメータ化テンソルリング関数分解
- Authors: Yangyang Xu, Junbo Ke, You-Wei Wen, Chao Wang,
- Abstract要約: Ring(TR)分解は高次データモデリングの強力なツールである。
メッシュグリッドデータと非メシュグリッドデータの両方に対するTR関数分解を提案する。
TR因子のスペクトル構造が再構成テンソルの周波数組成を決定することを示す。
- 参考スコア(独自算出の注目度): 14.632447227551864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor Ring (TR) decomposition is a powerful tool for high-order data modeling, but is inherently restricted to discrete forms defined on fixed meshgrids. In this work, we propose a TR functional decomposition for both meshgrid and non-meshgrid data, where factors are parameterized by Implicit Neural Representations (INRs). However, optimizing this continuous framework to capture fine-scale details is intrinsically difficult. Through a frequency-domain analysis, we demonstrate that the spectral structure of TR factors determines the frequency composition of the reconstructed tensor and limits the high-frequency modeling capacity. To mitigate this, we propose a reparameterized TR functional decomposition, in which each TR factor is a structured combination of a learnable latent tensor and a fixed basis. This reparameterization is theoretically shown to improve the training dynamics of TR factor learning. We further derive a principled initialization scheme for the fixed basis and prove the Lipschitz continuity of our proposed model. Extensive experiments on image inpainting, denoising, super-resolution, and point cloud recovery demonstrate that our method achieves consistently superior performance over existing approaches. Code is available at https://github.com/YangyangXu2002/RepTRFD.
- Abstract(参考訳): テンソルリング(TR)分解は高次データモデリングの強力なツールであるが、本質的には固定メッシュグリッド上で定義された離散形式に限定されている。
本研究では,Inmplicit Neural Representations (INR) によってパラメータ化されるメッシュグリッドおよび非メシュグリッドデータのTR関数分解を提案する。
しかし、この継続的フレームワークを微妙な詳細を捉えるために最適化するのは本質的に難しい。
周波数領域解析により、TR因子のスペクトル構造が再構成テンソルの周波数組成を決定し、高周波モデリング能力を制限することを示した。
これを緩和するために、各TR因子が学習可能な潜在テンソルと固定基底の構造化結合である再パラメータ化されたTR関数分解を提案する。
この再パラメータ化は、TR因子学習のトレーニングダイナミクスを改善するために理論的に示されている。
さらに、固定基底に対する原理的初期化スキームを導出し、提案したモデルのリプシッツ連続性を証明する。
画像のインペイント,デノイング,超解像,点雲回復に関する広範囲な実験により,本手法が既存手法よりも一貫して優れた性能を発揮することを示す。
コードはhttps://github.com/YangyangXu2002/RepTRFDで入手できる。
関連論文リスト
- FUTON: Fourier Tensor Network for Implicit Neural Representations [56.48739018255443]
入射神経表現(INR)はシグナルを符号化する強力なツールとして現れてきたが、支配的な設計はしばしば収束が遅く、ノイズに過度に適応し、外挿が不十分である。
低ランクテンソル分解により係数がパラメータ化される一般化フーリエ級数として信号をモデル化するFUTONを導入する。
論文 参考訳(メタデータ) (2026-02-13T19:31:44Z) - When Bayesian Tensor Completion Meets Multioutput Gaussian Processes: Functional Universality and Rank Learning [53.17227599983122]
関数テンソル分解は実数値インデックスを用いて多次元データを解析することができる。
そこで本研究では,Right-Revealing Functional Low-rank tensor completion (RR-F)法を提案する。
連続多次元信号に対するモデルの普遍近似特性を確立する。
論文 参考訳(メタデータ) (2025-12-25T03:15:52Z) - Interlaced dynamic XCT reconstruction with spatio-temporal implicit neural representations [0.0]
Inmplicit Neural Representations を用いた動的X線CT(Dynamic X-ray Computed Tomography)再構成の検討を行った。
提案手法は,ADMMに基づく最適化と,事前知識を組み込んだ条件付けフレームワークINCODEを組み合わせることで,効率的な収束を実現する。
全ての設定において、我々のモデルは強力なパフォーマンスのロバスト性を実現し、最先端のモデルベース反復法であるTIMBIR(Time-Inter Model-Based Iter Reconstruction)より優れている。
論文 参考訳(メタデータ) (2025-10-09T01:33:58Z) - Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - Low-Rank Tensor Recovery via Variational Schatten-p Quasi-Norm and Jacobian Regularization [49.85875869048434]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
本研究では、スペーサーCP分解を実現するために、冗長なランク1成分に変分Schatten-p quasi-normを導入する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - F-INR: Functional Tensor Decomposition for Implicit Neural Representations [7.183424522250937]
Implicit Representation (INR) は、ニューラルネットワークを用いて離散信号を連続的に微分可能な関数に符号化する強力なツールとして登場した。
機能的分解によりINR学習を再構築し,高次元タスクを軽量な軸特化サブネットワークに分割するフレームワークF-INRを提案する。
論文 参考訳(メタデータ) (2025-03-27T13:51:31Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - Scalable and Robust Tensor Ring Decomposition for Large-scale Data [12.02023514105999]
本稿では,大規模テンソルデータに欠落したエントリと粗悪な破損を扱えるスケーラブルで堅牢なTR分解アルゴリズムを提案する。
まず, 欠落したエントリを適応的に満たし, 分解過程における外れ値の同定が可能な, 自己重み付き急勾配降下法を開発した。
論文 参考訳(メタデータ) (2023-05-15T22:08:47Z) - Large-scale Dynamic Network Representation via Tensor Ring Decomposition [0.0]
大規模動的ネットワーク(LDN)はインターネット時代においてますます重要になっている。
本研究では、LDNの効率的な表現学習のためのRing(TR)分解に基づくモデルを提案する。
2つの実LDNに関する実験的研究により,提案手法が既存モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-04-18T08:02:48Z) - Spectral Tensor Train Parameterization of Deep Learning Layers [136.4761580842396]
重み行列の低ランクパラメータ化をDeep Learningコンテキストに埋め込まれたスペクトル特性を用いて検討する。
分類設定におけるニューラルネットワーク圧縮の効果と,生成的対角トレーニング設定における圧縮および安定性トレーニングの改善について述べる。
論文 参考訳(メタデータ) (2021-03-07T00:15:44Z) - A Unified Framework for Coupled Tensor Completion [42.19293115131073]
結合テンソル分解は、潜在結合因子に由来する事前知識を組み込むことで、結合データ構造を明らかにする。
TRは強力な表現能力を持ち、いくつかの多次元データ処理アプリケーションで成功している。
提案手法は, 合成データに関する数値実験で検証され, 実世界のデータに対する実験結果は, 回収精度の観点から, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-09T02:15:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。