論文の概要: LRTuckerRep: Low-rank Tucker Representation Model for Multi-dimensional Data Completion
- arxiv url: http://arxiv.org/abs/2508.03755v1
- Date: Mon, 04 Aug 2025 06:57:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.370014
- Title: LRTuckerRep: Low-rank Tucker Representation Model for Multi-dimensional Data Completion
- Title(参考訳): LRTuckerRep:多次元データ補完のための低ランクタッカー表現モデル
- Authors: Wenwu Gong, Lili Yang,
- Abstract要約: 多次元データ補完は計算科学において重要な問題である。
本研究では,タッカー分解におけるグローバルおよびローカルな事前処理を統一する,低ランクタッカー表現(LRTuckerRep)モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-dimensional data completion is a critical problem in computational sciences, particularly in domains such as computer vision, signal processing, and scientific computing. Existing methods typically leverage either global low-rank approximations or local smoothness regularization, but each suffers from notable limitations: low-rank methods are computationally expensive and may disrupt intrinsic data structures, while smoothness-based approaches often require extensive manual parameter tuning and exhibit poor generalization. In this paper, we propose a novel Low-Rank Tucker Representation (LRTuckerRep) model that unifies global and local prior modeling within a Tucker decomposition. Specifically, LRTuckerRep encodes low rankness through a self-adaptive weighted nuclear norm on the factor matrices and a sparse Tucker core, while capturing smoothness via a parameter-free Laplacian-based regularization on the factor spaces. To efficiently solve the resulting nonconvex optimization problem, we develop two iterative algorithms with provable convergence guarantees. Extensive experiments on multi-dimensional image inpainting and traffic data imputation demonstrate that LRTuckerRep achieves superior completion accuracy and robustness under high missing rates compared to baselines.
- Abstract(参考訳): 多次元データ補完は計算科学、特にコンピュータビジョン、信号処理、科学計算などの分野において重要な問題である。
既存の手法は通常、グローバルな低ランク近似または局所的滑らか度正規化のいずれかを利用するが、それぞれに顕著な制限がある。
本稿では,タッカー分解におけるグローバルおよび局所的な事前モデリングを統一する,新しい低ランクタッカー表現(LRTuckerRep)モデルを提案する。
具体的には、LRTuckerRepは、係数行列とスパースタッカーコア上の自己適応重み付き核ノルムを通して低ランクを符号化し、パラメータフリーのラプラシアンベースの因子空間上の正規化により滑らかさをキャプチャする。
結果の非凸最適化問題を効率的に解くために,証明可能な収束保証付き反復アルゴリズムを2つ開発した。
LRTuckerRepは,多次元画像の塗装とトラヒックデータ計算の広範囲な実験により,ベースラインに比べて高い損失率で良好な完成精度とロバスト性が得られることを示した。
関連論文リスト
- Low-Rank Implicit Neural Representation via Schatten-p Quasi-Norm and Jacobian Regularization [49.158601255093416]
暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
提案した滑らか度正規化はSVDフリーであり、明示的な連鎖規則の導出を避ける。
論文 参考訳(メタデータ) (2025-06-27T11:23:10Z) - Generalized Least Squares Kernelized Tensor Factorization [19.284198191705027]
テンソル完備化のための一般化Last Squares Kernelized Factorization (GL) フレームワークについて述べる。
GLは低ランク分解と局所的に相関した残留過程を統合する。
提案するフレームワークは,空間的タスクにまたがる4つの実世界のデータセットで評価される。
論文 参考訳(メタデータ) (2024-12-09T23:01:04Z) - Pointerformer: Deep Reinforced Multi-Pointer Transformer for the
Traveling Salesman Problem [67.32731657297377]
トラベリングセールスマン問題(TSP)は、もともと輸送と物流の領域で発生した古典的な経路最適化問題である。
近年, 深層強化学習は高い推論効率のため, TSP の解法として採用されている。
本稿では,多点変換器をベースとした新しいエンドツーエンドDRL手法であるPointerformerを提案する。
論文 参考訳(メタデータ) (2023-04-19T03:48:32Z) - Tucker-O-Minus Decomposition for Multi-view Tensor Subspace Clustering [36.790637575875635]
マルチビュークラスタリングのための新しいテンソル分解法Tucker-O-Minus Decomposition (TOMD)を提案する。
6つのベンチマークデータセットの数値実験により,Fスコア,精度,リコール,正規化相互情報,調整されたランドインデックス,精度の観点から,提案手法の優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T07:20:22Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Quasi-Newton Solver for Robust Non-Rigid Registration [35.66014845211251]
データフィッティングと正規化のための大域的スムーズなロバスト推定器に基づくロバストな非剛性登録のための定式化を提案する。
本稿では,L-BFGS を用いた最小二乗問題の解法に,各繰り返しを減らし,最大化最小化アルゴリズムを適用した。
論文 参考訳(メタデータ) (2020-04-09T01:45:05Z) - Online stochastic gradient descent on non-convex losses from
high-dimensional inference [2.2344764434954256]
勾配降下(SGD)は高次元タスクにおける最適化問題に対する一般的なアルゴリズムである。
本稿では,データから非自明な相関関係を推定する。
本稿では、位相探索や一般化モデルの推定といった一連のタスクに適用することで、我々のアプローチを説明する。
論文 参考訳(メタデータ) (2020-03-23T17:34:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。