論文の概要: Low-Rank Implicit Neural Representation via Schatten-p Quasi-Norm and Jacobian Regularization
- arxiv url: http://arxiv.org/abs/2506.22134v1
- Date: Fri, 27 Jun 2025 11:23:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.185597
- Title: Low-Rank Implicit Neural Representation via Schatten-p Quasi-Norm and Jacobian Regularization
- Title(参考訳): Schatten-p Quasi-NormとJacobian正則化による低ランク入射ニューラル表現
- Authors: Zhengyun Cheng, Changhao Wang, Guanwen Zhang, Yi Xu, Wei Zhou, Xiangyang Ji,
- Abstract要約: 暗黙的神経表現のためのニューラルネットワークによりパラメータ化されたCPベースの低ランクテンソル関数を提案する。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
提案した滑らか度正規化はSVDフリーであり、明示的な連鎖規則の導出を避ける。
- 参考スコア(独自算出の注目度): 49.158601255093416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Higher-order tensors are well-suited for representing multi-dimensional data, such as color images and videos. Low-rank tensor representation has become essential in machine learning and computer vision, but existing methods like Tucker decomposition offer flexibility at the expense of interpretability. In contrast, while the CANDECOMP/PARAFAC (CP) decomposition provides a more natural and interpretable tensor structure, obtaining sparse solutions remains challenging. Leveraging the rich properties of CP decomposition, we propose a CP-based low-rank tensor function parameterized by neural networks for implicit neural representation (CP-INR). This approach enables continuous data representation beyond structured grids, fully exploiting the non-linearity of tensor data with theoretical guarantees on excess risk bounds. To achieve a sparse CP decomposition, we introduce a variational form of the Schatten-p quasi-norm and prove its relationship to multilinear rank minimization. For smoothness, we propose a regularization term based on the spectral norm of the Jacobian and Hutchinson's trace estimator. Our proposed smoothness regularization is SVD-free and avoids explicit chain rule derivations. It can serve as an alternative to Total Variation (TV) regularization in image denoising tasks and is naturally applicable to continuous data. Extensive experiments on multi-dimensional data recovery tasks, including image inpainting, denoising, and point cloud upsampling, demonstrate the superiority and versatility of our method compared to state-of-the-art approaches.
- Abstract(参考訳): 高次テンソルは、カラー画像やビデオなどの多次元データを表現するのに適している。
低ランクテンソル表現は機械学習やコンピュータビジョンにおいて欠かせないものとなっているが、タッカー分解のような既存の手法は、解釈容易性を犠牲にして柔軟性を提供する。
対照的に、CANDECOMP/PARAFAC(CP)分解はより自然で解釈可能なテンソル構造を提供するが、スパース解を得るのは難しい。
CP分解のリッチな特性を活用し,暗黙的ニューラル表現(CP-INR)のためのニューラルネットワークによってパラメータ化されたCPベースの低ランクテンソル関数を提案する。
このアプローチは、構造化グリッドを超えた連続データ表現を可能にし、過剰なリスク境界に関する理論的保証でテンソルデータの非線形性を完全に活用する。
スパースCP分解を実現するために、Schatten-p quasi-normの変分形式を導入し、マルチ線形階数最小化との関係を証明した。
滑らか性のために、ヤコビアンとハッチンソンのトレース推定器のスペクトルノルムに基づく正規化項を提案する。
提案した滑らか度正規化はSVDフリーであり、明示的な連鎖規則の導出を避ける。
画像復調タスクにおける全変量(TV)正規化の代替として機能し、連続データに自然に適用できる。
画像の塗り絵やデノイング,点雲のアップサンプリングなど多次元データ復元タスクに関する大規模な実験は,最先端の手法と比較して,本手法の優位性と汎用性を実証している。
関連論文リスト
- Score-Based Model for Low-Rank Tensor Recovery [49.158601255093416]
低ランクテンソル分解(TD)は、マルチウェイデータ解析に有効なフレームワークを提供する。
従来のTD法は、CPやタッカー分解のような事前定義された構造的仮定に依存している。
本稿では,事前定義された構造的仮定や分布的仮定の必要性を排除したスコアベースモデルを提案する。
論文 参考訳(メタデータ) (2025-06-27T15:05:37Z) - TensorGRaD: Tensor Gradient Robust Decomposition for Memory-Efficient Neural Operator Training [91.8932638236073]
textbfTensorGRaDは,重み付けに伴うメモリ問題に直接対処する新しい手法である。
SparseGRaD は総メモリ使用量を 50% 以上削減し,同時に精度も向上することを示した。
論文 参考訳(メタデータ) (2025-01-04T20:51:51Z) - tCURLoRA: Tensor CUR Decomposition Based Low-Rank Parameter Adaptation and Its Application in Medical Image Segmentation [1.3281936946796913]
伝達学習は、事前訓練されたモデルからの知識を活用することで、目標タスクの性能を大幅に向上させた。
ディープニューラルネットワークのスケールアップに伴って、フル微調整によって、計算とストレージの大幅な課題がもたらされる。
テンソルCUR分解に基づく新しい微調整法であるtCURLoRAを提案する。
論文 参考訳(メタデータ) (2025-01-04T08:25:32Z) - OTLRM: Orthogonal Learning-based Low-Rank Metric for Multi-Dimensional Inverse Problems [14.893020063373022]
学習可能な直交変換に基づく新しいデータ駆動型低ランクt-SVDモデルを提案する。
また、生成ネットワークの効率的な表現を利用して低ランク構造を得るSVTの一般化として低ランク解法を提案する。
論文 参考訳(メタデータ) (2024-12-15T12:28:57Z) - Irregular Tensor Low-Rank Representation for Hyperspectral Image Representation [71.69331824668954]
スペクトル変動は、ハイパースペクトル画像(HSI)解析において共通の課題となる
低ランクテンソル表現は、HSIデータに固有の相関を利用して、堅牢な戦略として登場した。
本研究では,不規則な3次元立方体を効率的にモデル化するために,不規則なテンソルローランク表現のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-10-24T02:56:22Z) - Enabling Tensor Decomposition for Time-Series Classification via A Simple Pseudo-Laplacian Contrast [26.28414569796961]
本稿では, Pseudo Laplacian Contrast (PLC) テンソル分解フレームワークを提案する。
データ拡張とラプラシアンのクロスビューを統合し、クラス認識表現の抽出を可能にする。
様々なデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2024-09-23T16:48:13Z) - Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery [52.21846313876592]
低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
論文 参考訳(メタデータ) (2022-12-01T04:00:38Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Multi-View Spectral Clustering Tailored Tensor Low-Rank Representation [105.33409035876691]
本稿では,テンソル低ランクモデルに基づくマルチビュースペクトルクラスタリング(MVSC)の問題について検討する。
MVSCに適合する新しい構造テンソル低ランクノルムを設計する。
提案手法は最先端の手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-04-30T11:52:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。