論文の概要: Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery
- arxiv url: http://arxiv.org/abs/2212.00262v1
- Date: Thu, 1 Dec 2022 04:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 15:38:38.070558
- Title: Low-Rank Tensor Function Representation for Multi-Dimensional Data
Recovery
- Title(参考訳): 多次元データ復元のための低ランクテンソル関数表現
- Authors: Yisi Luo, Xile Zhao, Zhemin Li, Michael K. Ng, Deyu Meng
- Abstract要約: 低ランクテンソル関数表現(LRTFR)は、無限解像度でメッシュグリッドを超えてデータを連続的に表現することができる。
テンソル関数に対する2つの基本的な概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
提案手法は,最先端手法と比較して,提案手法の優越性と汎用性を裏付けるものである。
- 参考スコア(独自算出の注目度): 52.21846313876592
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since higher-order tensors are naturally suitable for representing
multi-dimensional data in real-world, e.g., color images and videos, low-rank
tensor representation has become one of the emerging areas in machine learning
and computer vision. However, classical low-rank tensor representations can
only represent data on finite meshgrid due to their intrinsical discrete
nature, which hinders their potential applicability in many scenarios beyond
meshgrid. To break this barrier, we propose a low-rank tensor function
representation (LRTFR), which can continuously represent data beyond meshgrid
with infinite resolution. Specifically, the suggested tensor function, which
maps an arbitrary coordinate to the corresponding value, can continuously
represent data in an infinite real space. Parallel to discrete tensors, we
develop two fundamental concepts for tensor functions, i.e., the tensor
function rank and low-rank tensor function factorization. We theoretically
justify that both low-rank and smooth regularizations are harmoniously unified
in the LRTFR, which leads to high effectiveness and efficiency for data
continuous representation. Extensive multi-dimensional data recovery
applications arising from image processing (image inpainting and denoising),
machine learning (hyperparameter optimization), and computer graphics (point
cloud upsampling) substantiate the superiority and versatility of our method as
compared with state-of-the-art methods. Especially, the experiments beyond the
original meshgrid resolution (hyperparameter optimization) or even beyond
meshgrid (point cloud upsampling) validate the favorable performances of our
method for continuous representation.
- Abstract(参考訳): 高階テンソルは、例えばカラー画像やビデオなどの実世界の多次元データを表現するのに自然に適しているため、低階テンソル表現は機械学習やコンピュータビジョンの新興分野の一つとなっている。
しかしながら、古典的な低ランクテンソル表現は、本質的に離散的な性質のため、有限メッシュグリッド上のデータしか表現できない。
この障壁を断ち切るために,メッシュグリッドを越えるデータを無限解像度で連続的に表現できる低ランクテンソル関数表現(LRTFR)を提案する。
具体的には、任意の座標を対応する値にマッピングするテンソル関数は、無限実空間におけるデータを連続的に表現することができる。
離散テンソルと平行して、テンソル関数の2つの基本概念、すなわちテンソル関数ランクとローランクテンソル関数分解を開発する。
理論的には、低ランクかつ滑らかな正規化はLRTFRにおいて調和的に統一され、データの連続表現に高い効率と効率をもたらす。
画像処理(画像インパインティングとノイズ除去)、機械学習(ハイパーパラメータ最適化)、およびコンピュータグラフィックス(ポイントクラウドアップサンプリング)から生じる広範囲な多次元データリカバリアプリケーションは、最先端の手法と比較して、この手法の優位性と汎用性を実証する。
特に、元のメッシュグリッド解像度(ハイパーパラメータ最適化)を超える実験や、meshgrid(ポイントクラウドアップサンプリング)を超える実験は、連続表現のための我々の方法の好ましい性能を検証する。
関連論文リスト
- Geometric Algebra Planes: Convex Implicit Neural Volumes [70.12234371845445]
GA-Planes はスパース低ランク係数と低分解能行列と等価であることを示す。
また,GA-Planeは既存の表現にも適用可能であることを示す。
論文 参考訳(メタデータ) (2024-11-20T18:21:58Z) - Irregular Tensor Low-Rank Representation for Hyperspectral Image Representation [71.69331824668954]
低ランクテンソル表現はスペクトル変動を緩和するための重要なアプローチである。
従来の低ランク表現法は、通常のデータキューブにのみ適用できる。
本稿では,不規則な3次元立方体を効率的にモデル化できる新しい不規則な低ランク表現法を提案する。
論文 参考訳(メタデータ) (2024-10-24T02:56:22Z) - SpaceMesh: A Continuous Representation for Learning Manifold Surface Meshes [61.110517195874074]
本稿では,ニューラルネットワークの出力として,複雑な接続性を持つ多様体多角形メッシュを直接生成する手法を提案する。
私たちの重要なイノベーションは、各メッシュで連続的な遅延接続空間を定義することです。
アプリケーションでは、このアプローチは生成モデルから高品質な出力を得るだけでなく、メッシュ修復のような挑戦的な幾何処理タスクを直接学習することを可能にする。
論文 参考訳(メタデータ) (2024-09-30T17:59:03Z) - Power of $\ell_1$-Norm Regularized Kaczmarz Algorithms for High-Order Tensor Recovery [8.812294191190896]
スパース構造および/またはローランク構造を特徴とする高次テンソルを復元するための新しいカッツマルツアルゴリズムを提案する。
合成および実世界の両方のデータセットに関する様々な数値実験により、提案手法の有効性と有意義なポテンシャルが示された。
論文 参考訳(メタデータ) (2024-05-14T02:06:53Z) - Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Distributed Non-Negative Tensor Train Decomposition [3.2264685979617655]
高次元データは多次元配列、別名テンソルとして表される。
テンソルに潜伏構造(直接観測できない)が存在することは、データのユニークな表現と圧縮を可能にする。
分散非負のテンソルトレインを導入し、そのスケーラビリティと、合成および実世界のビッグデータ上での圧縮を実証する。
論文 参考訳(メタデータ) (2020-08-04T05:35:57Z) - Anomaly Detection with Tensor Networks [2.3895981099137535]
テンソルネットワークのメモリと計算効率を利用して、原特徴数の次元指数で空間上の線形変換を学習する。
画像の局所性を利用していないにもかかわらず、画像データセット上で競合する結果を生成する。
論文 参考訳(メタデータ) (2020-06-03T20:41:30Z) - A Solution for Large Scale Nonlinear Regression with High Rank and
Degree at Constant Memory Complexity via Latent Tensor Reconstruction [0.0]
本稿では,高非線形多変量関数を例から学習する新しい手法を提案する。
この手法は、連続函数をバイスで近似できるという性質を生かし、テンソルで表現できる。
モデルを学習するために,線形時間で実装可能な効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-04T14:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。