論文の概要: Efficient Tensor Robust PCA under Hybrid Model of Tucker and Tensor
Train
- arxiv url: http://arxiv.org/abs/2112.10771v1
- Date: Mon, 20 Dec 2021 01:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:54:05.090397
- Title: Efficient Tensor Robust PCA under Hybrid Model of Tucker and Tensor
Train
- Title(参考訳): タッカーとテンソルのハイブリッドモデルによる効率的なテンソルロバストPCA
- Authors: Yuning Qiu, Guoxu Zhou, Zhenhao Huang, Qibin Zhao, Shengli Xie
- Abstract要約: 本研究では,TuckerとTTのハイブリッドモデルに基づく効率的な主成分分析(TRPCA)を提案する。
具体的には、理論上は、元のビッグテンソルのTT核ノルム(TTNN)が、タッカー圧縮フォーマットによってはるかに小さなテンソルのノルムに等価に変換できることを明らかにする。
合成テンソルデータおよび実世界のテンソルデータの数値実験により,提案モデルの有効性が検証された。
- 参考スコア(独自算出の注目度): 33.33426557160802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor robust principal component analysis (TRPCA) is a fundamental model in
machine learning and computer vision. Recently, tensor train (TT) decomposition
has been verified effective to capture the global low-rank correlation for
tensor recovery tasks. However, due to the large-scale tensor data in
real-world applications, previous TRPCA models often suffer from high
computational complexity. In this letter, we propose an efficient TRPCA under
hybrid model of Tucker and TT. Specifically, in theory we reveal that TT
nuclear norm (TTNN) of the original big tensor can be equivalently converted to
that of a much smaller tensor via a Tucker compression format, thereby
significantly reducing the computational cost of singular value decomposition
(SVD). Numerical experiments on both synthetic and real-world tensor data
verify the superiority of the proposed model.
- Abstract(参考訳): テンソルロバストな主成分分析(TRPCA)は、機械学習とコンピュータビジョンの基本モデルである。
近年, テンソルトレイン (TT) の分解は, テンソル回収作業におけるグローバル低ランク相関を捉えるのに有効であることが確認されている。
しかし、現実のアプリケーションにおける大規模なテンソルデータのため、従来のTRPCAモデルは計算の複雑さに悩まされることが多い。
本稿では,TuckerとTTのハイブリッドモデルを用いた効率的なTRPCAを提案する。
具体的には、理論上、元のビッグテンソルのTT核ノルム(TTNN)がタッカー圧縮フォーマットによってはるかに小さなテンソルのノルムに等価に変換できることを明らかにし、特異値分解(SVD)の計算コストを大幅に削減する。
合成テンソルデータおよび実世界のテンソルデータの数値実験により,提案モデルの有効性が検証された。
関連論文リスト
- Scalable CP Decomposition for Tensor Learning using GPU Tensor Cores [47.87810316745786]
本研究では,エクサスケールテンソル分解を支援する圧縮型テンソル分解フレームワークを提案する。
ベースラインと比較すると、エクスカスケール・テンソルは8000倍のテンソルをサポートし、スピードアップは6.95倍である。
また,本手法を遺伝子解析とテンソル層ニューラルネットワークを含む実世界の2つの応用に適用する。
論文 参考訳(メタデータ) (2023-11-22T21:04:59Z) - Deep Unfolded Tensor Robust PCA with Self-supervised Learning [21.710932587432396]
深部展開を用いたテンソルRPCAの高速かつ簡易な自己教師モデルについて述べる。
我々のモデルは、競争力やパフォーマンスを保ちながら、根拠となる真理ラベルの必要性を排除します。
我々はこれらの主張を、合成データと実世界のタスクの混合上で実証する。
論文 参考訳(メタデータ) (2022-12-21T20:34:42Z) - Tensor Robust PCA with Nonconvex and Nonlocal Regularization [16.15616361268236]
低ランクデータ回復のための非局所性TRPCA(N-TRPCA)モデルを開発した。
提案したN-TRPCAは,視覚的データ回復において既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-04T12:19:39Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - Semi-tensor Product-based TensorDecomposition for Neural Network
Compression [57.95644775091316]
本稿では,古典的行列積に基づくモード積を半テンソルモード積に一般化する。
次元の異なる2つの因子の接続を可能にするため、より柔軟でコンパクトなテンソル分解が得られる。
論文 参考訳(メタデータ) (2021-09-30T15:18:14Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Spectral Tensor Train Parameterization of Deep Learning Layers [136.4761580842396]
重み行列の低ランクパラメータ化をDeep Learningコンテキストに埋め込まれたスペクトル特性を用いて検討する。
分類設定におけるニューラルネットワーク圧縮の効果と,生成的対角トレーニング設定における圧縮および安定性トレーニングの改善について述べる。
論文 参考訳(メタデータ) (2021-03-07T00:15:44Z) - Low-Rank and Sparse Enhanced Tucker Decomposition for Tensor Completion [3.498620439731324]
テンソル完備化のために,低ランクかつスパースに拡張されたタッカー分解モデルを導入する。
我々のモデルはスパースコアテンソルを促進するためにスパース正規化項を持ち、テンソルデータ圧縮に有用である。
テンソルに出現する潜在的な周期性と固有相関特性を利用するので,本モデルでは様々な種類の実世界のデータセットを扱うことが可能である。
論文 参考訳(メタデータ) (2020-10-01T12:45:39Z) - Robust Tensor Principal Component Analysis: Exact Recovery via
Deterministic Model [5.414544833902815]
本稿では,ロバストテンソル主成分分析法(RTPCA)を提案する。
これは最近開発されたテンソルテンソル積とテンソル特異値分解(t-SVD)に基づいている。
論文 参考訳(メタデータ) (2020-08-05T16:26:10Z) - Hybrid Tensor Decomposition in Neural Network Compression [13.146051056642904]
本稿では階層的タッカー分解法(HT)を導入し,ニューラルネットワーク圧縮におけるその機能について検討する。
HTフォーマットは重み行列の圧縮に優れ,TTフォーマットは畳み込みカーネルの圧縮に適していることが実験的に明らかになった。
論文 参考訳(メタデータ) (2020-06-29T11:16:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。