論文の概要: Tensor Robust PCA with Nonconvex and Nonlocal Regularization
- arxiv url: http://arxiv.org/abs/2211.02404v2
- Date: Fri, 7 Jul 2023 13:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 16:05:43.471800
- Title: Tensor Robust PCA with Nonconvex and Nonlocal Regularization
- Title(参考訳): 非凸および非局所正規化を有するテンソルロバストPCA
- Authors: Xiaoyu Geng, Qiang Guo, Shuaixiong Hui, Ming Yang and Caiming Zhang
- Abstract要約: 低ランクデータ回復のための非局所性TRPCA(N-TRPCA)モデルを開発した。
提案したN-TRPCAは,視覚的データ回復において既存の手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 16.15616361268236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tensor robust principal component analysis (TRPCA) is a classical way for
low-rank tensor recovery, which minimizes the convex surrogate of tensor rank
by shrinking each tensor singular value equally. However, for real-world visual
data, large singular values represent more significant information than small
singular values. In this paper, we propose a nonconvex TRPCA (N-TRPCA) model
based on the tensor adjustable logarithmic norm. Unlike TRPCA, our N-TRPCA can
adaptively shrink small singular values more and shrink large singular values
less. In addition, TRPCA assumes that the whole data tensor is of low rank.
This assumption is hardly satisfied in practice for natural visual data,
restricting the capability of TRPCA to recover the edges and texture details
from noisy images and videos. To this end, we integrate nonlocal
self-similarity into N-TRPCA, and further develop a nonconvex and nonlocal
TRPCA (NN-TRPCA) model. Specifically, similar nonlocal patches are grouped as a
tensor and then each group tensor is recovered by our N-TRPCA. Since the
patches in one group are highly correlated, all group tensors have strong
low-rank property, leading to an improvement of recovery performance.
Experimental results demonstrate that the proposed NN-TRPCA outperforms
existing TRPCA methods in visual data recovery. The demo code is available at
https://github.com/qguo2010/NN-TRPCA.
- Abstract(参考訳): テンソルロバスト主成分分析(TRPCA)は、テンソルの特異値を等しく小さくすることでテンソルランクの凸代理を最小化する、低ランクテンソルリカバリのための古典的な方法である。
しかし、実世界の視覚データでは、大きな特異値は小さな特異値よりも重要な情報を表す。
本稿では、テンソル調整可能な対数ノルムに基づく非凸TRPCA(N-TRPCA)モデルを提案する。
TRPCAとは異なり、我々のN-TRPCAは小さな特異値をより小さくし、大きな特異値を小さくすることができる。
さらに、TRPCAはデータテンソル全体が低いランクであると仮定する。
この仮定は、自然の視覚データにはほとんど満足せず、ノイズの多い画像やビデオからエッジやテクスチャの詳細を復元するTRPCAの能力を制限している。
この目的のために、非局所的な自己相似性をN-TRPCAに統合し、さらに非凸かつ非局所的なTRPCA(NN-TRPCA)モデルを開発する。
具体的には、同様の非局所パッチはテンソルとしてグループ化され、その後 N-TRPCA によって各群テンソルが復元される。
1つのグループのパッチは高い相関関係にあるため、全ての群テンソルは強い低ランク特性を持ち、回復性能が向上する。
実験の結果,NN-TRPCAは既存のTRPCA法よりも視覚的データ回復に優れていた。
デモコードはhttps://github.com/qguo2010/NN-TRPCA.comで公開されている。
関連論文リスト
- Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Towards Practical Control of Singular Values of Convolutional Layers [65.25070864775793]
畳み込みニューラルネットワーク(CNN)の訓練は容易であるが、一般化誤差や対向ロバスト性といった基本的な特性は制御が難しい。
最近の研究では、畳み込み層の特異値がそのような解像特性に顕著に影響を及ぼすことが示された。
我々は,レイヤ表現力の著しく低下を犠牲にして,先行技術の制約を緩和するための原則的アプローチを提供する。
論文 参考訳(メタデータ) (2022-11-24T19:09:44Z) - Fast and Provable Tensor Robust Principal Component Analysis via Scaled
Gradient Descent [30.299284742925852]
本稿では、テンソルロバスト主成分分析(RPCA)に取り組む。
希少な腐敗によって汚染された観測から低ランクのテンソルを回収することを目的としている。
提案アルゴリズムは, 最先端行列やテンソルRPCAアルゴリズムよりも, より優れた, よりスケーラブルな性能を実現する。
論文 参考訳(メタデータ) (2022-06-18T04:01:32Z) - Bayesian Robust Tensor Ring Model for Incomplete Multiway Data [7.765112574724006]
低ランクテンソル補完は、観測データから欠落したエントリを復元することを目的としている。
本稿では,RTC問題に対するロバストテンソルリング(BRTR)分解法を提案する。
実験により、BRTRは回復性能が向上し、他の最先端手法よりもノイズを除去できることが示された。
論文 参考訳(メタデータ) (2022-02-27T09:25:24Z) - Efficient Tensor Robust PCA under Hybrid Model of Tucker and Tensor
Train [33.33426557160802]
本研究では,TuckerとTTのハイブリッドモデルに基づく効率的な主成分分析(TRPCA)を提案する。
具体的には、理論上は、元のビッグテンソルのTT核ノルム(TTNN)が、タッカー圧縮フォーマットによってはるかに小さなテンソルのノルムに等価に変換できることを明らかにする。
合成テンソルデータおよび実世界のテンソルデータの数値実験により,提案モデルの有効性が検証された。
論文 参考訳(メタデータ) (2021-12-20T01:15:45Z) - MTC: Multiresolution Tensor Completion from Partial and Coarse
Observations [49.931849672492305]
既存の完備化の定式化は、主に1つのテンソルからの部分的な観測に依存する。
この問題を解決するために,効率的なマルチレゾリューション・コンプリート・モデル(MTC)を提案する。
論文 参考訳(メタデータ) (2021-06-14T02:20:03Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Enhanced Principal Component Analysis under A Collaborative-Robust
Framework [89.28334359066258]
重み学習とロバストな損失を非自明な方法で組み合わせる,一般的な協調ロバスト重み学習フレームワークを提案する。
提案されたフレームワークでは、トレーニング中の重要度を示す適切なサンプルの一部のみがアクティブになり、エラーが大きい他のサンプルは無視されません。
特に、不活性化試料の負の効果はロバスト損失関数によって軽減される。
論文 参考訳(メタデータ) (2021-03-22T15:17:37Z) - Graph Regularized Nonnegative Tensor Ring Decomposition for Multiway
Representation Learning [38.70369173200596]
非負のテンソルリング(NTR)分解とグラフ正規化NTR(GNTR)分解を提案する。
提案アルゴリズムは、より解釈可能で意味のある表現を提供するテンソルオブジェクトから、リッチな色とリッチな線で部品ベースを抽出することができる。
論文 参考訳(メタデータ) (2020-10-12T12:54:20Z) - TRP: Trained Rank Pruning for Efficient Deep Neural Networks [69.06699632822514]
低位近似とトレーニングを交互に行うTrated Rank Pruning (TRP)を提案する。
サブ段階降下により最適化された核正則化を利用して、TRPの低位化をさらに促進する。
TRPトレーニングネットワークは本質的に低ランク構造であり、無視可能な性能損失と近似される。
論文 参考訳(メタデータ) (2020-04-30T03:37:36Z) - Sparse and Low-Rank High-Order Tensor Regression via Parallel Proximal
Method [6.381138694845438]
高次構造を持つ大規模データに対するスパース・ローランク回帰モデルを提案する。
我々のモデルはテンソル係数の空間性と低ランク性を強制する。
我々のモデルの予測は、ビデオデータセットに意味のある解釈を示す。
論文 参考訳(メタデータ) (2019-11-29T06:25:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。