論文の概要: DeepTensor: Low-Rank Tensor Decomposition with Deep Network Priors
- arxiv url: http://arxiv.org/abs/2204.03145v1
- Date: Thu, 7 Apr 2022 01:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 06:25:56.271228
- Title: DeepTensor: Low-Rank Tensor Decomposition with Deep Network Priors
- Title(参考訳): deeptensor: ディープネットワーク優先による低ランクテンソル分解
- Authors: Vishwanath Saragadam, Randall Balestriero, Ashok Veeraraghavan,
Richard G. Baraniuk
- Abstract要約: DeepTensor(ディープテンソル)は、行列とテンソルの低ランク分解のためのフレームワークである。
3次元MRIトモグラフィー、画像分類など、様々な実世界の応用について検討する。
- 参考スコア(独自算出の注目度): 45.183204988990916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DeepTensor is a computationally efficient framework for low-rank
decomposition of matrices and tensors using deep generative networks. We
decompose a tensor as the product of low-rank tensor factors (e.g., a matrix as
the outer product of two vectors), where each low-rank tensor is generated by a
deep network (DN) that is trained in a self-supervised manner to minimize the
mean-squared approximation error. Our key observation is that the implicit
regularization inherent in DNs enables them to capture nonlinear signal
structures (e.g., manifolds) that are out of the reach of classical linear
methods like the singular value decomposition (SVD) and principal component
analysis (PCA). Furthermore, in contrast to the SVD and PCA, whose performance
deteriorates when the tensor's entries deviate from additive white Gaussian
noise, we demonstrate that the performance of DeepTensor is robust to a wide
range of distributions. We validate that DeepTensor is a robust and
computationally efficient drop-in replacement for the SVD, PCA, nonnegative
matrix factorization (NMF), and similar decompositions by exploring a range of
real-world applications, including hyperspectral image denoising, 3D MRI
tomography, and image classification. In particular, DeepTensor offers a 6dB
signal-to-noise ratio improvement over standard denoising methods for signals
corrupted by Poisson noise and learns to decompose 3D tensors 60 times faster
than a single DN equipped with 3D convolutions.
- Abstract(参考訳): deeptensorは、深層生成ネットワークを用いた行列とテンソルの低ランク分解のための計算効率の高いフレームワークである。
低ランクテンソル因子(例えば、2つのベクトルの外積としての行列)の積としてテンソルを分解し、各低ランクテンソルは平均二乗近似誤差を最小限に抑えるために自己教師付きで訓練されたディープネットワーク(DN)によって生成される。
我々のキーとなる観察は、DNsに固有の暗黙正則化により、特異値分解(SVD)や主成分分析(PCA)のような古典的線形手法の到達範囲外にある非線形信号構造(例えば多様体)を捕捉できるということである。
さらに,加法的な白色ガウス雑音からテンソルの成分が逸脱したときの性能が低下するSVDやPCAとは対照的に,DeepTensorの性能は幅広い分布に対して堅牢であることを示す。
本研究では,高スペクトル画像デノイジング,3次元mriトモグラフィ,画像分類などの実世界応用を探索することにより,svd,pca,非負行列因子分解(nmf)および類似分解のロバストかつ計算効率の高いドロップイン置換であることを確認した。
特に、DeepTensorは、ポアソンノイズによって劣化した信号の標準的な雑音化法よりも6dB信号対雑音比の改善を提供し、3D畳み込みを備えた単一のDNよりも60倍早く3Dテンソルを分解することを学ぶ。
関連論文リスト
- Low-Multi-Rank High-Order Bayesian Robust Tensor Factorization [7.538654977500241]
本稿では,ベイジアンフレームワーク内の低階高階ロバスト因子分解(LMH-BRTF)と呼ばれる新しい高階TRPCA法を提案する。
具体的には、観測された劣化テンソルを、低ランク成分、スパース成分、ノイズ成分の3つの部分に分解する。
注文$d$ t-SVDに基づいて低ランクコンポーネントの低ランクモデルを構築することで、LMH-BRTFはテンソルのマルチランクを自動的に決定できる。
論文 参考訳(メタデータ) (2023-11-10T06:15:38Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Latent Matrices for Tensor Network Decomposition and to Tensor
Completion [8.301418317685906]
テンソルを小さく分解し,アルゴリズムの計算を高速化する新しい高階テンソル分解モデルを提案する。
LMTN-PAM, LMTN-SVD, LMTN-ARの3つの最適化アルゴリズムを開発し, テンソル補完タスクに適用した。
実験の結果, LMTN-SVDアルゴリズムはFCTN-PAMアルゴリズムの3~6倍高速であり, 1.8ポイントの精度低下しか得られなかった。
論文 参考訳(メタデータ) (2022-10-07T08:19:50Z) - Orthogonal Matrix Retrieval with Spatial Consensus for 3D Unknown-View
Tomography [58.60249163402822]
未知視トモグラフィ(UVT)は、未知のランダムな向きで2次元投影から3次元密度マップを再構成する。
提案したOMRはより堅牢で、従来の最先端のOMRアプローチよりも大幅に性能が向上している。
論文 参考訳(メタデータ) (2022-07-06T21:40:59Z) - Truncated tensor Schatten p-norm based approach for spatiotemporal
traffic data imputation with complicated missing patterns [77.34726150561087]
本研究は, モード駆動繊維による3症例の欠失を含む, 4症例の欠失パターンについて紹介する。
本モデルでは, 目的関数の非性にもかかわらず, 乗算器の交互データ演算法を統合することにより, 最適解を導出する。
論文 参考訳(メタデータ) (2022-05-19T08:37:56Z) - 2D+3D facial expression recognition via embedded tensor manifold
regularization [16.98176664818354]
2D+3次元表情認識(FERETMR)のための埋め込みテンソル多様体正規化による新しい手法を提案する。
定常点の観点から一階最適条件を確立し、収束解析によるブロック座標降下(BCD)アルゴリズムを設計する。
BU-3DFEデータベースとBosphorusデータベースの数値計算結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-01-29T06:11:00Z) - Augmented Tensor Decomposition with Stochastic Optimization [46.16865811396394]
実世界のテンソルデータは、通常高次で、数百万から数十億のエントリを持つ大きな次元を持つ。
テンソル全体を従来のアルゴリズムで分解するのは高価である。
本稿では、データ拡張を効果的に取り入れて下流の分類を向上する拡張テンソル分解を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:29:05Z) - Stable Low-rank Tensor Decomposition for Compression of Convolutional
Neural Network [19.717842489217684]
本稿では、畳み込み核のテンソル分解における縮退性に関する最初の研究である。
本稿では,畳み込みカーネルの低ランク近似を安定化し,効率的な圧縮を実現する新しい手法を提案する。
画像分類のための一般的なCNNアーキテクチャに対するアプローチを評価し,提案手法により精度が大幅に低下し,一貫した性能が得られることを示す。
論文 参考訳(メタデータ) (2020-08-12T17:10:12Z) - Robust Tensor Principal Component Analysis: Exact Recovery via
Deterministic Model [5.414544833902815]
本稿では,ロバストテンソル主成分分析法(RTPCA)を提案する。
これは最近開発されたテンソルテンソル積とテンソル特異値分解(t-SVD)に基づいている。
論文 参考訳(メタデータ) (2020-08-05T16:26:10Z) - Learning Low-rank Deep Neural Networks via Singular Vector Orthogonality
Regularization and Singular Value Sparsification [53.50708351813565]
各ステップにSVDを適用することなく、トレーニング中に低ランクDNNを明示的に達成する最初の方法であるSVDトレーニングを提案する。
SVDトレーニングがDNN層のランクを著しく低減し,同じ精度で計算負荷の低減を実現することを実証的に示す。
論文 参考訳(メタデータ) (2020-04-20T02:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。