論文の概要: OTLRM: Orthogonal Learning-based Low-Rank Metric for Multi-Dimensional Inverse Problems
- arxiv url: http://arxiv.org/abs/2412.11165v1
- Date: Sun, 15 Dec 2024 12:28:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:54.735025
- Title: OTLRM: Orthogonal Learning-based Low-Rank Metric for Multi-Dimensional Inverse Problems
- Title(参考訳): OTLRM:多次元逆問題に対する直交学習に基づく低ランクメトリック
- Authors: Xiangming Wang, Haijin Zeng, Jiaoyang Chen, Sheng Liu, Yongyong Chen, Guoqing Chao,
- Abstract要約: 学習可能な直交変換に基づく新しいデータ駆動型低ランクt-SVDモデルを提案する。
また、生成ネットワークの効率的な表現を利用して低ランク構造を得るSVTの一般化として低ランク解法を提案する。
- 参考スコア(独自算出の注目度): 14.893020063373022
- License:
- Abstract: In real-world scenarios, complex data such as multispectral images and multi-frame videos inherently exhibit robust low-rank property. This property is vital for multi-dimensional inverse problems, such as tensor completion, spectral imaging reconstruction, and multispectral image denoising. Existing tensor singular value decomposition (t-SVD) definitions rely on hand-designed or pre-given transforms, which lack flexibility for defining tensor nuclear norm (TNN). The TNN-regularized optimization problem is solved by the singular value thresholding (SVT) operator, which leverages the t-SVD framework to obtain the low-rank tensor. However, it is quite complicated to introduce SVT into deep neural networks due to the numerical instability problem in solving the derivatives of the eigenvectors. In this paper, we introduce a novel data-driven generative low-rank t-SVD model based on the learnable orthogonal transform, which can be naturally solved under its representation. Prompted by the linear algebra theorem of the Householder transformation, our learnable orthogonal transform is achieved by constructing an endogenously orthogonal matrix adaptable to neural networks, optimizing it as arbitrary orthogonal matrices. Additionally, we propose a low-rank solver as a generalization of SVT, which utilizes an efficient representation of generative networks to obtain low-rank structures. Extensive experiments highlight its significant restoration enhancements.
- Abstract(参考訳): 実世界のシナリオでは、マルチスペクトル画像やマルチフレームビデオのような複雑なデータは本質的にロバストな低ランク特性を示す。
この性質は、テンソル完備化、スペクトル画像再構成、マルチスペクトル画像復調といった多次元逆問題に欠かせない。
既存のテンソル特異値分解 (t-SVD) の定義は、テンソル核ノルム(TNN)を定義する柔軟性に欠ける手動や前歯の変換に依存している。
TNN正規化最適化問題は、t-SVDフレームワークを利用して低ランクテンソルを得る特異値しきい値(SVT)演算子によって解決される。
しかし、固有ベクトルの微分を解く際の数値不安定性の問題のため、ディープニューラルネットワークにSVTを導入することは極めて複雑である。
本稿では,学習可能な直交変換に基づくデータ駆動型低ランクt-SVDモデルを提案する。
ハウスホルダー変換の線形代数定理により、ニューラルネットワークに適応する直交行列を構築し、任意の直交行列として最適化することで、学習可能な直交変換を実現する。
さらに、生成ネットワークの効率的な表現を利用して低ランク構造を得るSVTの一般化として、低ランク解法を提案する。
大規模な実験は、その重要な修復の強化を強調している。
関連論文リスト
- Multi-Grid Tensorized Fourier Neural Operator for High-Resolution PDEs [93.82811501035569]
本稿では,メモリ要求を低減し,より一般化したデータ効率・並列化可能な演算子学習手法を提案する。
MG-TFNOは、実世界の実世界の現象の局所的構造と大域的構造を活用することで、大規模な分解能にスケールする。
乱流ナビエ・ストークス方程式において150倍以上の圧縮で誤差の半分以下を達成できる優れた性能を示す。
論文 参考訳(メタデータ) (2023-09-29T20:18:52Z) - Maximum-likelihood Estimators in Physics-Informed Neural Networks for
High-dimensional Inverse Problems [0.0]
物理インフォームドニューラルネットワーク(PINN)は、逆常微分方程式(ODE)と偏微分方程式(PDE)を解くのに適した数学的足場を証明した。
本研究では,逆PINNを最大自由度推定器(MLE)でフレーム化して,テイラー展開による物理モデル空間への明示的な誤差伝搬を可能にすることを実証する。
論文 参考訳(メタデータ) (2023-04-12T17:15:07Z) - T$^2$LR-Net: An Unrolling Reconstruction Network Learning Transformed
Tensor Low-Rank prior for Dynamic MR Imaging [6.101233798770526]
我々は、変換されたドメインの前にテンソルローランクを利用することができるTTNNに基づくフレキシブルモデルを導入する。
また,変換テンソルの低ランク化を前もって学習するためのモデルベースディープ・アンロール・リコンストラクション・ネットワークを導入する。
提案手法は,現状の最適化手法とネットワークベースのアンロール手法と比較して,改善された回復結果を提供することができる。
論文 参考訳(メタデータ) (2022-09-08T14:11:02Z) - Dynamic MRI using Learned Transform-based Deep Tensor Low-Rank Network
(DTLR-Net) [9.658908705889777]
心臓のダイナミックMR画像に先行するテンソルローランクを学習することで,モデルに基づくディープラーニングネットワークを導入する。
提案したフレームワークは,最先端のアルゴリズムと比較して,回復率の向上を実現している。
論文 参考訳(メタデータ) (2022-06-02T02:55:41Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Equivariant vector field network for many-body system modeling [65.22203086172019]
Equivariant Vector Field Network (EVFN) は、新しい同変層と関連するスカラー化およびベクトル化層に基づいて構築されている。
シミュレーションされたニュートン力学系の軌跡を全観測データと部分観測データで予測する手法について検討した。
論文 参考訳(メタデータ) (2021-10-26T14:26:25Z) - Nonlinear Transform Induced Tensor Nuclear Norm for Tensor Completion [12.788874164701785]
我々はNTTNNとPAMアルゴリズムの理論的収束性に沿って低ランクテンソル完備化(LRTC)モデルを提案する。
本手法は,線形変換に基づく最先端核標準(TNN)法よりも質的に,定量的に優れている。
論文 参考訳(メタデータ) (2021-10-17T09:25:37Z) - Multi-View Spectral Clustering Tailored Tensor Low-Rank Representation [105.33409035876691]
本稿では,テンソル低ランクモデルに基づくマルチビュースペクトルクラスタリング(MVSC)の問題について検討する。
MVSCに適合する新しい構造テンソル低ランクノルムを設計する。
提案手法は最先端の手法よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-04-30T11:52:12Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。