論文の概要: Low-rank Meets Sparseness: An Integrated Spatial-Spectral Total
Variation Approach to Hyperspectral Denoising
- arxiv url: http://arxiv.org/abs/2204.12879v1
- Date: Wed, 27 Apr 2022 12:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-28 14:05:56.209673
- Title: Low-rank Meets Sparseness: An Integrated Spatial-Spectral Total
Variation Approach to Hyperspectral Denoising
- Title(参考訳): 低ランクはスパースネス: 空間スペクトルによる全変分法とハイパースペクトル認知
- Authors: Haijin Zeng, Shaoguang Huang, Yongyong Chen, Hiep Luong, and Wilfried
Philips
- Abstract要約: 勾配マップ(LRSTV)の疎度と低ランクの先行特性を同時に特徴付ける新しいテレビレギュラー化を提案する。
新しい正規化は勾配写像自体にスパーシリティを課すだけでなく、フーリエ変換後の勾配写像上のランクを罰する。
これは自然に勾配写像の空間性と低ランクの先行を符号化しており、したがって元の像の固有の構造をより忠実に反映することが期待されている。
- 参考スコア(独自算出の注目度): 11.79762223888294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spatial-Spectral Total Variation (SSTV) can quantify local smoothness of
image structures, so it is widely used in hyperspectral image (HSI) processing
tasks. Essentially, SSTV assumes a sparse structure of gradient maps calculated
along the spatial and spectral directions. In fact, these gradient tensors are
not only sparse, but also (approximately) low-rank under FFT, which we have
verified by numerical tests and theoretical analysis. Based on this fact, we
propose a novel TV regularization to simultaneously characterize the sparsity
and low-rank priors of the gradient map (LRSTV). The new regularization not
only imposes sparsity on the gradient map itself, but also penalize the rank on
the gradient map after Fourier transform along the spectral dimension. It
naturally encodes the sparsity and lowrank priors of the gradient map, and thus
is expected to reflect the inherent structure of the original image more
faithfully. Further, we use LRSTV to replace conventional SSTV and embed it in
the HSI processing model to improve its performance. Experimental results on
multiple public data-sets with heavy mixed noise show that the proposed model
can get 1.5dB improvement of PSNR.
- Abstract(参考訳): 空間スペクトルトータル変動(SSTV)は画像構造の局所的な滑らかさを定量化できるため、ハイパースペクトル画像(HSI)処理タスクで広く利用されている。
本質的に、SSTVは空間およびスペクトル方向に沿って計算された勾配写像のスパース構造を仮定する。
実際、これらの勾配テンソルはスパースであるばかりでなく、(ほぼ)fft下の低ランクであり、数値実験や理論解析によって検証されている。
そこで本研究では,勾配マップ(LRSTV)の疎度と低ランクの先行特性を同時に特徴付ける新しいテレビレギュラー化を提案する。
新しい正規化は勾配写像自体にスパーシティを課すだけでなく、スペクトル次元に沿ってフーリエ変換後の勾配写像の階数をペナリゼーションする。
これは自然に勾配写像のスパーシティとローランク事前値を符号化するので、元の画像の固有構造をより忠実に反映することが期待できる。
さらに,従来の SSTV を置き換えるために LRSTV を用い,その性能向上のために HSI 処理モデルに組み込む。
混合雑音を伴う複数の公開データセットの実験結果から,提案モデルがPSNRを1.5dB改善できることが示された。
関連論文リスト
- Normalization Layer Per-Example Gradients are Sufficient to Predict Gradient Noise Scale in Transformers [2.1415873597974286]
比例勾配ノルムは、最小分散で勾配雑音スケール(GNS)を推定するための重要な要素である。
本稿では,パラメータ勾配を計算しながら基準を同時に計算することで,3次元あるいはそれ以上のテンソル状態におけるFLOPを最小化する手法を提案する。
現代変圧器モデルの総 GNS は正規化層のみの GNS によりよく予測されている。
論文 参考訳(メタデータ) (2024-11-01T19:50:00Z) - CVT-xRF: Contrastive In-Voxel Transformer for 3D Consistent Radiance Fields from Sparse Inputs [65.80187860906115]
スパース入力によるNeRFの性能向上のための新しい手法を提案する。
まず, サンプル線が, 3次元空間内の特定のボクセルと交差することを保証するために, ボクセルを用いた放射線サンプリング戦略を採用する。
次に、ボクセル内の追加点をランダムにサンプリングし、トランスフォーマーを適用して各線上の他の点の特性を推測し、ボリュームレンダリングに組み込む。
論文 参考訳(メタデータ) (2024-03-25T15:56:17Z) - Neural Gradient Regularizer [150.85797800807524]
ニューラルネットワークの出力として勾配マップを表現するニューラルネットワーク勾配正規化器(NGR)を提案する。
NGRは、さまざまなイメージタイプと異なる画像処理タスクに適用でき、ゼロショット学習方式で機能する。
論文 参考訳(メタデータ) (2023-08-31T10:19:23Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Graph Spatio-Spectral Total Variation Model for Hyperspectral Image
Denoising [16.562236225580513]
混合ノイズ除去のための新しいテレビ型正規化であるGraph-SSTV(GSSTV)を提案する。
GSSTVは、雑音の多いHSIからターゲットHSIの空間構造を明示的に反映したグラフを生成し、このグラフに基づいて重み付き空間差演算子を組み込む。
混合雑音除去実験による既存のHSI正則化モデルと比較して, GSSTVの有効性を示す。
論文 参考訳(メタデータ) (2022-07-22T12:46:21Z) - Communication-Efficient Federated Learning via Quantized Compressed
Sensing [82.10695943017907]
提案フレームワークは,無線機器の勾配圧縮とパラメータサーバの勾配再構成からなる。
勾配スペーシフィケーションと量子化により、我々の戦略は1ビット勾配圧縮よりも高い圧縮比を達成することができる。
圧縮を行わない場合とほぼ同じ性能を実現できることを示す。
論文 参考訳(メタデータ) (2021-11-30T02:13:54Z) - Channel-Directed Gradients for Optimization of Convolutional Neural
Networks [50.34913837546743]
本稿では,畳み込みニューラルネットワークの最適化手法を提案する。
出力チャネル方向に沿って勾配を定義することで性能が向上し,他の方向が有害となることを示す。
論文 参考訳(メタデータ) (2020-08-25T00:44:09Z) - Hyperspectral Image Restoration via Global Total Variation Regularized
Local nonconvex Low-Rank matrix Approximation [1.3406858660972554]
ハイパスペクトル画像(HSI)における混合ノイズを取り除くために、複数の帯域幅全変動(TV)正規化低ランク(LR)モデルが提案されている。
論文 参考訳(メタデータ) (2020-05-08T16:42:18Z) - Understanding Integrated Gradients with SmoothTaylor for Deep Neural
Network Attribution [70.78655569298923]
ディープニューラルネットワークモデルの属性方法としての統合グラディエントは、シンプルな実装性を提供する。
理解しやすさに影響を及ぼす説明のうるささに悩まされる。
SmoothGrad法は,ノイズ問題を解消し,勾配に基づく帰属法の帰属写像を円滑化するために提案される。
論文 参考訳(メタデータ) (2020-04-22T10:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。