論文の概要: WTDUN: Wavelet Tree-Structured Sampling and Deep Unfolding Network for Image Compressed Sensing
- arxiv url: http://arxiv.org/abs/2411.16336v1
- Date: Mon, 25 Nov 2024 12:31:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:18:57.429715
- Title: WTDUN: Wavelet Tree-Structured Sampling and Deep Unfolding Network for Image Compressed Sensing
- Title(参考訳): WTDUN:画像圧縮センシングのためのウェーブレットツリー構造化サンプリングと深部展開ネットワーク
- Authors: Kai Han, Jin Wang, Yunhui Shi, Hanqin Cai, Nam Ling, Baocai Yin,
- Abstract要約: マルチスケールウェーブレットサブバンド上で直接動作するWTDUNという新しいウェーブレットドメインの深層展開フレームワークを提案する。
本手法は,ウェーブレット係数の固有間隔とマルチスケール構造を利用して,木構造によるサンプリングと再構成を実現する。
- 参考スコア(独自算出の注目度): 51.94493817128006
- License:
- Abstract: Deep unfolding networks have gained increasing attention in the field of compressed sensing (CS) owing to their theoretical interpretability and superior reconstruction performance. However, most existing deep unfolding methods often face the following issues: 1) they learn directly from single-channel images, leading to a simple feature representation that does not fully capture complex features; and 2) they treat various image components uniformly, ignoring the characteristics of different components. To address these issues, we propose a novel wavelet-domain deep unfolding framework named WTDUN, which operates directly on the multi-scale wavelet subbands. Our method utilizes the intrinsic sparsity and multi-scale structure of wavelet coefficients to achieve a tree-structured sampling and reconstruction, effectively capturing and highlighting the most important features within images. Specifically, the design of tree-structured reconstruction aims to capture the inter-dependencies among the multi-scale subbands, enabling the identification of both fine and coarse features, which can lead to a marked improvement in reconstruction quality. Furthermore, a wavelet domain adaptive sampling method is proposed to greatly improve the sampling capability, which is realized by assigning measurements to each wavelet subband based on its importance. Unlike pure deep learning methods that treat all components uniformly, our method introduces a targeted focus on important subbands, considering their energy and sparsity. This targeted strategy lets us capture key information more efficiently while discarding less important information, resulting in a more effective and detailed reconstruction. Extensive experimental results on various datasets validate the superior performance of our proposed method.
- Abstract(参考訳): 深部展開ネットワークは, 理論的解釈性や再現性の向上により, 圧縮センシング(CS)分野に注目が集まっている。
しかし、既存のディープ展開手法の多くは、次のような問題に直面することが多い。
1)単一チャンネル画像から直接学習し、複雑な特徴を十分に捉えない単純な特徴表現につながる。
2) 様々な画像成分を均一に処理し, 特徴を無視する。
これらの問題に対処するために,マルチスケールウェーブレットサブバンド上で直接動作するWTDUNという新しいウェーブレットドメインの深層展開フレームワークを提案する。
本手法は,ウェーブレット係数の固有間隔とマルチスケール構造を利用して,木構造によるサンプリングと再構成を実現し,画像中の最も重要な特徴を効果的に捉え,強調する。
具体的には, 木構造復元の設計は, マルチスケールサブバンド間の相互依存性を捉えることを目的としており, 微細・粗い特徴の識別が可能であり, 復元品質が著しく向上する可能性がある。
さらに、ウェーブレット領域適応サンプリング法を提案し、その重要度に基づいて各ウェーブレットサブバンドに測定値を割り当てることにより、サンプリング性能を大幅に向上させる。
全てのコンポーネントを一様に扱う純粋深層学習法とは異なり、本手法は、そのエネルギーと空間性を考慮して重要なサブバンドに焦点をあてる。
このターゲティング戦略により、重要情報をより効率的に取得し、より重要でない情報を破棄し、より効果的で詳細な再構築を行うことができる。
各種データセットの大規模な実験結果により,提案手法の優れた性能が検証された。
関連論文リスト
- Wavelet-based Bi-dimensional Aggregation Network for SAR Image Change Detection [53.842568573251214]
3つのSARデータセットによる実験結果から、我々のWBANetは現代最先端の手法を著しく上回っていることが明らかとなった。
我々のWBANetは、それぞれのデータセットで98.33%、96.65%、96.62%の正確な分類(PCC)を達成している。
論文 参考訳(メタデータ) (2024-07-18T04:36:10Z) - A Refreshed Similarity-based Upsampler for Direct High-Ratio Feature Upsampling [54.05517338122698]
本稿では,セマンティック・アウェアとディテール・アウェアの両方の観点から,明示的に制御可能なクエリキー機能アライメントを提案する。
また,モーザイクアーティファクトを緩和するのには単純だが有効であるHR特徴量に対して,きめ細かな近傍選択戦略を開発した。
提案するReSFUフレームワークは,異なるセグメンテーションアプリケーション上での良好な性能を一貫して達成する。
論文 参考訳(メタデータ) (2024-07-02T14:12:21Z) - Hybrid Feature Collaborative Reconstruction Network for Few-Shot Fine-Grained Image Classification [6.090855292102877]
画像分類のためのHFCR-Net(Hybrid Feature Collaborative Restruction Network)を設計する。
チャネルの特徴と空間的特徴を融合させ,クラス間差を増大させる。
広範に使われている3つのきめ細かいデータセットに対する実験は、我々のアプローチの有効性と優位性を示している。
論文 参考訳(メタデータ) (2024-07-02T10:14:00Z) - Learning Image Deraining Transformer Network with Dynamic Dual
Self-Attention [46.11162082219387]
本稿では,動的二重自己アテンション(DDSA)を用いた画像デコライニング変換器を提案する。
具体的には、トップk近似計算に基づいて、最も有用な類似度値のみを選択し、スパースアテンションを実現する。
また,高品質な定位結果を得るためのより正確な表現を実現するために,新しい空間拡張フィードフォワードネットワーク(SEFN)を開発した。
論文 参考訳(メタデータ) (2023-08-15T13:59:47Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - i-SpaSP: Structured Neural Pruning via Sparse Signal Recovery [11.119895959906085]
ニューラルネットワークのための新しい構造化プルーニングアルゴリズム - i-SpaSPと呼ばれる反復型スパース構造化プルーニングを提案する。
i-SpaSPはネットワーク内の重要なパラメータ群を識別することで動作し、プルーニングされたネットワーク出力と高密度なネットワーク出力の残差に最も寄与する。
高い性能のサブネットワークを発見し, 証明可能なベースライン手法のプルーニング効率を, 数桁の精度で向上させることが示されている。
論文 参考訳(メタデータ) (2021-12-07T05:26:45Z) - Feedback Pyramid Attention Networks for Single Image Super-Resolution [37.58180059860872]
特徴の相互依存を完全に活用するためのフィードバックピラミッドアテンションネットワーク(FPAN)を提案する。
本手法では,第1段階の各レイヤの出力を次の状態の対応するレイヤの入力として使用し,以前の低レベルフィルタを再更新する。
本研究では,グローバルな文脈情報を異なるスケールでモデル化するピラミッド非局所構造を導入し,ネットワークの識別表現を改善する。
論文 参考訳(メタデータ) (2021-06-13T11:32:53Z) - High-resolution Depth Maps Imaging via Attention-based Hierarchical
Multi-modal Fusion [84.24973877109181]
誘導DSRのための新しい注意に基づく階層型マルチモーダル融合ネットワークを提案する。
本手法は,再現精度,動作速度,メモリ効率の点で最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-04-04T03:28:33Z) - Image super-resolution reconstruction based on attention mechanism and
feature fusion [3.42658286826597]
注意機構とマルチスケール特徴融合に基づくネットワーク構造を提案する。
実験により,提案手法は,他の代表的超解像再構成アルゴリズムよりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-04-08T11:20:10Z) - ADRN: Attention-based Deep Residual Network for Hyperspectral Image
Denoising [52.01041506447195]
ノイズの多いHSIからクリーンなHSIへのマッピングを学習するために,注目に基づくディープ残差ネットワークを提案する。
実験の結果,提案手法は定量的および視覚的評価において最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-04T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。