論文の概要: Sparsity and Coefficient Permutation Based Two-Domain AMP for Image
Block Compressed Sensing
- arxiv url: http://arxiv.org/abs/2305.12986v1
- Date: Mon, 22 May 2023 12:46:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 16:15:56.093454
- Title: Sparsity and Coefficient Permutation Based Two-Domain AMP for Image
Block Compressed Sensing
- Title(参考訳): 画像ブロック圧縮センシングのためのスポーサリティと係数置換に基づく2領域AMP
- Authors: Junhui Li, Xingsong Hou, Huake Wang, Shuhao Bi
- Abstract要約: 画像ブロック圧縮センシングのための新しいスペーサ性および係数置換型AMP(SCP-AMP)法を提案する。
SCP-AMPは、視覚的知覚と客観的メトリクスの両方の観点から、他の最先端のBCSアルゴリズムよりも、より良い再構成精度を実現する。
- 参考スコア(独自算出の注目度): 11.455460241999686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The learned denoising-based approximate message passing (LDAMP) algorithm has
attracted great attention for image compressed sensing (CS) tasks. However, it
has two issues: first, its global measurement model severely restricts its
applicability to high-dimensional images, and its block-based measurement
method exhibits obvious block artifacts; second, the denoiser in the LDAMP is
too simple, and existing denoisers have limited ability in detail recovery. In
this paper, to overcome the issues and develop a high-performance LDAMP method
for image block compressed sensing (BCS), we propose a novel sparsity and
coefficient permutation-based AMP (SCP-AMP) method consisting of the
block-based sampling and the two-domain reconstruction modules. In the sampling
module, SCP-AMP adopts a discrete cosine transform (DCT) based sparsity
strategy to reduce the impact of the high-frequency coefficient on the
reconstruction, followed by a coefficient permutation strategy to avoid block
artifacts. In the reconstruction module, a two-domain AMP method with DCT
domain noise correction and pixel domain denoising is proposed for iterative
reconstruction. Regarding the denoiser, we proposed a multi-level deep
attention network (MDANet) to enhance the texture details by employing
multi-level features and multiple attention mechanisms. Extensive experiments
demonstrated that the proposed SCP-AMP method achieved better reconstruction
accuracy than other state-of-the-art BCS algorithms in terms of both visual
perception and objective metrics.
- Abstract(参考訳): 画像圧縮センシング(CS)タスクにおいて,LDAMPアルゴリズムが注目されている。
第一に、その大域的測定モデルは高次元画像への適用性を厳しく制限し、ブロックベース測定法は明らかなブロックアーティファクトを示す。第二に、LDAMPのデノイザーは単純すぎるし、既存のデノイザーは詳細回復の能力に制限がある。
本稿では,この問題を克服し,画像ブロック圧縮センシング(BCS)のための高性能LDAMP法を開発するために,ブロックベースサンプリングと2ドメイン再構成モジュールからなる新しいスペーサ性および係数置換型AMP(SCP-AMP)法を提案する。
サンプリングモジュールでは、SCP-AMPは離散コサイン変換(DCT)に基づくスパーシティ戦略を採用し、高い周波数係数が再構成に与える影響を低減し、次いでブロックアーティファクトを避ける係数置換戦略を採用する。
再構成モジュールでは,DCT領域のノイズ補正と画素領域の復調を併用した2領域AMP法を提案する。
本稿では,マルチレベル特徴とマルチアテンション機構を用いてテクスチャの詳細性を高めるためのマルチレベルディープアテンションネットワーク (MDANet) を提案する。
広範な実験により、提案手法は、視覚知覚と客観的指標の両方において、他の最先端bcsアルゴリズムよりも高い再構成精度を達成した。
関連論文リスト
- Mixture-of-Noises Enhanced Forgery-Aware Predictor for Multi-Face Manipulation Detection and Localization [52.87635234206178]
本稿では,多面的操作検出と局所化に適したMoNFAPという新しいフレームワークを提案する。
このフレームワークには2つの新しいモジュールが含まれている: Forgery-aware Unified Predictor (FUP) Module と Mixture-of-Noises Module (MNM)。
論文 参考訳(メタデータ) (2024-08-05T08:35:59Z) - Diffusion-Aided Joint Source Channel Coding For High Realism Wireless Image Transmission [24.372996233209854]
DiffJSCCは条件拡散復調法により高現実性画像を生成する新しいフレームワークである。
768x512ピクセルのコダック画像を3072のシンボルで再現できる。
論文 参考訳(メタデータ) (2024-04-27T00:12:13Z) - Deep Network for Image Compressed Sensing Coding Using Local Structural
Sampling [37.10939114542612]
局所構造サンプリング(CSCNet)を用いた新しいCNNベースの画像CS符号化フレームワークを提案する。
提案するフレームワークでは、GRMの代わりに、新しい局所構造サンプリング行列が最初に開発された。
高相関の計測結果が生成され、サードパーティ画像によって最終ビットストリームに符号化される。
論文 参考訳(メタデータ) (2024-02-29T12:43:28Z) - MB-RACS: Measurement-Bounds-based Rate-Adaptive Image Compressed Sensing Network [65.1004435124796]
本稿では,MB-RACS(Message-Bounds-based Rate-Adaptive Image Compressed Sensing Network)フレームワークを提案する。
実験により,提案手法が現在の先行手法を超越していることが実証された。
論文 参考訳(メタデータ) (2024-01-19T04:40:20Z) - Improving Pixel-based MIM by Reducing Wasted Modeling Capability [77.99468514275185]
浅い層から低レベルの特徴を明示的に利用して画素再構成を支援する手法を提案する。
私たちの知る限りでは、等方的アーキテクチャのためのマルチレベル特徴融合を体系的に研究するのは、私たちは初めてです。
提案手法は, 微調整では1.2%, 線形探索では2.8%, セマンティックセグメンテーションでは2.6%など, 大幅な性能向上をもたらす。
論文 参考訳(メタデータ) (2023-08-01T03:44:56Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - Rank-Enhanced Low-Dimensional Convolution Set for Hyperspectral Image
Denoising [50.039949798156826]
本稿では,ハイパースペクトル(HS)画像の難解化問題に対処する。
ランク付き低次元畳み込み集合(Re-ConvSet)を提案する。
次に、Re-ConvSetを広く使われているU-Netアーキテクチャに組み込んで、HS画像復号法を構築する。
論文 参考訳(メタデータ) (2022-07-09T13:35:12Z) - Cross-boosting of WNNM Image Denoising method by Directional Wavelet
Packets [2.7648976108201815]
本稿では、方向性準解析ウェーブレットパケット(qWP)と最先端の重み付き核ノルム最小化法(WNNM)を併用した画像復号方式を提案する。
提案手法では, 粗悪な画像においても, エッジや微細なテクスチャパターンをキャプチャするqWPdn機能を結合する。
論文 参考訳(メタデータ) (2022-06-09T11:37:46Z) - Degradation-Aware Unfolding Half-Shuffle Transformer for Spectral
Compressive Imaging [142.11622043078867]
圧縮画像と物理マスクからパラメータを推定し,これらのパラメータを用いて各イテレーションを制御する,DAUF(Degradation-Aware Unfolding Framework)を提案する。
HST を DAUF に接続することにより,HSI 再構成のための変換器の深部展開法であるデグレーション・アウェア・アンフォールディング・ハーフシャッフル変換器 (DAUHST) を確立した。
論文 参考訳(メタデータ) (2022-05-20T11:37:44Z) - AMP-Net: Denoising based Deep Unfolding for Compressive Image Sensing [44.66684590557732]
画像CS問題を解決するためにAMP-Netと呼ばれる深層展開モデルを提案する。
AMP-Netは、高い再構成速度と少数のネットワークパラメータを持つ他の最先端手法よりも、再構築精度が良い。
論文 参考訳(メタデータ) (2020-04-21T15:04:17Z) - Generalized Octave Convolutions for Learned Multi-Frequency Image
Compression [20.504561050200365]
本稿では,初めて学習されたマルチ周波数画像圧縮とエントロピー符号化手法を提案する。
これは最近開発されたオクターブの畳み込みに基づいて、潜水剤を高周波(高分解能)成分に分解する。
提案した一般化オクターブ畳み込みは、他のオートエンコーダベースのコンピュータビジョンタスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-24T01:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。