論文の概要: Uformer-ICS: A Specialized U-Shaped Transformer for Image Compressive
Sensing
- arxiv url: http://arxiv.org/abs/2209.01763v1
- Date: Mon, 5 Sep 2022 04:52:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-07 15:31:43.879520
- Title: Uformer-ICS: A Specialized U-Shaped Transformer for Image Compressive
Sensing
- Title(参考訳): uformer-ics:画像圧縮センシングのためのu字形トランス
- Authors: Kuiyuan Zhang and Zhongyun Hua and Yuanman Li and Yushu Zhang and
Yicong Zhou
- Abstract要約: Uformer-ICSは、サンプリングと再構築のプロセスを同時に学習するエンドツーエンドフレームワークである。
実験結果から,既存の最先端の深層学習に基づくCS手法に比べて,再現性能が大幅に向上することが示された。
- 参考スコア(独自算出の注目度): 42.3291824734996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, several studies have applied deep convolutional neural networks
(CNNs) in image compressive sensing (CS) tasks to improve reconstruction
quality. However, convolutional layers generally have a small receptive field;
therefore, capturing long-range pixel correlations using CNNs is challenging,
which limits their reconstruction performance in image CS tasks. Considering
this limitation, we propose a U-shaped transformer for image CS tasks, called
the Uformer-ICS. We develop a projection-based transformer block by integrating
the prior projection knowledge of CS into the original transformer blocks, and
then build a symmetrical reconstruction model using the projection-based
transformer blocks and residual convolutional blocks. Compared with previous
CNN-based CS methods that can only exploit local image features, the proposed
reconstruction model can simultaneously utilize the local features and
long-range dependencies of an image, and the prior projection knowledge of the
CS theory. Additionally, we design an adaptive sampling model that can
adaptively sample image blocks based on block sparsity, which can ensure that
the compressed results retain the maximum possible information of the original
image under a fixed sampling ratio. The proposed Uformer-ICS is an end-to-end
framework that simultaneously learns the sampling and reconstruction processes.
Experimental results demonstrate that it achieves significantly better
reconstruction performance than existing state-of-the-art deep learning-based
CS methods.
- Abstract(参考訳): 近年,画像圧縮センシング(CS)タスクに深部畳み込みニューラルネットワーク(CNN)を適用して,再現性の向上を図っている。
しかし、畳み込み層は一般的に受容野が小さいため、CNNを用いた長距離画素相関のキャプチャは困難であり、画像CSタスクの再構成性能が制限される。
この制限を考慮すると、Uformer-ICSと呼ばれる画像CSタスクのためのU字型変換器を提案する。
我々は,csの事前投影知識を元の変圧器ブロックに統合し,投影に基づく変圧器ブロックと残留畳み込みブロックを用いた対称復元モデルを構築した。
ローカル画像の特徴のみを活用できる従来のCNNベースのCS手法と比較して,提案手法は画像の局所的特徴と長距離依存性とCS理論の事前投影知識を同時に利用することができる。
さらに、ブロック間隔に基づいて画像ブロックを適応的にサンプリングできる適応サンプリングモデルを設計し、圧縮された結果が元の画像の可能な限りの情報を一定のサンプリング比で保持することを保証する。
提案するUformer-ICSは、サンプリングと再構築のプロセスを同時に学習するエンドツーエンドフレームワークである。
実験結果から,既存の最先端の深層学習に基づくCS手法に比べて,再構築性能が大幅に向上することが示された。
関連論文リスト
- Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - MsDC-DEQ-Net: Deep Equilibrium Model (DEQ) with Multi-scale Dilated
Convolution for Image Compressive Sensing (CS) [0.0]
圧縮センシング(CS)は、従来のサンプリング法よりも少ない測定値を用いてスパース信号の回復を可能にする技術である。
我々はCSを用いた自然画像再構成のための解釈可能かつ簡潔なニューラルネットワークモデルを構築した。
MsDC-DEQ-Netと呼ばれるこのモデルは、最先端のネットワークベースの手法と比較して、競争力のある性能を示す。
論文 参考訳(メタデータ) (2024-01-05T16:25:58Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - AICT: An Adaptive Image Compression Transformer [18.05997169440533]
我々は、より単純で効果的なTranformerベースのチャネルワイド自動回帰事前モデルを提案し、絶対画像圧縮変換器(ICT)を実現する。
提案したICTは、潜在表現からグローバルとローカルの両方のコンテキストをキャプチャできる。
我々は、サンドイッチのConvNeXtベースのプリ/ポストプロセッサで学習可能なスケーリングモジュールを活用し、よりコンパクトな潜在表現を正確に抽出する。
論文 参考訳(メタデータ) (2023-07-12T11:32:02Z) - Image Compressed Sensing with Multi-scale Dilated Convolutional Neural
Network [2.719222831651969]
本稿では,CS計測と再構成のためのMsDCNN(Multiscale Dilated Convolution Neural Network)という新しいフレームワークを提案する。
測定期間中、完全に畳み込み構造を用いる訓練された測定ネットワークから、すべての測定値を直接取得する。
再建期間中に,人間の視覚システムを模倣するマルチスケール特徴抽出(MFE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-28T01:11:56Z) - Cross-receptive Focused Inference Network for Lightweight Image
Super-Resolution [64.25751738088015]
トランスフォーマーに基づく手法は、単一画像超解像(SISR)タスクにおいて顕著な性能を示した。
動的に特徴を抽出するために文脈情報を組み込む必要がある変換器は無視される。
我々は,CNNとTransformerを混合したCTブロックのカスケードで構成される,軽量なクロスレセプティブ・フォーカスド・推論・ネットワーク(CFIN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T16:32:29Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Towards End-to-End Image Compression and Analysis with Transformers [99.50111380056043]
本稿では,クラウドベースの画像分類アプリケーションを対象として,トランスフォーマーを用いたエンドツーエンドの画像圧縮解析モデルを提案する。
我々は、圧縮された特徴から画像分類を行うためにビジョントランスフォーマー(ViT)モデルを再設計し、トランスフォーマーからの長期情報を用いて画像圧縮を容易にすることを目指している。
画像圧縮と分類作業の両方において,提案モデルの有効性を示す実験結果が得られた。
論文 参考訳(メタデータ) (2021-12-17T03:28:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。