論文の概要: Attention-guided Image Compression by Deep Reconstruction of Compressive
Sensed Saliency Skeleton
- arxiv url: http://arxiv.org/abs/2103.15368v1
- Date: Mon, 29 Mar 2021 06:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 14:39:05.841622
- Title: Attention-guided Image Compression by Deep Reconstruction of Compressive
Sensed Saliency Skeleton
- Title(参考訳): 圧縮感覚塩分骨格の深部再構成による注意誘導画像圧縮
- Authors: Xi Zhang and Xiaolin Wu
- Abstract要約: 注意誘導二重層画像圧縮(AGDL)のための深層学習システムを提案する。
AGDL圧縮システムでは、画像はベース層と注目誘導精製層という2つの層に符号化される。
- 参考スコア(独自算出の注目度): 36.83490465562509
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a deep learning system for attention-guided dual-layer image
compression (AGDL). In the AGDL compression system, an image is encoded into
two layers, a base layer and an attention-guided refinement layer. Unlike the
existing ROI image compression methods that spend an extra bit budget equally
on all pixels in ROI, AGDL employs a CNN module to predict those pixels on and
near a saliency sketch within ROI that are critical to perceptual quality. Only
the critical pixels are further sampled by compressive sensing (CS) to form a
very compact refinement layer. Another novel CNN method is developed to jointly
decode the two compression layers for a much refined reconstruction, while
strictly satisfying the transmitted CS constraints on perceptually critical
pixels. Extensive experiments demonstrate that the proposed AGDL system
advances the state of the art in perception-aware image compression.
- Abstract(参考訳): 注意誘導型2層画像圧縮(AGDL)のためのディープラーニングシステムを提案する。
AGDL圧縮システムでは、画像はベース層と注目誘導精製層という2つの層に符号化される。
AGDLは、ROI内のすべてのピクセルに等しく余分な予算を費やす既存のROI画像圧縮方法とは異なり、ROI内のサリエンシスケッチの前後でこれらのピクセルを予測するためにCNNモジュールを使用している。
臨界画素のみが圧縮センシング(CS)によってさらにサンプリングされ、非常にコンパクトな精細層を形成する。
別の新しいCNN法は、2つの圧縮層を非常に洗練された再構成のために共同でデコードし、知覚的に重要なピクセルに対するCSの制約を厳密に満たす。
広汎な実験により,AGDLシステムは認識認識画像圧縮における技術の進歩を示す。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Crowd Counting on Heavily Compressed Images with Curriculum Pre-Training [90.76576712433595]
ディープニューラルネットワークによって処理された画像に損失圧縮を適用することで、大幅な精度低下につながる可能性がある。
カリキュラム学習のパラダイムに着想を得て,圧縮画像の群集カウントのためのカリキュラム事前学習(CPT)と呼ばれる新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-08-15T08:43:21Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Learning for Video Compression with Hierarchical Quality and Recurrent
Enhancement [164.7489982837475]
本稿では,階層型ビデオ圧縮(HLVC)手法を提案する。
我々のHLVCアプローチでは、エンコーダ側とデコーダ側の低品質フレームの圧縮と強化を容易にするため、階層的品質は符号化効率の恩恵を受ける。
論文 参考訳(メタデータ) (2020-03-04T09:31:37Z) - Generalized Octave Convolutions for Learned Multi-Frequency Image
Compression [20.504561050200365]
本稿では,初めて学習されたマルチ周波数画像圧縮とエントロピー符号化手法を提案する。
これは最近開発されたオクターブの畳み込みに基づいて、潜水剤を高周波(高分解能)成分に分解する。
提案した一般化オクターブ畳み込みは、他のオートエンコーダベースのコンピュータビジョンタスクの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-24T01:35:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。