論文の概要: DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding
- arxiv url: http://arxiv.org/abs/2408.12150v1
- Date: Thu, 22 Aug 2024 06:32:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 15:03:23.097029
- Title: DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding
- Title(参考訳): DeepHQ: プログレッシブな深層画像符号化のための階層的量子化器を学習
- Authors: Jooyoung Lee, Se Yoon Jeong, Munchurl Kim,
- Abstract要約: プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
- 参考スコア(独自算出の注目度): 27.875207681547074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unlike fixed- or variable-rate image coding, progressive image coding (PIC) aims to compress various qualities of images into a single bitstream, increasing the versatility of bitstream utilization and providing high compression efficiency compared to simulcast compression. Research on neural network (NN)-based PIC is in its early stages, mainly focusing on applying varying quantization step sizes to the transformed latent representations in a hierarchical manner. These approaches are designed to compress only the progressively added information as the quality improves, considering that a wider quantization interval for lower-quality compression includes multiple narrower sub-intervals for higher-quality compression. However, the existing methods are based on handcrafted quantization hierarchies, resulting in sub-optimal compression efficiency. In this paper, we propose an NN-based progressive coding method that firstly utilizes learned quantization step sizes via learning for each quantization layer. We also incorporate selective compression with which only the essential representation components are compressed for each quantization layer. We demonstrate that our method achieves significantly higher coding efficiency than the existing approaches with decreased decoding time and reduced model size.
- Abstract(参考訳): 固定レートや可変レートの画像符号化とは異なり、プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としており、ビットストリームの利用の汎用性を高め、シミュラキャスト圧縮と比較して高い圧縮効率を提供する。
ニューラルネットワーク(NN)ベースのPICの研究は初期段階にあり、主に階層的に変換された潜在表現に様々な量子化ステップサイズを適用することに焦点を当てている。
これらの手法は、低品質圧縮のためのより広い量子化間隔は、高品質圧縮のためのより狭いサブインターバルを含むことを考慮し、品質が向上するにつれて徐々に付加される情報のみを圧縮するように設計されている。
しかし、既存の手法は手作りの量子化階層に基づいており、結果として準最適圧縮効率が得られる。
本稿では,まず,学習した量子化ステップサイズを各量子化層に対して学習することで,NNベースのプログレッシブコーディング手法を提案する。
また、各量子化層に対して必須表現成分のみを圧縮する選択的圧縮も導入する。
提案手法は,復号時間を短縮し,モデルサイズを小さくすることで,既存の手法よりもはるかに高い符号化効率を実現することを示す。
関連論文リスト
- Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - You Can Mask More For Extremely Low-Bitrate Image Compression [80.7692466922499]
近年,学習画像圧縮(lic)法は大きな進歩を遂げている。
licメソッドは、画像圧縮に不可欠な画像構造とテクスチャコンポーネントを明示的に探索することができない。
原画像の構造とテクスチャに基づいて可視パッチをサンプリングするDA-Maskを提案する。
極めて低ビットレート圧縮のために, lic と lic のエンドツーエンドを統一する最初のフレームワークである, 単純で効果的なマスク付き圧縮モデル (MCM) を提案する。
論文 参考訳(メタデータ) (2023-06-27T15:36:22Z) - Multiscale Augmented Normalizing Flows for Image Compression [17.441496966834933]
本稿では,非可逆潜在変数モデルである拡張正規化フローに対して,階層的潜在空間を適応させる新しい概念を提案する。
私たちの最高のパフォーマンスモデルは、比較対象のシングルスケールモデルよりも7%以上、平均的なコスト削減を実現しました。
論文 参考訳(メタデータ) (2023-05-09T13:42:43Z) - Wavelet Feature Maps Compression for Image-to-Image CNNs [3.1542695050861544]
本稿では,高分解能なアクティベーションマップ圧縮をポイントワイド畳み込みと統合した新しい手法を提案する。
比較的小さく、より優雅な性能劣化を伴う1-4ビットのアクティベーション量子化に匹敵する圧縮率を達成する。
論文 参考訳(メタデータ) (2022-05-24T20:29:19Z) - OPQ: Compressing Deep Neural Networks with One-shot Pruning-Quantization [32.60139548889592]
本稿では,新しいワンショットプルーニング量子化(OPQ)を提案する。
OPQは、事前訓練された重みパラメータのみによる圧縮割り当てを解析的に解決する。
本稿では,共通コードブックを共有するために各レイヤの全チャネルを強制する,統一的なチャネルワイド量子化手法を提案する。
論文 参考訳(メタデータ) (2022-05-23T09:05:25Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Progressive Neural Image Compression with Nested Quantization and Latent
Ordering [16.871212593949487]
本稿では,1ビットストリームでスケーラブルな符号化を可能にすることにより,可変圧縮の境界を押し上げるプログレッシブ・ニューラルイメージ圧縮方式であるPLONQを提案する。
我々の知る限り、PLONQは学習ベースのプログレッシブ画像符号化方式であり、よく知られたウェーブレットベースのプログレッシブ画像であるSPIHTより優れている。
論文 参考訳(メタデータ) (2021-02-04T22:06:13Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。