論文の概要: Estimating the Resize Parameter in End-to-end Learned Image Compression
- arxiv url: http://arxiv.org/abs/2204.12022v1
- Date: Tue, 26 Apr 2022 01:35:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:50:40.850720
- Title: Estimating the Resize Parameter in End-to-end Learned Image Compression
- Title(参考訳): 終端学習画像圧縮におけるサイズパラメータの推定
- Authors: Li-Heng Chen and Christos G. Bampis and Zhi Li and Luk\'a\v{s} Krasula
and Alan C. Bovik
- Abstract要約: 本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
- 参考スコア(独自算出の注目度): 50.20567320015102
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We describe a search-free resizing framework that can further improve the
rate-distortion tradeoff of recent learned image compression models. Our
approach is simple: compose a pair of differentiable downsampling/upsampling
layers that sandwich a neural compression model. To determine resize factors
for different inputs, we utilize another neural network jointly trained with
the compression model, with the end goal of minimizing the rate-distortion
objective. Our results suggest that "compression friendly" downsampled
representations can be quickly determined during encoding by using an auxiliary
network and differentiable image warping. By conducting extensive experimental
tests on existing deep image compression models, we show results that our new
resizing parameter estimation framework can provide Bj{\o}ntegaard-Delta rate
(BD-rate) improvement of about 10% against leading perceptual quality engines.
We also carried out a subjective quality study, the results of which show that
our new approach yields favorable compressed images. To facilitate reproducible
research in this direction, the implementation used in this paper is being made
freely available online at: https://github.com/treammm/ResizeCompression.
- Abstract(参考訳): 本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
私たちのアプローチは単純で、ニューラルネットワークの圧縮モデルを挟む2つの微分可能なダウンサンプリング/アップサンプリング層を構成する。
異なる入力に対するサイズ要因を決定するために、圧縮モデルと共同で訓練された別のニューラルネットワークを用いて、速度歪みの目的を最小化する。
圧縮フレンドリな"ダウンサンプリング表現は,補助ネットワークと微分可能な画像ウォーピングを用いて,エンコード中に迅速に決定できることが示唆された。
既存の深部画像圧縮モデルに対する広範囲な実験実験により,Bj{\o}ntegaard-Delta rate (BD-rate) を主要な知覚品質エンジンに対して約10%向上させることができることを示す。
また、主観的品質調査を行い、その結果から、新しいアプローチが良好な圧縮画像が得られることを示した。
この方向の再現可能な研究を容易にするために,本論文で使用される実装は, https://github.com/treammm/ResizeCompression.comで無償公開されている。
関連論文リスト
- Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Machine Perception-Driven Image Compression: A Layered Generative
Approach [32.23554195427311]
階層型生成画像圧縮モデルを提案する。
タスクに依存しない学習に基づく圧縮モデルを提案し、様々な圧縮されたドメインベースの分析タスクを効果的にサポートする。
圧縮比、再構成画像品質、下流知覚性能の最良のバランス点を得るために、共同最適化スケジュールを採用する。
論文 参考訳(メタデータ) (2023-04-14T02:12:38Z) - High-Fidelity Variable-Rate Image Compression via Invertible Activation
Transformation [24.379052026260034]
Invertible Activation Transformation (IAT) モジュールを提案する。
IATとQLevelは、画像圧縮モデルに、画像の忠実さを良く保ちながら、細かな可変レート制御能力を与える。
提案手法は,特に複数再符号化後に,最先端の可変レート画像圧縮法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-09-12T07:14:07Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Substitutional Neural Image Compression [48.20906717052056]
置換型ニューラルイメージ圧縮(snic)は、あらゆるニューラルイメージ圧縮モデルを強化する一般的なアプローチである。
フレキシブルな歪みメトリックに向けて圧縮性能を高め、単一のモデルインスタンスを使用したビットレート制御を可能にする。
論文 参考訳(メタデータ) (2021-05-16T20:53:31Z) - Lossless Compression with Latent Variable Models [4.289574109162585]
我々は「非対称数値系を持つビットバック」(bb-ans)と呼ぶ潜在変数モデルを用いる。
この方法は、エンコードおよびデコードステップをインターリーブし、データのバッチ圧縮時に最適なレートを達成する。
我々は,深層生成モデルを用いた圧縮の高速プロトタイピングのために開発したモジュール型ソフトウェアフレームワークである'craystack'について述べる。
論文 参考訳(メタデータ) (2021-04-21T14:03:05Z) - Saliency Driven Perceptual Image Compression [6.201592931432016]
画像圧縮技術の性能評価にはMS-SSIMやPSNRなどの評価指標が不十分であることを示す。
画像圧縮に特有な知覚的類似性データに基づいて学習する新しい指標を提案する。
このモデルは視覚的に優れた画像を生成するだけでなく、その後のコンピュータビジョンタスクに優れた性能を与える。
論文 参考訳(メタデータ) (2020-02-12T13:43:17Z) - Learning End-to-End Lossy Image Compression: A Benchmark [90.35363142246806]
まず,学習した画像の圧縮方法に関する総合的な文献調査を行う。
本稿では,最先端の学習画像圧縮手法のマイルストーンについて述べるとともに,既存の幅広い作品について概観し,その歴史的開発ルートについて考察する。
エントロピー推定と信号再構成のための粗大な超高次モデルを導入することにより、速度歪み性能の向上を実現する。
論文 参考訳(メタデータ) (2020-02-10T13:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。