論文の概要: Modeling Image Quantization Tradeoffs for Optimal Compression
- arxiv url: http://arxiv.org/abs/2112.07207v1
- Date: Tue, 14 Dec 2021 07:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 02:02:46.266633
- Title: Modeling Image Quantization Tradeoffs for Optimal Compression
- Title(参考訳): 最適圧縮のための画像量子化トレードオフのモデル化
- Authors: Johnathan Chiu
- Abstract要約: ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: All Lossy compression algorithms employ similar compression schemes --
frequency domain transform followed by quantization and lossless encoding
schemes. They target tradeoffs by quantizating high frequency data to increase
compression rates which come at the cost of higher image distortion. We propose
a new method of optimizing quantization tables using Deep Learning and a
minimax loss function that more accurately measures the tradeoffs between rate
and distortion parameters (RD) than previous methods. We design a convolutional
neural network (CNN) that learns a mapping between image blocks and
quantization tables in an unsupervised manner. By processing images across all
channels at once, we can achieve stronger performance by also measuring
tradeoffs in information loss between different channels. We initially target
optimization on JPEG images but feel that this can be expanded to any lossy
compressor.
- Abstract(参考訳): すべての損失圧縮アルゴリズムは、同様の圧縮スキーム-周波数領域変換と量子化とロスレス符号化スキームを用いる。
高い画像歪みのコストで生じる圧縮率を高めるために、高周波データを定量化することでトレードオフを目標としている。
本稿では,従来の手法よりも精度良く速度と歪みパラメータ(rd)のトレードオフを計測できる,深層学習とミニマックス損失関数を用いた量子化テーブルの最適化手法を提案する。
画像ブロックと量子化テーブルのマッピングを教師なしで学習する畳み込みニューラルネットワーク(CNN)を設計する。
すべてのチャネルにまたがるイメージを一度に処理することで、異なるチャネル間の情報損失のトレードオフを測定することで、より強力なパフォーマンスを実現できます。
当初、JPEG画像の最適化を目標としていたが、損失のある圧縮機に拡張できると感じた。
関連論文リスト
- DeepHQ: Learned Hierarchical Quantizer for Progressive Deep Image Coding [27.875207681547074]
プログレッシブ画像符号化(PIC)は、画像の様々な品質を単一のビットストリームに圧縮することを目的としている。
ニューラルネットワーク(NN)に基づくPICの研究は、その初期段階にある。
本稿では,まず,学習した量子化ステップサイズを各量子化レイヤの学習により活用するNNベースのプログレッシブコーディング手法を提案する。
論文 参考訳(メタデータ) (2024-08-22T06:32:53Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Progressive Learning with Visual Prompt Tuning for Variable-Rate Image
Compression [60.689646881479064]
本稿では,変圧器を用いた可変レート画像圧縮のためのプログレッシブラーニングパラダイムを提案する。
視覚的プロンプトチューニングにインスパイアされた私たちは,エンコーダ側とデコーダ側でそれぞれ入力画像と隠蔽特徴のプロンプトを抽出するためにLPMを使用する。
提案モデルでは, 速度歪み特性の観点から現行の可変画像法よりも優れ, スクラッチから訓練した最先端の固定画像圧縮法にアプローチする。
論文 参考訳(メタデータ) (2023-11-23T08:29:32Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - Lossy Compression with Gaussian Diffusion [28.930398810600504]
非条件拡散生成モデルに基づく新しい損失圧縮手法DiffCについて述べる。
エンコーダ変換の欠如にもかかわらず、概念実証を実装し、驚くほどうまく機能することを発見した。
流れに基づく再構築は,祖先サンプリングよりも高頻度で3dBのゲインを達成できることを示す。
論文 参考訳(メタデータ) (2022-06-17T16:46:31Z) - Wavelet Feature Maps Compression for Image-to-Image CNNs [3.1542695050861544]
本稿では,高分解能なアクティベーションマップ圧縮をポイントワイド畳み込みと統合した新しい手法を提案する。
比較的小さく、より優雅な性能劣化を伴う1-4ビットのアクティベーション量子化に匹敵する圧縮率を達成する。
論文 参考訳(メタデータ) (2022-05-24T20:29:19Z) - Reducing Redundancy in the Bottleneck Representation of the Autoencoders [98.78384185493624]
オートエンコーダは教師なしニューラルネットワークの一種であり、様々なタスクを解くのに使用できる。
本稿では,ボトルネック表現における特徴冗長性を明示的に罰する手法を提案する。
我々は,3つの異なるデータセットを用いた次元削減,MNISTデータセットを用いた画像圧縮,ファッションMNISTを用いた画像デノナイズという,さまざまなタスクにまたがってアプローチを検証した。
論文 参考訳(メタデータ) (2022-02-09T18:48:02Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Implicit Neural Representations for Image Compression [103.78615661013623]
Inlicit Neural Representations (INRs) は、様々なデータ型の新規かつ効果的な表現として注目されている。
量子化、量子化を考慮した再学習、エントロピー符号化を含むINRに基づく最初の包括的圧縮パイプラインを提案する。
我々は、INRによるソース圧縮に対する我々のアプローチが、同様の以前の作業よりも大幅に優れていることに気付きました。
論文 参考訳(メタデータ) (2021-12-08T13:02:53Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。