論文の概要: Optimizing JPEG Quantization for Classification Networks
- arxiv url: http://arxiv.org/abs/2003.02874v1
- Date: Thu, 5 Mar 2020 19:13:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:50:13.316827
- Title: Optimizing JPEG Quantization for Classification Networks
- Title(参考訳): 分類ネットワークにおけるJPEG量子化の最適化
- Authors: Zhijing Li, Christopher De Sa, Adrian Sampson
- Abstract要約: 単純なソートされたランダムサンプリング手法は、標準JPEG Q-tableの性能を上回ることができることを示す。
新しいQテーブルは、精度が固定されたときに圧縮率を10%から200%向上させることができる。
- 参考スコア(独自算出の注目度): 32.20485214224392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning for computer vision depends on lossy image compression: it
reduces the storage required for training and test data and lowers transfer
costs in deployment. Mainstream datasets and imaging pipelines all rely on
standard JPEG compression. In JPEG, the degree of quantization of frequency
coefficients controls the lossiness: an 8 by 8 quantization table (Q-table)
decides both the quality of the encoded image and the compression ratio. While
a long history of work has sought better Q-tables, existing work either seeks
to minimize image distortion or to optimize for models of the human visual
system. This work asks whether JPEG Q-tables exist that are "better" for
specific vision networks and can offer better quality--size trade-offs than
ones designed for human perception or minimal distortion. We reconstruct an
ImageNet test set with higher resolution to explore the effect of JPEG
compression under novel Q-tables. We attempt several approaches to tune a
Q-table for a vision task. We find that a simple sorted random sampling method
can exceed the performance of the standard JPEG Q-table. We also use
hyper-parameter tuning techniques including bounded random search, Bayesian
optimization, and composite heuristic optimization methods. The new Q-tables we
obtained can improve the compression rate by 10% to 200% when the accuracy is
fixed, or improve accuracy up to $2\%$ at the same compression rate.
- Abstract(参考訳): コンピュータビジョンのディープラーニングは、画像圧縮の損失に依存する。トレーニングやテストデータに必要なストレージを削減し、デプロイメントにおける転送コストを低減します。
メインストリームのデータセットとイメージングパイプラインはすべて、標準のJPEG圧縮に依存している。
JPEGでは、周波数係数の量子化の度合いが損失性を制御する:8×8量子化テーブル(Q−table)は符号化画像の品質と圧縮比の両方を決定する。
長い仕事の歴史でより良いqテーブルを求めてきたが、既存の仕事は、画像の歪みを最小化したり、人間の視覚システムのモデルに最適化することを目的としている。
この研究は、JPEG Q-tablesが特定のビジョンネットワークに対して“より優れた”存在であり、人間の知覚や最小限の歪みのために設計されたものよりも優れた品質のトレードオフを提供できるかどうかを問う。
我々は、新しいQテーブルの下でJPEG圧縮の効果を探るため、高解像度の画像Netテストセットを再構成する。
視覚タスクにQテーブルをチューニングするためのいくつかのアプローチを試みる。
単純なソートされたランダムサンプリング手法は、標準JPEG Q-tableの性能を超えることができる。
また,境界付きランダム探索,ベイズ最適化,複合ヒューリスティック最適化といったハイパーパラメータチューニング手法も使用する。
得られた新しいQテーブルは、精度が固定されたときに圧縮率を10%から200%向上させることができる。
関連論文リスト
- Extreme Image Compression using Fine-tuned VQGANs [43.43014096929809]
本稿ではベクトル量子化(VQ)に基づく生成モデルを画像圧縮領域に導入する。
VQGANモデルによって学習されたコードブックは、強い表現能力をもたらす。
提案したフレームワークは、知覚的品質指向のメトリクスで最先端のコーデックより優れている。
論文 参考訳(メタデータ) (2023-07-17T06:14:19Z) - Metaheuristic-based Energy-aware Image Compression for Mobile App
Development [1.933681537640272]
本稿では,人口ベースJPEG画像圧縮のための新しい目的関数を提案する。
第2に,包括的カバレッジの欠如に対処するために,新しい表現を提案する。
第3に、22の最先端および最近導入されたPBMHアルゴリズムに関する包括的なベンチマークを提供する。
論文 参考訳(メタデータ) (2022-12-13T01:39:47Z) - High-Perceptual Quality JPEG Decoding via Posterior Sampling [13.238373528922194]
JPEGアーチファクト修正のための異なるパラダイムを提案する。
我々は、圧縮された入力と整合しながら、シャープで詳細で視覚的に再構成された画像を得ることを目指している。
我々のソリューションは、完全な整合性のある入力に対して、多種多様な可塑性かつ高速な再構成を提供する。
論文 参考訳(メタデータ) (2022-11-21T19:47:59Z) - Estimating the Resize Parameter in End-to-end Learned Image Compression [50.20567320015102]
本稿では,最近の画像圧縮モデルの速度歪みトレードオフをさらに改善する検索自由化フレームワークについて述べる。
提案手法により,Bjontegaard-Deltaレート(BD-rate)を最大10%向上させることができる。
論文 参考訳(メタデータ) (2022-04-26T01:35:02Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - Modeling Image Quantization Tradeoffs for Optimal Compression [0.0]
ロスシー圧縮アルゴリズムは、圧縮率を上げるために高周波データを定量化することでトレードオフを狙う。
本稿では,Deep Learningとminimax損失関数を用いた量子化テーブルの最適化手法を提案する。
論文 参考訳(メタデータ) (2021-12-14T07:35:22Z) - Variable-Rate Deep Image Compression through Spatially-Adaptive Feature
Transform [58.60004238261117]
空間特徴変換(SFT arXiv:1804.02815)に基づく多目的深部画像圧縮ネットワークを提案する。
本モデルは,任意の画素単位の品質マップによって制御される単一モデルを用いて,幅広い圧縮速度をカバーしている。
提案するフレームワークにより,様々なタスクに対してタスク対応の画像圧縮を行うことができる。
論文 参考訳(メタデータ) (2021-08-21T17:30:06Z) - Analyzing and Mitigating JPEG Compression Defects in Deep Learning [69.04777875711646]
本稿では,JPEG圧縮が共通タスクやデータセットに与える影響を統一的に検討する。
高圧縮の一般的なパフォーマンス指標には大きなペナルティがあることが示される。
論文 参考訳(メタデータ) (2020-11-17T20:32:57Z) - Learning to Improve Image Compression without Changing the Standard
Decoder [100.32492297717056]
本稿では,標準デコーダによる符号化性能向上のための学習法を提案する。
具体的には、DCT係数の分布を最適化する周波数領域事前編集法を提案する。
JPEGデコーダは変更しないので、広く使われている標準JPEGデコーダで画像を見る際には、我々のアプローチが適用可能である。
論文 参考訳(メタデータ) (2020-09-27T19:24:42Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。