論文の概要: JPEG Compliant Compression for Both Human and Machine, A Report
- arxiv url: http://arxiv.org/abs/2503.10912v1
- Date: Thu, 13 Mar 2025 21:52:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:09:06.142660
- Title: JPEG Compliant Compression for Both Human and Machine, A Report
- Title(参考訳): JPEGによる人間と機械の圧縮
- Authors: Linfeng Ye,
- Abstract要約: 我々は人間と機械の両方のための画像圧縮アルゴリズム(DNN)を開発した。
その結果、HMOSDQは、レート精度とレート歪み性能の点で、デフォルトJPEGアルゴリズムよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Deep Neural Networks (DNNs) have become an integral part of our daily lives, especially in vision-related applications. However, the conventional lossy image compression algorithms are primarily designed for the Human Vision System (HVS), which can non-trivially compromise the DNNs' validation accuracy after compression, as noted in \cite{liu2018deepn}. Thus developing an image compression algorithm for both human and machine (DNNs) is on the horizon. To address the challenge mentioned above, in this paper, we first formulate the image compression as a multi-objective optimization problem which take both human and machine prespectives into account, then we solve it by linear combination, and proposed a novel distortion measure for both human and machine, dubbed Human and Machine-Oriented Error (HMOE). After that, we develop Human And Machine Oriented Soft Decision Quantization (HMOSDQ) based on HMOE, a lossy image compression algorithm for both human and machine (DNNs), and fully complied with JPEG format. In order to evaluate the performance of HMOSDQ, finally we conduct the experiments for two pre-trained well-known DNN-based image classifiers named Alexnet \cite{Alexnet} and VGG-16 \cite{simonyan2014VGG} on two subsets of the ImageNet \cite{deng2009imagenet} validation set: one subset included images with shorter side in the range of 496 to 512, while the other included images with shorter side in the range of 376 to 384. Our results demonstrate that HMOSDQ outperforms the default JPEG algorithm in terms of rate-accuracy and rate-distortion performance. For the Alexnet comparing with the default JPEG algorithm, HMOSDQ can improve the validation accuracy by more than $0.81\%$ at $0.61$ BPP, or equivalently reduce the compression rate of default JPEG by $9.6\times$ while maintaining the same validation accuracy.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、特に視覚関連アプリケーションにおいて、私たちの日常生活の不可欠な部分となっている。
しかし、従来の損失画像圧縮アルゴリズムは主にHVS(Human Vision System)のために設計されており、これは圧縮後のDNNの検証精度を非自明に損なうことができる。
したがって、人間と機械の両方のための画像圧縮アルゴリズム(DNN)の開発が地平線上にある。
上記の課題に対処するために、まず、画像圧縮を人間と機械の両方を考慮に入れた多目的最適化問題として定式化し、それから線形結合で解き、人間と機械の両面に新しい歪み尺度を提案し、HMOE(Human and Machine-Oriented Error)を提案した。
その後,HMOEに基づくHuman And Machine Oriented Soft Decision Quantization (HMOSDQ)を開発した。
HMOSDQの性能を評価するために、最後に、ImageNet \cite{deng2009imagenet} 検証セットの2つのサブセットに対して、Alexnet \cite{Alexnet} と VGG-16 \cite{simonyan2014VGG} という2つの訓練済みのDNNベースの画像分類器の実験を行った。
その結果、HMOSDQは、レート精度とレート歪み性能の点で、デフォルトJPEGアルゴリズムよりも優れていた。
デフォルトのJPEGアルゴリズムと比較したAlexnetでは、HMOSDQは、0.61$ BPPで0.81\%以上の検証精度を向上したり、同じ検証精度を維持しながらデフォルトのJPEGの圧縮率を9.6\times$に下げる。
関連論文リスト
- Quantization-free Lossy Image Compression Using Integer Matrix Factorization [8.009813033356478]
我々は、新しい量子化自由損失画像圧縮法を開発するために、整数行列分解(IMF)の変種を導入する。
IMFは、画像データの低ランク表現を、有界整数要素を持つ2つの小さな因子行列の積として提供する。
我々の手法は、JPEGを低ビットレートで0.25ビット/ピクセル(bpp)以下で連続的に上回り、高いビットレートで比較する。
論文 参考訳(メタデータ) (2024-08-22T19:08:08Z) - JDEC: JPEG Decoding via Enhanced Continuous Cosine Coefficients [17.437568540883106]
本稿では,コサインの連続的定式化による局所的暗黙的ニューラル表現を用いたJPEG画像デコーディングの実践的手法を提案する。
提案するネットワークは,フレキシブルカラー画像JPEGアーティファクト削除タスクにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-04-03T03:28:04Z) - Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - High-Perceptual Quality JPEG Decoding via Posterior Sampling [13.238373528922194]
JPEGアーチファクト修正のための異なるパラダイムを提案する。
我々は、圧縮された入力と整合しながら、シャープで詳細で視覚的に再構成された画像を得ることを目指している。
我々のソリューションは、完全な整合性のある入力に対して、多種多様な可塑性かつ高速な再構成を提供する。
論文 参考訳(メタデータ) (2022-11-21T19:47:59Z) - Neural JPEG: End-to-End Image Compression Leveraging a Standard JPEG
Encoder-Decoder [73.48927855855219]
本稿では,エンコーダとデコーダの両端に内在するニューラル表現を強化することで,符号化性能の向上を図るシステムを提案する。
実験により,提案手法はJPEGに対する速度歪み性能を,様々な品質指標で改善することを示した。
論文 参考訳(メタデータ) (2022-01-27T20:20:03Z) - MBRS : Enhancing Robustness of DNN-based Watermarking by Mini-Batch of
Real and Simulated JPEG Compression [40.944632292011846]
JPEGのロバスト性を高めるために,Mini-Batch of Real and Simulated JPEG compression (MBRS) を用いた新しいエンドツーエンドトレーニングアーキテクチャを提案する。
我々のモデルは抽出されたメッセージに対して0.01%未満のビット誤り率を達成し、符号化された画像に対してPSNRが36以上であり、JPEG攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2021-08-18T15:47:37Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Learning to Improve Image Compression without Changing the Standard
Decoder [100.32492297717056]
本稿では,標準デコーダによる符号化性能向上のための学習法を提案する。
具体的には、DCT係数の分布を最適化する周波数領域事前編集法を提案する。
JPEGデコーダは変更しないので、広く使われている標準JPEGデコーダで画像を見る際には、我々のアプローチが適用可能である。
論文 参考訳(メタデータ) (2020-09-27T19:24:42Z) - Perceptually Optimizing Deep Image Compression [53.705543593594285]
平均二乗誤差(MSE)と$ell_p$ノルムは、ニューラルネットワークの損失の測定で大きく支配されている。
本稿では,定量的知覚モデルに対して,画像解析ネットワークを最適化するための異なるプロキシ手法を提案する。
論文 参考訳(メタデータ) (2020-07-03T14:33:28Z) - Quantization Guided JPEG Artifact Correction [69.04777875711646]
我々はJPEGファイル量子化行列を用いたアーティファクト修正のための新しいアーキテクチャを開発した。
これにより、特定の品質設定のためにトレーニングされたモデルに対して、単一のモデルで最先端のパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2020-04-17T00:10:08Z) - Optimizing JPEG Quantization for Classification Networks [32.20485214224392]
単純なソートされたランダムサンプリング手法は、標準JPEG Q-tableの性能を上回ることができることを示す。
新しいQテーブルは、精度が固定されたときに圧縮率を10%から200%向上させることができる。
論文 参考訳(メタデータ) (2020-03-05T19:13:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。