論文の概要: RAGE for the Machine: Image Compression with Low-Cost Random Access for
Embedded Applications
- arxiv url: http://arxiv.org/abs/2402.05974v1
- Date: Wed, 7 Feb 2024 19:28:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:04:10.295455
- Title: RAGE for the Machine: Image Compression with Low-Cost Random Access for
Embedded Applications
- Title(参考訳): RAGE for the Machine:埋め込みアプリケーションのための低コストランダムアクセスによる画像圧縮
- Authors: Christian D. Rask, Daniel E. Lucani
- Abstract要約: RAGEは画像圧縮フレームワークで、一般的に矛盾する4つの目的を達成する。
RAGEは、最先端のロスレス画像圧縮機と類似またはより良い圧縮比を有することを示す。
また、RAGE-Qは、組込みグラフィックスの歪みという点でJPEGを数倍上回っていることを示す。
- 参考スコア(独自算出の注目度): 5.199703527082964
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce RAGE, an image compression framework that achieves four
generally conflicting objectives: 1) good compression for a wide variety of
color images, 2) computationally efficient, fast decompression, 3) fast random
access of images with pixel-level granularity without the need to decompress
the entire image, 4) support for both lossless and lossy compression. To
achieve these, we rely on the recent concept of generalized deduplication (GD),
which is known to provide efficient lossless (de)compression and fast random
access in time-series data, and deliver key expansions suitable for image
compression, both lossless and lossy. Using nine different datasets, incl.
graphics, logos, natural images, we show that RAGE has similar or better
compression ratios to state-of-the-art lossless image compressors, while
delivering pixel-level random access capabilities. Tests in an ARM Cortex-M33
platform show seek times between 9.9 and 40.6~ns and average decoding time per
pixel between 274 and 1226~ns. Our measurements also show that RAGE's lossy
variant, RAGE-Q, outperforms JPEG by several fold in terms of distortion in
embedded graphics and has reasonable compression and distortion for natural
images.
- Abstract(参考訳): 一般的に矛盾する4つの目的を達成する画像圧縮フレームワークであるRAGEを紹介します。
1)多彩なカラー画像に対して良好な圧縮を行う。
2)計算効率のよい高速除圧
3)画像全体を圧縮することなくピクセルレベルの粒度を持つ画像の高速ランダムアクセスを行う。
4)無損失圧縮と無損失圧縮の両方のサポート。
これを実現するため,近年の一般化復号化(GD)の概念は,時間列データにおける効率のよいロスレス(デ)圧縮と高速ランダムアクセスを提供することで知られており,ロスレスとロスリーの両方に画像圧縮に適したキー展開を提供する。
9つの異なるデータセットを使用する。
画像,ロゴ,自然画像から,RAGは最先端のロスレス画像圧縮機と同等あるいはより良い圧縮比を示し,画素レベルのランダムアクセス機能を提供する。
ARM Cortex-M33プラットフォームのテストでは、9.9から40.6~ns、平均デコード時間は274から1226~nsである。
また, RAGE-Qは, 組込みグラフィックスの歪みでJPEGを数倍上回り, 自然な画像に対して適切な圧縮と歪みを有することを示した。
関連論文リスト
- Learned Image Compression for HE-stained Histopathological Images via Stain Deconvolution [33.69980388844034]
本稿では,一般的なJPEGアルゴリズムがさらなる圧縮に適していないことを示す。
Stain Quantized Latent Compression, a novel DL based histopathology data compression approach。
提案手法はJPEGのような従来の手法と比較して,下流タスクの分類において優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2024-06-18T13:47:17Z) - Lossless Image Compression Using Multi-level Dictionaries: Binary Images [2.2940141855172036]
画像の保存や伝送コストを削減するために、さまざまなアプリケーションにおいてロスレス画像圧縮が必要である。
カラー画像の圧縮性は、本質的には空間構造におけるパターンから導かれるものであると論じる。
提案手法はまず,バイナリ画像のデータセットから16時間16ドル,8時間8ドル,4時間4ドル,2時間2平方ピクセルパターンの辞書を学習する。
論文 参考訳(メタデータ) (2024-06-05T09:24:10Z) - Unified learning-based lossy and lossless JPEG recompression [15.922937139019547]
本稿では,学習量子化テーブルとマルコフ階層型変分オートエンコーダから構成されるJPEG再圧縮フレームワークを提案する。
実験の結果,JPEGが上界に近づくと,任意に低歪みが得られることがわかった。
論文 参考訳(メタデータ) (2023-12-05T12:07:27Z) - Are Visual Recognition Models Robust to Image Compression? [23.280147529096908]
画像圧縮が視覚認知タスクに与える影響を解析する。
我々は、0.1ビットから2ビット/ピクセル(bpp)までの幅広い圧縮レベルについて検討する。
これら3つのタスクすべてにおいて,強い圧縮を使用する場合,認識能力に大きな影響があることが判明した。
論文 参考訳(メタデータ) (2023-04-10T11:30:11Z) - Learned Lossless Compression for JPEG via Frequency-Domain Prediction [50.20577108662153]
JPEG画像のロスレス圧縮を学習するための新しいフレームワークを提案する。
周波数領域での学習を可能にするために、DCT係数は暗黙の局所冗長性を利用するためにグループに分割される。
グループ化されたDCT係数のエントロピーモデリングを実現するために、重み付きブロックに基づいてオートエンコーダのようなアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-05T13:15:28Z) - Deep Lossy Plus Residual Coding for Lossless and Near-lossless Image
Compression [85.93207826513192]
本稿では、損失のない画像圧縮とほぼロスレス画像圧縮の両面において、統合された強力な深い損失+残差(DLPR)符号化フレームワークを提案する。
VAEのアプローチにおける連立損失と残留圧縮の問題を解く。
ほぼロスレスモードでは、元の残差を量子化し、与えられた$ell_infty$エラー境界を満たす。
論文 参考訳(メタデータ) (2022-09-11T12:11:56Z) - PILC: Practical Image Lossless Compression with an End-to-end GPU
Oriented Neural Framework [88.18310777246735]
本稿では,1台のNVIDIA Tesla V100 GPUを用いて,圧縮と圧縮の両面で200MB/sを実現するエンドツーエンド画像圧縮フレームワークを提案する。
実験により、我々のフレームワークは、複数のデータセットで30%のマージンで、PNGよりも圧縮が優れていることが示された。
論文 参考訳(メタデータ) (2022-06-10T03:00:10Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - Towards Robust Data Hiding Against (JPEG) Compression: A
Pseudo-Differentiable Deep Learning Approach [78.05383266222285]
これらの圧縮に対抗できるデータ隠蔽の目標を達成することは、依然としてオープンな課題である。
ディープラーニングはデータの隠蔽に大きな成功を収めていますが、JPEGの非差別化性は、損失のある圧縮に対する堅牢性を改善するための深いパイプラインのトレーニングを困難にしています。
本稿では,上記の制約をすべて一度に解決するための,単純かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-30T12:30:09Z) - Learning Better Lossless Compression Using Lossy Compression [100.50156325096611]
我々は、ロスレス画像圧縮システムを構築するために、強力なロスレス画像圧縮アルゴリズムであるBPGを利用する。
我々は,BPG再構成を条件とした畳み込みニューラルネットワークに基づく確率モデルを用いて,残差分布をモデル化する。
そして、この画像は、BPGが生成したビットストリームと学習した残留コーダの連結を用いて保存される。
論文 参考訳(メタデータ) (2020-03-23T11:21:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。