論文の概要: Exploiting context dependence for image compression with upsampling
- arxiv url: http://arxiv.org/abs/2004.03391v3
- Date: Mon, 13 Jul 2020 07:56:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:09:16.059632
- Title: Exploiting context dependence for image compression with upsampling
- Title(参考訳): アップサンプリングによる画像圧縮におけるコンテキスト依存の活用
- Authors: Jarek Duda
- Abstract要約: アップサンプリングによる画像圧縮は、例えば、FUIFとJPEG XLの違いを符号化することで、画像解像度を順調に向上させる。
本稿では、この目的のために、シンプルな安価な汎用技術について論じる。
- 参考スコア(独自算出の注目度): 0.8702432681310399
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image compression with upsampling encodes information to succeedingly
increase image resolution, for example by encoding differences in FUIF and JPEG
XL. It is useful for progressive decoding, also often can improve compression
ratio - both for lossless compression and e.g. DC coefficients of lossy.
However, the currently used solutions rather do not exploit context dependence
for encoding of such upscaling information. This article discusses simple
inexpensive general techniques for this purpose, which allowed to save on
average $0.645$ bits/difference (between $0.138$ and $1.489$) for the last
upscaling for 48 standard $512\times 512$ grayscale 8 bit images - compared to
assumption of fixed Laplace distribution. Using least squares linear regression
of context to predict center of Laplace distribution gave on average $0.393$
bits/difference savings. The remaining savings were obtained by additionally
predicting width of this Laplace distribution, also using just the least
squares linear regression.
For RGB images, optimization of color transform alone gave mean $\approx
4.6\%$ size reduction comparing to standard YCrCb if using fixed transform,
$\approx 6.3\%$ if optimizing transform individually for each image. Then
further mean $\approx 10\%$ reduction was obtained if predicting Laplace
parameters based on context. The presented simple inexpensive general
methodology can be also used for different types of data like DCT coefficients
in lossy image compression.
- Abstract(参考訳): アップサンプリングによる画像圧縮は、例えば、FUIFとJPEG XLの違いを符号化することで、画像解像度を順調に向上させる。
これはプログレッシブデコーディングに有用であり、しばしば圧縮比を改善する(損失のない圧縮と損失のDC係数など)。
しかし、現在使われているソリューションは、そのようなアップスケーリング情報のエンコーディングにコンテキスト依存を利用しない。
本稿では,48の標準512\times 512$グレースケール8ビットイメージに対する最後のアップスケーリングに対して,平均0.645$/difference(0.138$と1.489$)で保存可能な,この目的のためのシンプルな安価な汎用技術について論じる。
ラプラス分布の中心を予測するために文脈の最小二乗線形回帰を用いることで、平均$0.393$bit/差分節約が得られる。
残りの貯蓄量は、このラプラス分布の幅を、最小2乗の線形回帰を用いて追加予測することで得られる。
RGB画像の場合、色変換のみの最適化は、固定変換を使用する場合の標準YCrCbと比較して$\approx 4.6\%、各画像に対して個別に変換を最適化する場合$\approx 6.3\%であった。
さらに、コンテキストに基づいてLaplaceパラメータを予測すると、$\approx 10\%$ reduceが得られた。
提案したシンプルな汎用手法は、損失画像圧縮におけるDCT係数のような様々な種類のデータにも利用できる。
関連論文リスト
- Quantization-free Lossy Image Compression Using Integer Matrix Factorization [8.009813033356478]
我々は、新しい量子化自由損失画像圧縮法を開発するために、整数行列分解(IMF)の変種を導入する。
IMFは、画像データの低ランク表現を、有界整数要素を持つ2つの小さな因子行列の積として提供する。
我々の手法は、JPEGを低ビットレートで0.25ビット/ピクセル(bpp)以下で連続的に上回り、高いビットレートで比較する。
論文 参考訳(メタデータ) (2024-08-22T19:08:08Z) - Exploring the Limits of Semantic Image Compression at Micro-bits per
Pixel [8.518076792914039]
我々はOpenAIのGPT-4VとDALL-E3を使って画像圧縮のための品質圧縮フロンティアを探索する。
我々は、反復的なリフレクションプロセスを導入することで、セマンティック圧縮を100$mu$bpp(JPEGより1万ドル以上安い)まで低くします。
さらに、この100$mu$bppレベルは、標準的な画像解像度におけるセマンティック圧縮のソフトな制限を表すと仮定する。
論文 参考訳(メタデータ) (2024-02-21T05:14:30Z) - Beyond Learned Metadata-based Raw Image Reconstruction [86.1667769209103]
生画像は、線形性や微細な量子化レベルなど、sRGB画像に対して明確な利点がある。
ストレージの要求が大きいため、一般ユーザからは広く採用されていない。
本稿では,メタデータとして,潜在空間におけるコンパクトな表現を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-21T06:59:07Z) - Raw Image Reconstruction with Learned Compact Metadata [61.62454853089346]
本稿では,メタデータとしての潜在空間におけるコンパクトな表現をエンドツーエンドで学習するための新しいフレームワークを提案する。
提案する生画像圧縮方式は,グローバルな視点から重要な画像領域に適応的により多くのビットを割り当てることができることを示す。
論文 参考訳(メタデータ) (2023-02-25T05:29:45Z) - Hyperspectral Image Compression Using Implicit Neural Representation [1.4721615285883425]
本稿では,暗黙的ニューラル表現を用いたハイパースペクトル画像圧縮法を提案する。
提案手法はJPEG,JPEG2000,PCA-DCTよりも低速で圧縮できることを示す。
論文 参考訳(メタデータ) (2023-02-08T15:27:00Z) - Reducing The Amortization Gap of Entropy Bottleneck In End-to-End Image
Compression [2.1485350418225244]
エンド・ツー・エンドのディープ・トレーニング可能なモデルは、ビデオや画像の従来の手作り圧縮技術の性能をほぼ上回っている。
本稿では,このアモート化ギャップを小さなコストで低減する,シンプルで効率的なインスタンスベースのパラメータ化手法を提案する。
論文 参考訳(メタデータ) (2022-09-02T11:43:45Z) - Hybrid Model-based / Data-driven Graph Transform for Image Coding [54.31406300524195]
予測内残差ブロックを符号化するハイブリッドモデルベース/データ駆動方式を提案する。
変換行列の最初の$K$固有ベクトルは、安定性のための非対称離散正弦変換(ADST)のような統計モデルから導かれる。
WebPをベースライン画像として使用することにより、我々のハイブリッドグラフ変換は、デフォルトの離散コサイン変換(DCT)よりもエネルギーの圧縮が良く、KLTよりも安定性がよいことを示す。
論文 参考訳(メタデータ) (2022-03-02T15:36:44Z) - Towards Compact CNNs via Collaborative Compression [166.86915086497433]
チャネルプルーニングとテンソル分解を結合してCNNモデルを圧縮する協調圧縮方式を提案する。
52.9%のFLOPを削減し、ResNet-50で48.4%のパラメータを削除しました。
論文 参考訳(メタデータ) (2021-05-24T12:07:38Z) - Learning Scalable $\ell_\infty$-constrained Near-lossless Image
Compression via Joint Lossy Image and Residual Compression [118.89112502350177]
本稿では,$ell_infty$-constrained near-lossless image compressionを学習するための新しいフレームワークを提案する。
元の残差の学習確率モデルを定量化し、量子化残差の確率モデルを導出する。
論文 参考訳(メタデータ) (2021-03-31T11:53:36Z) - COIN: COmpression with Implicit Neural representations [64.02694714768691]
画像圧縮のための新しい簡易手法を提案する。
画像の各ピクセルのRGB値を格納する代わりに、画像に過度に適合したニューラルネットワークの重みを格納する。
論文 参考訳(メタデータ) (2021-03-03T10:58:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。